Netskope ha alertado de los riesgos de seguridad del uso de la IA generativa en el terreno profesional sin control por parte de las organizaciones. El año pasado, según un estudio de la compañía, los datos enviados a aplicaciones de IA generativa por parte de los usuarios se han multiplicado por treinta. Estos datos incluyen desde código fuente, información confidencial, contraseñas y claves y otra información valiosa.
El ”Informe sobre amenazas y la nube de IA generativa para 2025” destaca que el 72 % de los usuarios empresariales se conectan a las aplicaciones de genAI que utilizan para trabajar con sus cuentas personales.
Además, el estudio revea que el 75 % de los usuarios corporativos acceden a aplicaciones con funciones de genAI, lo que plantea un problema que los equipos de seguridad deben abordar: la amenaza interna involuntaria.
“A pesar de los grandes esfuerzos de las organizaciones por implementar herramientas de IA generativa gestionadas por la empresa, nuestro estudio pone de manifiesto que la “shadow IT” se ha convertido en “shadow IA”, y casi tres cuartas partes de los usuarios siguen accediendo a aplicaciones de genAI a través de cuentas personales”, destaca James Robinson, CISO de Netskope.
Netskope señala que esta tendencia pone de manifiesto la necesidad de contar con capacidades avanzadas de seguridad de datos para que los equipos de seguridad puedan recuperar el control.
“Nuestros últimos datos muestran que la inteligencia artificial ya no es una tecnología de nicho, sino que está presente en todas partes”, comentó Ray Canzanese, director de Netskope Threat Labs. “Cada vez hay más aplicaciones dedicadas e integraciones de backend que la integran. Esta generalización plantea un problema de ciberseguridad cada vez mayor, que exige a las organizaciones adoptar un enfoque integral de la gestión de riesgos o arriesgarse a que sus datos confidenciales queden expuestos a terceros que podrían utilizarlos para entrenar nuevos modelos de inteligencia artificial, lo que crearía oportunidades para una exposición de datos aún más generalizada”, añadió el directivo.
Netskope recomienda a las empresas que revisen, adapten y personalicen sus marcos de riesgo específicamente para la IA o la IA general, con el fin de garantizar una protección adecuada de los datos, los usuarios y las redes.