Una reciente investigación de Netskope revela que los datos que las organizaciones tienen la obligación de proteger representan más de un tercio de los datos confidenciales que se comparten con las aplicaciones de IA generativa (genAI), lo que implica un alto riesgo de sufrir filtraciones de datos.
El estudio de Netskope Threat Labs revela que tres cuartas partes de los participantes en la investigación bloquea al menos una aplicación genAI, lo que demuestra la preocupación de los responsables tecnológicos por la seguridad. Sin embargo, menos de la mitad aplican centrados en los datos para evitar que se comparta información confidencial en las solicitudes de entrada, lo que supone que la mayoría de las organizaciones está rezagada en la prevención de la pérdida de datos para implantar la IA generativa de forma segura.
Los investigadores comprobaron que el 96 % de las empresas utiliza actualmente genAI, un número que se ha triplicado en los últimos 12 meses. Y utilizan casi 10 aplicaciones de GenAI de media, frente a las 3 del año pasado. Además, el 1 % de las que las han adoptado esta tecnología ahora usa de media 80 aplicaciones, lo que supone un aumento significativo con respecto a las 14 del año pasado.
Al mismo tiempo, las empresas están intercambiando código fuente propietario dentro de las aplicaciones genAI, lo que ha supuesto el 46 % de todas las vulneraciones documentadas de la política de datos. Esto exige que las empresas hagan un esfuerzo en el terreno de la prevención de la pérdida de datos (DLP).
Netskope señala que la aplicación de controles de seguridad proactivos que impliquen la formación de los usuarios para guiar su interacción con las aplicaciones de genAI son una vía para reducir los riesgos. En este sentido, el asesoramiento sobre los riesgos relacionados con los datos ha hecho que el 57 % de los usuarios consultados hayan modificados sus hábitos tras recibir esta información.
James Robinson, director de seguridad de la información de Netskope, explica que “las empresas deben ser conscientes de que el uso de genAI puede exponer inadvertidamente información sensible, diseminar información falsa o incluso introducir contenido malicioso. Ello exige un planteamiento sólido de gestión de riesgos para proteger los datos, la reputación y la continuidad del negocio”.
Según se recoge en el “Informe sobre la nube y las amenazas: AI Apps en la empresa” de Netskope, más del 80 % de las empresas están utilizando ChatGPT y desde el lanzamiento de Microsoft Copilot su uso ha crecido un 57 %. El estudio también indica que un 19 % de las organizaciones ha prohibido totalmente GitHub CoPilot.
Teniendo en cuenta estos datos, Netskope aconseja a las empresas que revisen, adapten y ajusten sus programas de protección específicamente a la IA. Recomienda primero evaluar qué uso hace actualmente de la IA y el aprendizaje automático para identificar posibles vulnerabilidades y brechas de controles de seguridad. Implementar controles básicos, posteriormente planificar controles avanzados y finalmente evaluar periódicamente las medidas de seguridad.