La inteligencia artificial generativa se está utilizando en las empresas por las opciones de automatización de procesos y tareas que ofrece, pero al mismo tiempo los directivos están preocupados por los riesgos de seguridad que conlleva y las pérdidas económicas que puede acarrear. Un reciente informe de Kaspersky revela que el 96 % de los directivos españoles, que participaron en el estudio, cree que sus empleados utilizan regularmente este tipo de sistemas.
El estudio indica también que solo el 19 % de los encuestados en España ha debatido la imposición de reglas para controlar el uso de GenAI, a pesar de que el 95 % afirma que es necesario un mayor conocimiento del uso que los empleados hacen de esta tecnología para estar protegidos frente a riesgos de seguridad críticos o fugas de datos. Y el 64 % dice que teme pérdidas económicas en sus organizaciones por este uso.
Además, Kaspersky ha analizado el uso de la GenIA en nuestro país en otro informe que revela que el 25 % de quienes usan Chat GPT en el trabajo, el sistema de GenIA más popular, no sabe lo que pasa con los datos que introduce en la herramienta, a pesar de que Chat GPT puede almacenar información como la dirección IP, el tipo de navegador y la configuración del usuario, así como datos sobre las funciones más utilizadas.
Otro dato significativo es que las empresas no han tomado medidas para regular el uso de la GenIA. El 45,5 % de las empresas no tiene ninguna normativa interna relativa al uso de Chat GPT, un 19 % indica que sí hay normas, pero no suficientemente claras. Y un 7 % señala que las normas son claras, pero no se cumplen. Solo el 27 % comenta que cuenta con reglas claras y, además, se cumplen.
Todos estos datos contrastan con la intención que tiene el 46 % de los directivos españoles de integrar esta tecnología para mejorar su productividad.
“Los sistemas GenIA se encuentran en claro crecimiento, y cuanto más tiempo funcionen sin control más difícil será proteger áreas del negocio como recursos humanos, finanzas, marketing o incluso TI”, alerta David Emm, analista principal de Seguridad de Kaspersky.
Otro problema, además de que los empleados pueden introducir datos confidenciales en Chat GPT, es el uso de los ciberestafadores de esta herramienta para generar código malicioso o estafas de phishing lo más creíbles posibles.
Ante esta situación, los expertos de Kaspersky aconsejan evitar introducir información delicada y datos confidenciales, crear normas internas que regulen el uso de Chat GPT y concienciar a los empleados sobre la importancia de no compartir ciertos datos, educando al empleado en ciberseguridad. Además, recomienda el uso de soluciones de seguridad como Kaspersky Premium y una herramienta para la gestión de claves como Kaspersky Password Manager.