ChatGPT y otros modelos lingüísticos basados en inteligencia artificial han llegado para quedarse y su uso se está generalizando. En este contexto se ha abierto un debate en torno a cómo su utilización masiva puede suponer riesgos para la sociedad y el mercado laboral. Desde Panda han querido analizar los riesgos que esta tecnología puede suponer si se utiliza con fines malintencionados por los cibercriminales. En este sentido, Hervé Lambert, Global Consumer Operations Manager de Panda Security considera que “tenemos que empezar a hablar sobre la utilidad que pueden tener para el cibercrimen organizado y para la formación en malas prácticas de nuevos seguidores”.
ChatGPT, aplicación desarrollada por OpenAI, es un potente modelo de lenguaje que ha sido entrenado con una gran cantidad de datos de texto y tiene la capacidad de generar respuestas similares a las humanas a preguntas en lenguaje natural. Esto la ha convertido en una herramienta popular para una amplia gama de aplicaciones, como chatbots, creación de contenidos y análisis de datos.
En primer lugar, Panda alerta de la posibilidad de que utilizando ChatGPT se pueda mejorar el código de un virus. Aunque desde Panda Lambert aclara que ChatGPT “no escribe un código de malware aun pidiéndoselo, ya que se han establecidos límites o, mejor dicho, protocolos de seguridad para identificar solicitudes inapropiadas”, también apunta que los ciberdelincuentes están intentando saltarse estos protocolos y, “en algunos casos se ya se ha conseguido”, por lo que presumiblemente, Panda subraya que sí se podría llegar a mejorar el código de un virus.
En segundo lugar, Panda está preocupada por el uso de ChatGPT para difundir desinformación generalizada. El experto apunta a que la capacidad de ChatGPT para generar respuestas similares a las humanas a preguntas de lenguaje natural se pueda usar por los cibercriminales para generar noticias o mensajes en las redes sociales diseñados para influir en la opinión pública.
Abundando en esto, desde Panda señalan que este mal uso de ChatGPT podría servir para la difusión de noticias falsas sobre empresas y marcas que dañen su reputación e imagen. Además, Lambert apunta a que esto podría ser utilizado también “para afectar a los precios de las acciones y causar pérdidas financieras a los inversores”.
Otro de los riesgos del mal uso de ChatGPT que señalan desde Panda es la suplantación de identidad y engaño a menores. Un cibercriminal podría crear un perfil falso en las redes sociales o un chatbot que parezca ser una persona real, y luego utilizarlo para llevar a cabo estafas y robo de credenciales y datos bancarios. Esta suplantación de identidad se podría también producir, según Panda, a través de nuevos modelos de voz, generando conversaciones telefónicas o mensajes de voz.
Por último, desde Panda creen que otro mal uso podría ser ayudar en los ciberataques de phishing, perfeccionando el contenido en muchos contextos, países e idiomas diferentes. “Tengamos en cuenta que buena parte de los emails, SMS y WhatsApps de phishing que recibimos son malísimas traducciones, lo que nos facilita mucho su detección. Pero, si los hackers empiezan a usar esta IA para traducir sus mensajes, será mucho más difícil darse cuenta del engaño”, explica Lambert.