Check Point Research, la división de inteligencia de amenazas de Check Point Software, ha alertado sobre la aparición de ataques en entornos corporativos a través del leguaje natural mediante los modelos de lenguaje a gran escala (LLM).
Este tipo de amenazas, que no dependen de malware ni de exploits tradicionales, se ha visto en el ataque Echoleak en el que Microsoft 365 Copilot, un agente basado en un modelo de lenguaje de gran escala (LLM), quedo comprometido por un mensaje disfrazado de dato legítimo.
El agente obedeció una orden expresada en lenguaje natural, sin detectar su carácter malicioso. El problema es que actuó como fue diseñado, es decir, obedeciendo.
Esta amenaza explota el modo en el que los LLM interpretan la intención del usuario. Los pompts incrustados en archivos, mensajes o formularios pueden activar acciones sensibles —como extraer datos o alterar configuraciones— sin intervención humana adicional, lo que implica que esta amenaza se basa en la ambigüedad del lenguaje.
Según señala Check Point Software, los agentes de IA modernos están integrados en los sistemas operativos, clientes de correo, suites ofimáticas y accesos a API corporativas. Por tanto, una sola instrucción maliciosa puede desencadenar una fuga de información.
El problema se agrava por la velocidad de adopción. El informe informe “AI Security Report” del proveedor señala que el 62 % de los responsables de ciberseguridad (CISO) teme ser considerado personalmente responsable de una brecha vinculada a IA, casi el 40 % de las empresas detecta un uso interno no autorizado de estas herramientas y el 20 % de los grupos cibercriminales ya incorpora IA en sus tácticas de ataque.
Algunas soluciones emplean modelos de supervisión, pero pueden no ser suficientes. Ante esto el especialista en ciberseguridad recomienda monitorizar la actividad de los agentes de IA en tiempo real, incluyendo el registro de todos los prompts y respuestas, aplicar principios de mínimo privilegio, añadir mecanismos de verificación para operaciones sensibles y detectar patrones de lenguaje anómalos.
“La conversación se ha convertido en el nuevo vector de ataque. Ya no basta con proteger el código; debemos proteger también el lenguaje, la intención y el contexto”, advierte Radoslaw Madej, responsable del equipo de investigación de vulnerabilidades.