El uso de la inteligencia artificial está creciendo en todo el mundo, pero se está observando una brecha entre la rapidez de adopción de la IA y el nivel de preparación de las organizaciones para protegerse ante los riesgos asociados. El informe global “AI and Human Risk Landscape” de 2026, elaborado por Proofpoint, ha analizado, a través de una encuesta a más de 1.400 profesionales de la seguridad en 12 países, las debilidades estructurales de los controles de seguridad y la respuesta a incidentes.
En los datos correspondientes a España, el informe señala que el 90 % de las organizaciones ha desplegado asistentes de IA más allá de la fase piloto, y el 64 % ha probado o implementado agentes autónomos. En este despliegue y, a pesar de que muchas empresas han invertido en herramientas y controles de IA, los controles no son siempre efectivos. El 78 % indica que no confía plenamente en que sus controles de seguridad de IA sean capaces de detectar una IA comprometida. Y, además, el 32 % con controles implementados ya ha experimentado un incidente relacionado con la IA, confirmado o sospechoso.
El estudio señala que la IA amplía la superficie de ataque, lo que hace que las amenazas se propaguen a velocidad de máquina e impacten en los flujos de trabajo conectados. El correo electrónico sigue como el vector de amenaza más común (81 %), pero la exposición ahora se extiende a través de aplicaciones SaaS y en la nube de terceros, plataformas sociales y de mensajería. En nuestro país, entre las organizaciones que han experimentado un incidente relacionado con la IA, un 74 % se ha producido en el correo electrónico y un 56 % en sistemas que involucran a asistentes o agentes de IA, SMS o mensajes de texto y plataformas sociales o de mensajería.
El estudio señala que las brechas persisten en capacitación (55 %), monitorización o registro insuficientes (38 %) y alineación de gobernanza entre equipos (35 %).
En cuanto al nivel de preparación para investigar un incidente, solo el 11 % indica estar totalmente preparado para investigar un incidente relacionado con la IA o con agentes. Y el 41 % señala dificultades para correlacionar amenazas entre canales. Y, además, uno de los problemas a los que se enfrentan las organizaciones es a la falta de visibilidad de los entornos conectados que es imprescindible para reconstruir los eventos.
“Las organizaciones escalan los asistentes de IA y los agentes autónomos en sus principales flujos de trabajo. No obstante, muchas no pueden confirmar que sus controles sean efectivos o investigar completamente los incidentes que se mueven a través de los canales de colaboración. A medida que la IA se integra en la manera de trabajar, los líderes de seguridad deben reconsiderar cómo protegen las interacciones confiables entre personas, datos y sistemas de IA”, destacó Ryan Kalember, director de estrategia en Proofpoint.































































