Las empresas están confiando en la IA generativa, por encima de la IA tradicional (como el machine learning), a pesar estas empresas no están invirtiendo lo suficiente para que sus sistemas sean confiables, gracias a la gobernanza y medidas de protección éticas, según se desprende del estudio “IDC Data and AI Impact Report: The Trust Imperative”, elaborado por IDC para SAS.
El estudio señala que las implementaciones de IA emergentes, como la IA generativa y los agentes de IA, están por encima de otras formas más consolidadas de IA. El 48 % de los encuestados declaró tener “plena confianza” en la IA generativa, mientras que un tercio afirmó lo mismo sobre los agentes de IA (33 %). La forma que menos confianza suscrita es la IA tradicional (18 %).
El informe también destaca que, a pesar de la confianza en la IA generativa y agentes de IA, los encuestados expresaron su preocupación por temas como la privacidad de los datos (62 %), la transparencia y explicabilidad (57 %) y el uso ético (56 %).
Además, el estudio pone de manifiesto que solamente el 40 % de las empresas está invirtiendo para lograr que sus sistemas de IA sean confiables gracias a la gobernanza, explicabilidad y medidas de protección éticas.
“Nuestra investigación muestra una contradicción: las formas de IA con interacción humana y familiaridad social generan mayor confianza, independientemente de su fiabilidad o precisión real”, destacó Kathy Lange, directora de investigación en IA y Automatización en IDC. “Como proveedores de IA, profesionales y usuarios, debemos preguntarnos: ¿la IA generativa es realmente confiable o simplemente inspira confianza? ¿Están los líderes aplicando las salvaguardas y la gobernanza necesarias para esta tecnología emergente?”, añadió Lange.
El estudio también explica que la IA cuántica está empezando a generar confianza rápidamente, a pesar de que la tecnología necesaria para ejecutar los casos de uso aún no se ha desarrollado por completo. Así, casi un tercio de los decisores a nivel global afirma estar familiarizado con la IA cuántica y un 26 % declara plena confianza en esta tecnología, a pesar de que las aplicaciones reales todavía están en una fase inicial del desarrollo.
Al mismo tiempo, la investigación muestra que la implementación protección éticas no es una de las prioridades al operacionalizar proyectos de IA. Entre las tres principales prioridades organizativas, solo un 2 % seleccionó el desarrollo de un marco de gobernanza de IA, y menos del 10 % confesó haber desarrollado una política de IA responsable. Sin embargo, no priorizar estas medidas puede estar impidiendo que estas empresas obtengan todo el valor de sus inversiones en IA a largo plazo.