La rápida expansión y despliegue de la inteligencia artificial (IA) en las organizaciones ha dado lugar a un amplio impulso mundial para regular la IA. Para 2026, Gartner predice que el 50% de los gobiernos de todo el mundo impondrán el uso de la IA responsable a través de normativas, políticas y la necesidad de privacidad de los datos.
Hablamos con Anushree Verma, directora Analista de Gartner, para discutir el impacto de las regulaciones de IA en los planes futuros de los CIOs y lo que pueden hacer para implementar la IA responsable en sus organizaciones.
P: Gartner predice que para 2026, el 50% de los gobiernos de todo el mundo impondrán el uso de IA responsable a través de normativas, políticas y la necesidad de privacidad de los datos. ¿Cuáles son las implicaciones de este tipo de normativas?
R: Las normativas sobre IA responsable erigirán fronteras geográficas en el mundo digital y crearán una red de normativas competidoras de diferentes gobiernos para proteger a las naciones y a sus poblaciones de aplicaciones de IA y GenAI poco éticas o indeseables. Esto limitará la capacidad de los líderes de TI para maximizar los productos extranjeros de IA y GenAI en todas sus organizaciones. Estas regulaciones requerirán que los desarrolladores de IA se centren más en la ética, la transparencia y la privacidad de la IA a través del uso responsable de la IA en todas las organizaciones.
«IA responsable» es un término general para los aspectos de tomar las decisiones empresariales y éticas apropiadas al adoptar la IA en el contexto de la organización. Los ejemplos incluyen ser transparente con el uso de la IA, mitigar el sesgo en los algoritmos, asegurar los modelos contra la subversión y el abuso, y proteger la privacidad de la información del cliente y el cumplimiento normativo. La IA responsable hace operativas las responsabilidades y prácticas organizativas que garantizan el desarrollo y la utilización positivos y responsables de la IA.
El desarrollo y uso de la IA responsable no sólo será crucial para los desarrolladores de productos y servicios de IA, sino también para las organizaciones que utilizan herramientas de IA. El incumplimiento expondrá a las organizaciones al escrutinio ético de los ciudadanos en general, lo que conllevará importantes riesgos financieros, de reputación y legales para la organización.
P: ¿Cuándo se generalizará la IA responsable?
R: La IA responsable está a solo tres años de alcanzar una adopción mayoritaria temprana debido a la aceleración de la adopción de la IA, en particular GenAI, y a la creciente atención a las implicaciones normativas asociadas.
La IA responsable afectará a prácticamente todas las aplicaciones de la IA en todos los sectores. A corto plazo, los sectores más regulados, como los servicios financieros, la sanidad, la tecnología y la administración pública, seguirán siendo los primeros en adoptar la IA responsable. Sin embargo, la IA responsable también desempeñará un papel importante en los sectores menos regulados, ya que contribuirá a generar confianza en los consumidores y a fomentar la adopción, así como a mitigar los riesgos financieros y legales.
P: ¿Qué medidas deben tomar las organizaciones para garantizar el futuro de sus proyectos de GenAI teniendo en cuenta las normativas gubernamentales actuales y futuras?
R: Hay varias medidas que las organizaciones pueden tener en cuenta a la hora de preparar sus proyectos de GenAI para el futuro:
Supervisar e incorporar la evolución de los requisitos de cumplimiento de la IA responsable de los diferentes gobiernos mediante el desarrollo de un marco que mapee la cartera de productos y servicios GenAI de la organización a los requisitos reglamentarios de IA de las diferentes naciones.
Comprender, aplicar y utilizar prácticas de IA responsable contextualizadas para la organización. Esto puede hacerse determinando un plan de estudios para la IA responsable y estableciendo después un enfoque estructurado para educar y crear visibilidad en toda la organización, implicar a las partes interesadas e identificar los casos de uso y las soluciones adecuadas para su aplicación.
Operacionalizar la gestión de la confianza, el riesgo y la seguridad de la IA (AI TRiSM) en soluciones centradas en el usuario integrando la IA responsable para acelerar la adopción y mejorar la experiencia del usuario.
Garantizar la rendición de cuentas de los proveedores de servicios en cuanto a la gobernanza responsable de la IA mediante el cumplimiento de las obligaciones contractuales y mitigar el impacto de los riesgos derivados de comportamientos poco éticos y no conformes o de los resultados de sesgos incontrolados e inexplicables de las soluciones de IA.
Fuente: Gartner