Cómo los líderes de TI pueden adoptar una Inteligencia Artificial responsable

0
14

Cuando el uso de la inteligencia artificial se incrementa o incluso llega a sustituir a las decisiones humanas, magnifica los resultados buenos o malos por igual.

Existen numerosos riesgos y daños potenciales creados por los sistemas de IA, como la parcialidad y la discriminación, las pérdidas financieras o de reputación, la falta de transparencia y de capacidad de explicación, o las invasiones de la seguridad y la privacidad. La IA responsable permite obtener los resultados correctos al resolver los dilemas relacionados con la aportación de valor frente a la tolerancia de los riesgos.

La IA responsable debe formar parte de la estrategia de IA más amplia de una organización. Estos son los pasos que el director de información y los líderes de tecnología de la información, en colaboración con el liderazgo de datos y análisis, pueden dar para que su organización avance hacia una visión de la IA responsable.

Definir la IA responsable
La IA responsable es un término que engloba los aspectos relacionados con la toma de decisiones empresariales y éticas adecuadas al adoptar la IA. Abarca decisiones en torno al valor empresarial y social, el riesgo, la confianza, la transparencia, la equidad, la parcialidad, la mitigación, la explicabilidad, la responsabilidad, la seguridad, la privacidad, el cumplimiento de la normativa, etc.

Antes de que las organizaciones diseñen su estrategia de IA, deben definir qué significa la IA responsable en el contexto del entorno de su organización. Hay muchas facetas de la IA responsable, pero Gartner considera que hay cinco principios que son los más comunes en las distintas organizaciones.

¿En qué punto de su trayectoria de IA responsable se encuentra?

Estos principios definen la IA responsable tal como es:

  • Centrada en el ser humano y socialmente beneficiosa, que sirve a los objetivos humanos y apoya una automatización ética y más eficiente, al tiempo que se basa en un toque humano y en el sentido común.
  • Justa para que los individuos o grupos no se vean sistemáticamente perjudicados por las decisiones impulsadas por la IA, al tiempo que se aborda la disolución, el aislamiento y la polarización entre los usuarios.
  • Transparente y explicable para generar confianza y comprensión en los sistemas de IA.
  • Segura y protegida para proteger los intereses y la privacidad de las organizaciones y las personas mientras interactúan con los sistemas de IA en diferentes jurisdicciones.
  • Responsable para crear canales de recurso y establecer derechos para las personas.

Comprender cómo la IA responsable beneficia a la empresa
Un componente clave de un viaje de IA responsable implica presentar el caso de los cambios a las partes interesadas clave. Disponer de una estrategia clara para la IA responsable y comunicar los beneficios empresariales a la dirección ejecutiva ayudará a la TI a alcanzar los objetivos que se propone con la IA. Para ello es necesario comprender cómo la IA responsable puede beneficiar a la empresa.

La IA responsable apoya a la empresa ayudando a abordar las incertidumbres para mantener la confianza en la IA. Por ejemplo, la IA responsable ayuda a las organizaciones a adelantarse de forma proactiva a la curva normativa, lo que beneficia a la credibilidad de la empresa ante clientes, socios y otras partes interesadas clave.

En toda la empresa, la IA responsable genera valor al aumentar la adopción de la IA, al tiempo que se mapean los cambios en la exposición al riesgo. Esto mejora el valor de los empleados, los clientes y la sociedad mediante el aumento de la seguridad, la fiabilidad y la sostenibilidad, ayudando a que la IA esté más centrada en el ser humano y sea más inclusiva.

Por último, un programa de IA responsable apoya a los equipos de desarrollo y ejecución. El uso de métodos y técnicas que minimicen el sesgo del muestreo, respeten la privacidad del usuario y sean explicables puede ayudar a garantizar la equidad individual, así como la representación justa, la precisión y los errores. Los desarrolladores de IA pueden garantizar que los modelos sean seguros y resistentes con ciclos exhaustivos de pruebas, repeticiones y actualizaciones de ataques y vulnerabilidades mediante pruebas de estrés y validación.

Crear una hoja de ruta de IA responsable
Una vez que se comprendan bien los beneficios empresariales, elabore una hoja de ruta de IA responsable identificando las lagunas en la estrategia actual.

Las organizaciones suelen empezar con un enfoque ad hoc, que es de naturaleza reactiva y aborda los retos que plantean los sistemas de IA sobre la marcha. Esto actúa como una solución temporal y a menudo se vuelve cada vez más difícil con el tiempo, ya que las organizaciones deben jugar a ponerse al día con las regulaciones existentes para garantizar el cumplimiento. Aunque este enfoque puede funcionar para las organizaciones más pequeñas, puede no ser viable a medida que los sistemas se vuelven más interconectados y complejos.

El siguiente paso evolutivo sería un enfoque proactivo, en el que las TI evalúen y acepten el riesgo estructurado. Sin embargo, para obtener el máximo beneficio de la IA, las organizaciones deben adoptar un enfoque generalizado que examine los riesgos actuales frente a los beneficios o riesgos futuros o diferidos.

Una vez que las organizaciones evalúan su estado actual de IA responsable, los líderes de TI pueden empezar a elaborar sus objetivos y su visión. Comience con un camino fundacional, revisando la estrategia y la visión de la IA y trabajando para pasar de un enfoque ad hoc a uno estructurado. Planifique el desarrollo y la ejecución de la IA responsable en torno a los recursos existentes y céntrese en comunicar el valor empresarial a las principales partes interesadas. Sentar las bases de la confianza en la IA y mejorar su adopción en toda la organización.

Una vez alcanzada la senda fundacional, las organizaciones pueden embarcarse en la senda de la estabilidad. Centrarse en ser más proactivo y aumentar las capacidades de prueba y validación para garantizar la seguridad y la privacidad.

Por último, las organizaciones que han evolucionado a lo largo de su viaje de IA responsable pueden comenzar el camino de la transformación, convirtiéndose en un líder de pensamiento que apoya la IA para el bien. La etapa de transformación es para las organizaciones que quieren crear un enfoque autosostenible para tratar con la IA, donde las conversaciones y las acciones se centran en la centralidad humana y la sostenibilidad.

Cualquier organización que se embarque en una iniciativa de IA debe seguir este enfoque estructurado hacia la comprensión, utilización e implementación de prácticas de IA responsables contextualizadas a su negocio. El camino hacia la IA responsable irá evolucionando a medida que surjan nuevos retos, pero será cada vez más importante a medida que la IA se generalice en las empresas y la sociedad.

Fuente WEB | Editado por CambioDigital OnLine

Artículo anteriorPor qué Apple decide eliminar por completo el SIM de sus nuevos iPhone 14
Artículo siguienteCómo evitar ser víctima de aplicaciones móviles maliciosas