Cómo Intel está perfeccionando su enfoque de la IA responsable

0
6

Siempre he admirado la capacidad de Intel para anticipar cómo la tecnología del futuro podría encender el cambio social. Por eso en 2017, incluso antes de que la IA estuviera tan extendida como ahora, lanzamos nuestro programa de IA responsable (RAI). Desde entonces, hemos visto cómo la IA y, más concretamente, el aprendizaje profundo ha logrado avances significativos en el progreso de muchos campos, como la sanidad, los servicios financieros y la fabricación.

También hemos visto cómo el rápido avance de los grandes modelos de lenguaje (LLM) y el mayor acceso a las aplicaciones de IA generativa han cambiado el mundo. Hoy en día, las personas sin conocimientos formales de IA pueden acceder a potentes herramientas de IA. Esto ha permitido a personas de todo el mundo descubrir y utilizar las capacidades de la IA a escala, mejorando su forma de trabajar, aprender y jugar. Aunque esto ha creado enormes oportunidades para la innovación, también ha aumentado la preocupación por el uso indebido, la seguridad, los prejuicios y la desinformación.

Por todas estas razones, las prácticas responsables de IA son más importantes que nunca.
En Intel creemos que el desarrollo responsable debe ser la base de la innovación a lo largo de todo el ciclo de vida de la IA para garantizar que se construye, despliega y utiliza de forma segura, sostenible y ética. A medida que la IA continúa evolucionando rápidamente, también lo hacen nuestros esfuerzos de RAI.

Gobernanza interna y externa
Una parte clave de nuestra estrategia RAI es utilizar procesos de revisión rigurosos y multidisciplinarios a lo largo del ciclo de vida de la IA. Internamente, los consejos asesores de Intel revisan diversas actividades de desarrollo de IA a través de la lente de los principios básicos:

Respetar los derechos humanos
Permitir la supervisión humana
Permitir la transparencia
Fomentar la seguridad y la fiabilidad
Diseño para la privacidad
Promover la equidad y la inclusión
Proteger el medio ambiente

Mucho ha cambiado con la rápida expansión de la IA generativa, y nosotros hemos cambiado con ella. Desde la elaboración de orientaciones permanentes sobre implantaciones internas más seguras de LLM, hasta la investigación y el desarrollo de una taxonomía de las formas específicas en que la IA generativa puede llevar a la gente por mal camino en situaciones del mundo real, estamos trabajando duro para adelantarnos a los riesgos.

Con la expansión de la IA generativa también ha aumentado la preocupación por el impacto medioambiental de la IA, por lo que hemos añadido «proteger el medio ambiente» como nuevo principio básico, en consonancia con los compromisos más amplios de Intel en materia de gestión medioambiental. Aunque no hay nada sencillo a la hora de abordar esta compleja área, la IA responsable nunca se ha tratado de simplicidad. En 2017, nos comprometimos a abordar el sesgo incluso cuando todavía se estaban desarrollando métodos para abordarlo.

Investigación y colaboración
A pesar de los grandes avances que se han logrado en la IA responsable, sigue siendo un campo incipiente. Debemos seguir avanzando en el estado del arte, especialmente dada la mayor complejidad y capacidad de los modelos más recientes. En Intel Labs, nos centramos en áreas de investigación clave como la privacidad, la seguridad, la colaboración entre humanos e IA, la desinformación, la sostenibilidad de la IA y la transparencia.

También colaboramos con instituciones académicas de todo el mundo para amplificar el impacto de nuestro trabajo. Recientemente hemos creado el Centro Intel de Excelencia en Sistemas Humanos y de Inteligencia Artificial Responsable (RESUMAIS). Este esfuerzo plurianual reúne a cuatro instituciones de investigación punteras: en España, el Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes (ELLIS) Alicante; y en Alemania, DFKI, el Centro Alemán de Investigación en Inteligencia Artificial, el Centro de Investigación en Tecnologías de la Información FZI y la Leibniz Universität Hannover. RESUMAIS pretende fomentar el desarrollo ético y centrado en el usuario de la IA, centrándose en cuestiones como la equidad, la colaboración entre humanos e IA, la responsabilidad y la transparencia.

También seguimos creando y participando en varias alianzas en todo el ecosistema para proponer soluciones, normas y puntos de referencia que aborden las nuevas y complejas cuestiones relacionadas con la IA. Nuestra participación en el MLCommons® AI Safety Working Group, la AI Alliance, los grupos de trabajo de la Partnership on AI, la Business Roundtable on Human Rights and AI y otras iniciativas de múltiples partes interesadas han sido fundamentales para hacer avanzar este trabajo, no solo como empresa, sino como sector.

IA inclusiva/llevar la IA a todas partes
Intel cree que llevar la «IA a todas partes» de manera responsable es clave para el avance colectivo de las empresas y la sociedad. Esta creencia es la base del programa de preparación digital de Intel, que trabaja para proporcionar acceso a las habilidades de IA a todo el mundo, independientemente de su ubicación, origen étnico, género o procedencia.

Nos sentimos orgullosos de ampliar nuestros programas de IA para jóvenes y trabajadores para incluir planes de estudio sobre ética aplicada y sostenibilidad medioambiental. Además, en el tercer Festival AI Global Impact de Intel, los proyectos de los ganadores se sometieron a una auditoría ética inspirada en el proceso multidisciplinar de Intel. La plataforma del festival también contó con una lección en la que más de 4.500 estudiantes obtuvieron certificaciones en habilidades responsables de IA. Y, por primera vez, se concedieron premios a equipos de proyectos que ofrecieron soluciones innovadoras de accesibilidad utilizando IA.

De cara al futuro
Estamos ampliando nuestros esfuerzos para comprender y mitigar los riesgos únicos creados por la expansión masiva de la IA generativa y para desarrollar enfoques innovadores que aborden la seguridad, la protección, la transparencia y la confianza.

También estamos trabajando con nuestra organización de Responsabilidad de la Cadena de Suministro para acelerar el progreso en el tratamiento de los derechos humanos de los trabajadores de enriquecimiento de datos globales de IA (es decir, las personas que hacen que los conjuntos de datos de IA sean utilizables a través del etiquetado, la limpieza, la anotación o la validación). Abordar este problema crítico requerirá esfuerzos de toda la industria, y estamos aprovechando nuestras dos décadas de experiencia abordando cuestiones como el abastecimiento responsable y el trabajo forzoso para ayudar a hacer avanzar el ecosistema global.

En el ámbito de la IA responsable, estamos comprometidos con el aprendizaje de nuevos enfoques, la colaboración con socios de la industria y la continuación de nuestro trabajo. Sólo así podremos liberar realmente el potencial y los beneficios de la IA.

Autor: Lama Nachman es Intel Fellow y director del Intelligent Systems Research Lab en Intel Labs.

 

Custom Text
Artículo anteriorApple mira hacia los robots personales tras su adiós a los autos
Artículo siguienteOpenAI anuncia que los usuarios ya pueden editar imágenes en Dall-E a través de ChatGPT