Aprovechar responsablemente el poder de la IA

0
34

Intel está aprovechando de manera responsable la inteligencia artificial para mitigar los riesgos e impulsar un cambio positivo.

La inteligencia artificial (IA) se ha convertido en una parte clave de la vida cotidiana, transformando la forma en que vivimos, trabajamos y resolvemos desafíos nuevos y complejos. Desde hacer posible el banco de voz para personas con afecciones neurológicas hasta ayudar a los vehículos autónomos a hacer que las carreteras sean más seguras y ayudar a los investigadores a comprender mejor los patrones de lluvia y las tendencias de la población humana , la IA nos ha permitido superar barreras, hacer que las sociedades sean más seguras y desarrollar soluciones para construir un futuro mejor.

A pesar de los muchos beneficios de la IA en la vida real, a Hollywood le encanta contar historias alarmantes de IA que toma una mente propia y amenaza a las personas. Estos escenarios de ciencia ficción pueden distraernos de las formas muy reales pero más banales en las que los sistemas de IA mal diseñados pueden dañar a las personas. Es fundamental que nos esforcemos continuamente por desarrollar de manera responsable tecnologías de IA para que nuestros esfuerzos no marginen a las personas, utilicen los datos de manera poco ética o discriminen a las diferentes poblaciones, especialmente a las personas en grupos tradicionalmente subrepresentados. Estos son problemas que nosotros, como desarrolladores de sistemas de IA, conocemos y estamos trabajando para prevenir.

En Intel, creemos en el potencial de la tecnología de IA para crear un cambio global positivo, capacitar a las personas con las herramientas adecuadas y mejorar la vida de cada persona en el planeta. Durante mucho tiempo hemos sido reconocidos como una de las empresas más éticas del mundo y nos tomamos esa responsabilidad muy en serio. Contamos con principios globales de derechos humanos desde 2009 y estamos comprometidos con altos estándares en responsabilidad de productos, incluida la IA. Reconocemos los riesgos éticos asociados con el desarrollo de la tecnología de IA y aspiramos a ser un modelo a seguir, especialmente porque miles de empresas de todas las industrias están logrando avances en IA utilizando sistemas mejorados con la tecnología Intel AI.

Estamos comprometidos con el avance responsable de la tecnología de IA a lo largo del ciclo de vida del producto. Me emociona compartir nuestra página web actualizada de IA responsable , que presenta el trabajo que hacemos en este espacio y destaca las acciones que estamos tomando para operar de manera responsable, protegernos contra el uso indebido de la IA y rendir cuentas a través de procesos internos de supervisión y gobierno.

Proceso de revisión
Nuestro Consejo Asesor Multidisciplinario de IA Responsable lleva a cabo un riguroso proceso de revisión a lo largo del ciclo de vida de un proyecto de IA. El consejo revisa el desarrollo de productos y proyectos con nuestra evaluación de impacto ético a través de la lente de seis áreas clave: derechos humanos; supervisión humana; uso explicable de la IA; seguridad, protección y confiabilidad; privacidad personal; y equidad e inclusión. El objetivo es evaluar los riesgos éticos potenciales dentro de los proyectos de IA y mitigar esos riesgos lo antes posible. Los miembros del consejo también brindan capacitación, comentarios y apoyo a los equipos de desarrollo para garantizar la coherencia y el cumplimiento en todo Intel.

Diversidad e inclusión
El sesgo en los algoritmos de IA no se puede abordar solo con herramientas y procesos. La tecnología de IA debe ser moldeada por personas con diversos antecedentes, voces y experiencias. Intel se esfuerza por garantizar que los profesionales de la IA y sus respectivas tecnologías sean equitativos e inclusivos. Los equipos diversos pueden ofrecer perspectivas y plantear inquietudes que los equipos más homogéneos pueden pasar por alto. Confiamos ampliamente en la investigación de las ciencias sociales para comprender las situaciones en las que es probable que se produzca un sesgo en los conjuntos de datos, la formulación o el modelado de problemas, así como las situaciones en las que los riesgos imprevistos pueden provocar daños en la integración del mundo real.

También reconocemos la necesidad de incluir la ética como parte central de cualquier programa educativo de IA. Nuestros programas de preparación digital, como nuestro programa AI for Future Workforce Program , involucran a los estudiantes en los principios de la ética de la IA y los ayudan a comprender cómo crear soluciones de IA responsables. También trabajamos activamente con colegios comunitarios, que atraen a estudiantes con una rica variedad de antecedentes y experiencia. Y buscamos continuamente nuevas formas de relacionarnos con personas de todos los ámbitos de la vida que se ven afectadas por nuevas tecnologías como la IA.

Privacidad y seguridad
Asegurar la IA y mantener la integridad, la privacidad y la precisión de los datos está en el corazón de los esfuerzos de investigación y desarrollo de seguridad de Intel. En Intel, abordamos estos problemas de manera integral y desarrollamos innovaciones en hardware y software para permitir que el ecosistema construya una IA confiable. Por ejemplo, nuestra investigación en el instituto Private AI tiene como objetivo informar a las personas sobre las formas en que pueden proteger mejor su información privada. Nuestros esfuerzos de aprendizaje federado y openFL se centran en cómo hacer que la IA sea útil a partir de datos confidenciales. Nuestro proyecto DARPA GARD examina formas de verificar que la IA no sea manipulada. Finalmente, Project Amber brinda a los clientes y socios una forma de confiar mejor en la infraestructura desde el perímetro hasta la nube.

Recientemente, también hemos visto muchas preocupaciones éticas planteadas en torno a las falsificaciones profundas. Hemos estado explorando cómo incorporar tecnología y herramientas de detección de falsificaciones profundas para determinar las fuentes originales de información en los productos de Intel y cómo los clientes pueden integrar estas tecnologías en sus plataformas. Dos áreas de investigación iniciales incluyen la detección profunda de falsificaciones , o la producción o modificación de medios falsos mediante el aprendizaje automático y la IA, y la tecnología de autenticación de medios para confirmar la validez del contenido.

Colaboración
Los desarrollos en este campo en rápida evolución afectan a nuestro ecosistema de socios, a la industria en su conjunto y al mundo. Es por eso que seguimos invirtiendo en investigación crítica y trabajando con socios académicos en áreas como privacidad, seguridad, colaboración humana/IA y sostenibilidad. Creemos que desbloquear el potencial de la colaboración humano-IA puede conducir a un futuro emocionante para la IA. Estamos desarrollando las capacidades necesarias para que esto suceda y aplicándolas internamente en nuestros procesos de diseño y fabricación. Nos esforzamos por ser transparentes sobre nuestra posición y prácticas para poder abordar los desafíos compartidos y mejorar nuestros productos y la industria en general. Participamos activamente en foros como la Mesa Redonda sobre Derechos Humanos e IA , Iniciativa Empresarial Global sobre Derechos Humanos ,Asociación en IA y Compromiso para construir una IA con equidad de género para aprender de nuestros pares y establecer parámetros éticos, morales y de privacidad para que podamos construir un negocio de IA próspero.

Mirando hacia el futuro
La IA ha recorrido un largo camino, pero aún queda mucho más por descubrir. Estamos continuamente encontrando formas de utilizar esta tecnología para impulsar un cambio positivo y mitigar mejor los riesgos. En Intel, estamos comprometidos a profundizar nuestro conocimiento utilizando un enfoque multidisciplinario y centrándonos en amplificar la potenciación humana con IA a través de la colaboración humano-IA.

Espero ver cómo nosotros, como empresa y la industria en general, podemos continuar trabajando juntos para liberar el poder positivo de la IA.

Autor: Lama Nachman, Intel Fellow y director del Laboratorio de Investigación de Sistemas Inteligentes en Intel Labs.

Custom Text
Artículo anteriorIntel abre camino en el Silicon Heartland
Artículo siguienteSamsung y TSMC se disputan el primer puesto de la industria mundial de semiconductores