Los líderes legales y de cumplimiento deben preparar a sus organizaciones para la regulación emergente sobre IA.
Con varios legisladores de todo el mundo proponiendo regulaciones y directrices sobre grandes herramientas de modelos de lenguaje (LLM), como ChatGPT y Google Bard, Gartner, Inc. ha identificado cuatro áreas críticas que deben abordar los asesores generales (GC) y los líderes legales.
«Los líderes legales pueden examinar dónde se solapan las diversas propuestas para ayudar a los líderes senior y a la junta a prepararse para los cambios regulatorios a medida que desarrollan su estrategia corporativa de IA», dijo Laura Cohn, directora senior de investigación de Gartner. «Mientras que las leyes en muchas jurisdicciones pueden no entrar en vigor hasta 2025, los líderes legales pueden empezar mientras esperan a que la regulación finalizada tome forma.»
Los expertos de Gartner han identificado cuatro acciones para que los líderes legales creen una supervisión de la IA que permita a sus organizaciones avanzar mientras esperan la orientación final:
Incrustar la transparencia en el uso de la IA
«La transparencia sobre el uso de IA está emergiendo como un principio crítico de la legislación propuesta en todo el mundo», dijo Cohn. «Los líderes legales deben pensar en cómo sus organizaciones dejarán en claro a cualquier ser humano cuándo están interactuando con AI».
Por ejemplo, con el uso de IA en el contenido de marketing y el proceso de contratación, los líderes legales pueden ayudar actualizando los avisos de privacidad y los términos de condiciones en los sitios web de su empresa para reflejar el uso de IA. Sin embargo, es mejor desarrollar una sección separada en el «Centro de Confianza» en línea de la organización. O la organización podría publicar un aviso puntual al recopilar datos que hable específicamente de las formas en que la organización utiliza la IA. Los responsables jurídicos también podrían considerar la posibilidad de actualizar su código de conducta para proveedores con un mandato de notificación si un proveedor tiene previsto utilizar IA.
Asegúrese de que la gestión de riesgos es continua
«Los líderes GC y legales deben participar en un esfuerzo interfuncional para establecer controles de gestión de riesgos que abarquen el ciclo de vida de cualquier herramienta de IA de alto riesgo», dijo Cohn. «Un enfoque para esto puede ser una evaluación de impacto algorítmico (AIA) que documenta la toma de decisiones, demuestra la debida diligencia y reducirá el riesgo regulatorio presente y futuro y otras responsabilidades.»
Además del departamento jurídico, el director general debe implicar a los departamentos de seguridad de la información, gestión de datos, ciencia de los datos, privacidad, cumplimiento y las unidades de negocio pertinentes para obtener una visión más completa del riesgo. Dado que los responsables jurídicos no suelen ser los propietarios de los procesos empresariales que controlan, es fundamental consultar a las unidades de negocio pertinentes.
Crear una gobernanza que incluya la supervisión humana y la rendición de cuentas
«Un riesgo que está muy claro en el uso de herramientas LLM es que pueden equivocarse mucho mientras suenan superficialmente plausibles», dijo Cohn. «Por eso los reguladores están exigiendo una supervisión humana que debería proporcionar comprobaciones internas de los resultados de las herramientas de IA».
Es posible que las empresas quieran designar a un responsable de IA que ayude a los equipos técnicos a diseñar y aplicar controles humanos. Dependiendo de qué departamento acoja la iniciativa de IA, esta persona podría ser un miembro del equipo con profundos conocimientos funcionales, un miembro del equipo de seguridad o privacidad o, si hay integraciones con la búsqueda empresarial, el líder del lugar de trabajo digital.
El director general también podría crear un consejo asesor de ética digital formado por expertos jurídicos, de operaciones, de TI, de marketing y externos para ayudar a los equipos de proyecto a gestionar las cuestiones éticas y asegurarse de que el consejo de administración está al tanto de cualquier hallazgo.
Protegerse de los riesgos de la privacidad de los datos
«Está claro que los reguladores quieren proteger la privacidad de los datos de las personas cuando se trata del uso de IA», dijo Cohn. «Será clave para los líderes legales mantenerse al tanto de cualquier práctica recientemente prohibida, como el monitoreo biométrico en espacios públicos».
Los líderes legales y de cumplimiento deben gestionar el riesgo de privacidad aplicando principios de privacidad por diseño a las iniciativas de IA. Por ejemplo, exigir evaluaciones de impacto sobre la privacidad al principio del proyecto o asignar miembros del equipo de privacidad al principio para evaluar los riesgos de privacidad.
Con las versiones públicas de las herramientas LLM, las organizaciones deben alertar a los trabajadores de que cualquier información que introduzcan puede pasar a formar parte del conjunto de datos de formación. Esto significa que la información confidencial o privada utilizada en las preguntas podría aparecer en las respuestas para usuarios ajenos a la empresa. Por lo tanto, es fundamental establecer directrices, informar al personal de los riesgos implicados y proporcionar instrucciones sobre cómo utilizar estas herramientas de forma segura.
Fuente: Gartner