Según Gartner, Inc., a medida que los empleados experimentan con la IA generativa, el asesor jurídico debe emitir directrices que resulten valiosas para la empresa y los empleados.
«Para elaborar una política eficaz, el abogado general debe tener en cuenta la tolerancia al riesgo, los casos de uso y las restricciones, los derechos de decisión y las obligaciones de divulgación», dijo Laura Cohn, directora senior de investigación de Gartner. «Contar con guardarraíles y políticas de GenAI preparará mejor a las empresas para posibles requisitos legales futuros».
Sobre la base de las prácticas en políticas de IA instituidas por empresas y gobiernos municipales, el asesor general debe dirigir a las organizaciones a considerar cuatro acciones al establecer una política:
Alinearse con la tolerancia al riesgo
Para comenzar a determinar la tolerancia al riesgo de la empresa, los líderes legales deben tomar prestada una práctica de la gestión de riesgos empresariales y guiar una discusión con la alta dirección sobre los «resultados que deben evitarse.» Discuta las aplicaciones potenciales de los modelos generativos de IA dentro de la empresa. Una vez identificados, considere los resultados que pueden derivarse de ellos, cuáles son «deben evitarse» y cuáles implican un riesgo aceptable dado el beneficio potencial de la IA.
«La orientación sobre el uso de IA generativa requiere componentes básicos para minimizar los riesgos al tiempo que proporciona oportunidades para que los empleados experimenten y utilicen aplicaciones a medida que evolucionan», dijo Cohn.
Determinar los casos de uso y las restricciones
Los líderes legales deben comprender cómo podría utilizarse la IA generativa en toda la empresa colaborando con otros líderes funcionales. Recopile una lista de casos de uso y organícelos según el riesgo percibido, tanto la probabilidad como la gravedad del riesgo.
Para las situaciones de mayor riesgo (por ejemplo, la producción de contenidos para consumo de los clientes), considere la posibilidad de aplicar controles más exhaustivos, como exigir la aprobación de un directivo o un comité de IA. En los casos de mayor riesgo, los responsables legales pueden considerar la prohibición total. Para los casos de uso de menor riesgo (por ejemplo, aportar ideas para una actividad divertida durante una visita del personal fuera de la empresa, o traducir jerga o reglamentos escritos en un idioma extranjero), pueden considerar la aplicación de salvaguardias básicas, como exigir la revisión humana.
«Los asesores jurídicos no deben ser excesivamente restrictivos a la hora de elaborar políticas», afirma Cohn. «Prohibir totalmente el uso de estas aplicaciones o aplicar controles estrictos, como restringir el acceso a sitios web, puede dar lugar a que los empleados simplemente las utilicen en sus dispositivos personales. Los líderes pueden considerar definir casos de uso aceptables y de bajo riesgo directamente en la política, así como las obligaciones de los empleados y las restricciones sobre ciertos usos, para proporcionar más claridad y reducir el riesgo de uso indebido.»
Acordar los derechos de decisión y la propiedad del riesgo
Es imperativo que el consejo general y el liderazgo ejecutivo acuerden quién tiene la autoridad para tomar decisiones sobre casos de uso de IA generativa. Los equipos legales deben trabajar con las partes interesadas funcionales, empresariales y de liderazgo senior para alinearse sobre la propiedad del riesgo y los deberes de revisión.
«Documente la unidad empresarial que rige el uso de la IA para que los empleados sepan a quién deben dirigirse con preguntas», dijo Cohn. «El consejo general debe tener claro si hay usos que no necesitan aprobación, especificar cuáles son directamente en la política y proporcionar ejemplos. Para los casos de uso que necesitan aprobación, informe a los empleados de cuáles son, documente claramente la función que puede proporcionar aprobación y enumere la información de contacto de esa función.»
Decidir sobre la divulgación
Las organizaciones deben tener una política de divulgación del uso y seguimiento de las tecnologías de IA generativa tanto a las partes interesadas internas como externas. El asesor general debe ayudar a las empresas a considerar qué información debe divulgarse y con quién debe compartirse.
«Un principio fundamental común a todas las jurisdicciones mundiales (incluida la UE, que establece las normas) es que las empresas deben ser transparentes sobre su uso de la IA. Los consumidores quieren saber si las empresas están utilizando aplicaciones de IA generativa para elaborar mensajes corporativos, ya sea que la información aparezca en un sitio web público, un canal social o una aplicación», dijo Cohn.
«Esto significa que el consejo general debe exigir a los empleados que se aseguren de que la salida influenciada por GenAI sea reconocible como generada por máquina etiquetando claramente el texto. Las organizaciones también pueden considerar la inclusión de una disposición para colocar marcas de agua en las imágenes generadas por IA en la medida en que sea técnicamente factible», concluyó Cohn.
Fuente: Gartner