Mapear, medir y gestionar los riesgos de las aplicaciones de IA generativa a lo largo de todo su ciclo de desarrollo. Este es uno de los puntos recogidos en la primera edición del Informe de Transparencia sobre IA Responsable de Microsoft, en el que se comparten las prácticas de la compañía en este campo.
La empresa, dice, ha creado 30 herramientas de inteligencia artificial responsable en el último año, ampliando su equipo de inteligencia artificial responsable.
El gigante también ha pedido a los socios que crean aplicaciones GenIA que midan los posibles riesgos de los proyectos, desde la fase de concepción.
Para todos los usuarios, Microsoft ha añadido una marca de agua en su software que genera o edita imágenes, para etiquetarlas como hechas por un modelo de IA y aumentar la comprensión y distinción de la gente con las fotos reales. En un esfuerzo por crear un ecosistema responsable, la empresa ha concedido a los clientes de su servicio Azure AI acceso a herramientas capaces de detectar contenidos problemáticos generados por IA, incluidos los que contengan incitación al odio, conductas sexuales inapropiadas y autolesiones, así como herramientas para evaluar los riesgos de seguridad.
También gracias a los informes de los propios usuarios de las plataformas. No en vano, desde el lanzamiento de Copilot, entonces Bing Chat, Microsoft ha ido corrigiendo su enfoque sobre las alucinaciones de los chatbot. La última en enero, cuando se hicieron virales en X imágenes deepfake de desnudos de famosas como Taylor Swift, supuestamente realizadas con las herramientas GenAI de Microsoft Designer.
Fuente: Microsoft