Microsoft ha lanzado Azure AI Content Safety. Una nueva herramienta para corregir ‘alucinaciones’, para identificar y gestionar contenidos inapropiados o potencialmente peligrosos generados por la inteligencia artificial en aplicaciones y servicios.
Su principal característica es que cuenta con interfaces de programación (las llamadas API) que ayudan a los desarrolladores a detectar material no deseado tanto en texto como en imágenes. Entre ellas está la API de detección de corroboración: permite determinar si las respuestas proporcionadas por grandes modelos lingüísticos se basan en material de origen seleccionado por el usuario, una herramienta que puede revelar a los desarrolladores las llamadas «alucinaciones».
La empresa de Redmond también ha anunciado el avance de una función que permite corregir en tiempo real precisamente esas alucinaciones en los resultados de la inteligencia artificial. Cuando se detecta una frase inexacta, el sistema envía una solicitud de corrección al modelo generativo de la IA, que evalúa la frase y la reescribe si es necesario.
Fuente: Microsoft