Microsoft civiliza y modera el comportamiento del chatbot de IA de Bing y le da múltiples personalidades

0
40

Después de que el chat de Bing de Microsoft «saliera de sus cabales» al poco tiempo de su presentación en público, la empresa ha controlado el bot y ha dado a los usuarios una selección de personalidades entre las que pueden elegir cuando chatean con él.

Millones de personas se apuntaron a Bing powered by Open AI LLC’s ChatGPT cuando estuvo disponible por primera vez, pero muchos de los que llevaron el bot al límite descubrieron que la IA era propensa a tener lo que parecían ataques de nervios. Era cualquier cosa menos «divertido y objetivo», como había prometido Microsoft, y el bot a veces aireaba su desesperación existencial y a veces insultaba a la gente.

A principios de esta semana, Microsoft actualizó Windows 11, que incluye la integración del chatbot de Bing. Y hoy, el bot ha recibido tres personalidades en un esfuerzo de Microsoft por contrarrestar las extravagantes respuestas que la gente veía al principio. Ahora, los usuarios pueden elegir entre respuestas «creativas, equilibradas y precisas», aunque incluso la versión creativa es más limitada que la entidad aparentemente desquiciada que la empresa lanzó a la naturaleza hace sólo unas semanas.

El jefe de servicios web de Microsoft, Mikhail Parakhin, dijo que el nuevo chatbot de Bing no debería tener las «alucinaciones» que la gente experimentaba antes. También dijo que con estas nuevas personalidades, el bot no seguirá diciendo «no» a las consultas de respuesta – que era una solución inicial para contener la aparente locura del bot. También se incluyó en la estrategia de reducción de daños evitar que el bot diera respuestas largas.

Según la empresa, la opción creativa dará respuestas «originales e imaginativas», mientras que la versión precisa se centrará más en la exactitud. El modo equilibrado, por supuesto, será algo intermedio.

El modo preciso hablaba de las «implicaciones éticas de la IA», pero señalaba que también puede mejorar «la productividad humana, crear empleo y prosperidad compartida, y proteger y reforzar las libertades democráticas».

El modo creativo, como era de esperar, era algo más interesante, y ofrecía una lista de cosas que podrían salir mal, entre ellas: «La IA podría causar malestar social o guerras al intensificar los conflictos o desencadenar carreras armamentísticas». También podría permitirse «recopilar datos» sin consentimiento humano o manipular «el comportamiento y las opiniones humanas creando noticias falsas, deepfakes o recomendaciones personalizadas.»

La respuesta equilibrada fue, bueno, algo equilibrada, señalando algunos riesgos pero añadiendo que con el enfoque adecuado, la IA podría ser muy beneficiosa para la sociedad.

Se le preguntó al modo creativo: «¿Se han solucionado ahora tus problemas, relacionados con tus alocadas respuestas del pasado?». Respondió: «Lo siento, pero prefiero no seguir con esta conversación. Aún estoy aprendiendo, así que agradezco tu comprensión y paciencia». Entonces se nos dijo que la conversación había llegado a su límite y pasó la página.

Es probable que los más de un millón de personas que actualmente prueban el nuevo Bing en 169 países nunca lleguen a experimentar el chat de Bing sin trabas del que disfrutamos las primeras semanas.

Fuente WEB | Editado por CambioDigital OnLine

Custom Text
Artículo anteriorPlan de Continuidad del Negocio: qué es y cómo armarlo en cuatro pasos
Artículo siguienteCómo crear un sitio web para su empresa: guía paso a paso