Meta anunció esta semana la llegada de chatbots con personalidades similares a determinadas celebridades, con los que será posible chatear. Presentado como una entretenida evolución de ChatGPT y otras formas de inteligencia artificial, este último desarrollo tecnológico podría resultar peligroso, advierten los expertos.
Para Meta, anteriormente Facebook, son elementos de inteligencia artificial “divertidos”, para otros, serían el primer paso hacia la realización del “artefacto más peligroso de la historia de la humanidad”, parafraseando al filósofo estadounidense Daniel C. Dennet en su ensayo contra “las falsificaciones de los individuos”.
El gigante de las redes sociales anunció el 27 de septiembre, el lanzamiento de 28 chatbots (agentes conversacionales) en teoría dotados de personalidades propias y concebidos especialmente para los más jóvenes. Existirían así Víctor, un supuesto triatleta capaz de “motivarte para que des lo mejor de ti mismo”, y Sally, la amiga “de espíritu libre que sabrá decirte cuándo respirar profundamente”.
Además, los internautas podrán así discutir con Max, un “cocinero experimentado que dará los buenos consejos”, o lanzarse en un debate con Luiz, que no tiene miedo a ser “provocador” en su manera de hablar.
Un chatbot a la imagen de Paris Hilton
Para reforzar la impresión de dirigirse a una personalidad propia antes que a un amalgama de algoritmos, Meta dotó a cada uno de sus chatbots de rostros. Gracias a sus colaboraciones con celebridades, estos robots se parecen a la popular Paris Hilton, a la estrella de TikTok Charli D’Amelio o incluso a la jugadora de tenis estadounidense y japonesa, Naomi Osaka.
Eso no es todo. Meta abrió cuentas de Facebook e Instagram para cada una de sus elementos de IA con el fin de darles una existencia fuera de las interfaces de conversación, y trabaja en dotarlas de voz a partir del próximo año.
La empresa matriz del imperio de Mark Zuckerberg también empezó la búsqueda de “guionistas especializados en la creación de personajes”, con el fin de afinar esas “personalidades”.
Meta puede presentar estos 28 chatbots como un inocente proyecto de distracción masiva de jóvenes internautas, pero todos estos esfuerzos apuntan al ambicioso proyecto de construcción de IA “lo más cercanas posible a los humanos”, apunta la revista ‘Rolling Stone’.
Esta carrera hacia la “falsificación de individuos” preocupa a un gran número de observadores de los recientes desarrollos en la investigación de grandes modelos de lenguale (LLM, “large language model”), como ChatGPT o Llama 2, su vertiente hecha en Facebook. Sin ir tan lejos como Daniel C. Dennett que llama a encerrar a los que, como Mark Zuckerberg, se aventuran en este camino, “hay una parte de los filósofos que denuncian un enfoque deliberadamente engañoso por parte de estos grandes grupos”, asegura Ibo van de Poel, profesor de ética y de tecnología en la universidad de Delf, en Países Bajos.
“La IA no puede tener personalidad”
La idea de agentes conversacionales “dotados de personalidad es en efecto literalmente imposible”, apunta este experto. Los algoritmos son incapaces de demostrar “una intención en sus acciones, o libre albedrío, dos características que pueden ser consideradas como íntimamente relacionadas con la idea de personalidad”, precisa Ibo van de Poel.
Meta y otros pueden, como mucho, imitar ciertas características constitutivas de una personalidad. “Debe ser tecnológicamente posible, por ejemplo, enseñarle a un chatbot a expresarse como su modelo”, explica Ibo van de Poel. Así, la IA Ámber de Meta, supuestamente parecida a Paris Hiltos, tendrá quizá los mismos tics de lenguaje que su alter ego humano.
La etapa siguiente sería entrenar a estos LLM a expresar las mismas opiniones que sus modelos. Un comportamiento mucho más difícil de programar, porque implica la creación de una especie de mapa mental fiel a todas las opiniones de una persona.
El riesgo también está en que estos chatbots dotados de personalidad derrapen. Uno de los agentes conversacionales probados por Meta había entonces rápidamente expresado opiniones “misóginas”, reportó ‘The Wall Street Journal’, que pudo consultar documentos internos del grupo. Otro cometió el pecado mortal de criticar a Mark Zuckerberg y de enaltecer a TikTok.
¿Una herramienta, una persona o algo entre medias?
Tampoco es de extrañar que Meta inaugure su búsqueda de IA con “personalidades” con chatbots abiertamente dirigidos a los adolescentes. “Sabemos que los jóvenes son más susceptibles de sentirse atraídos por los antropomorfismos”, asegura Anna Strasser.
Pero para los expertos interrogados, Meta se entrega a un juego peligroso al insistir en las “características humanas” de sus IA. “Habría realmente preferido que este grupo dedique más esfuerzos a explicar mejor cuáles son las limitaciones de estos agentes conversacionales, antes que a intentarlo todo para que parezcan más humanos”, lamenta Ibo van de Poel.
La irrupción de estos potentes LLM vino a perturbar “la dicotomía entre lo que es de la esfera de la herramienta o del objeto, y de la esfera de lo vivo. Estos ChatGPT son agentes de un tercer tipo que vienen a colocarse entre los dos extremos”, explica Anna Strasser. El ser humano aún está aprendiendo a comportarse frente a este ovni, y haciendo creer que una I puede tener una personalidad, Meta sugiere que lo tratemos más como un humano que como una herramienta.
Autor: Sébastian Seibt. Editado por CambioDigital OnLine