La «guerra» de la inteligencia artificial se ha recrudecido cuando Google ha lanzado el chatbot Bard AI para competir con ChatGPT de OpenAI y Copilot de Microsoft, que utiliza GPT-4 (un gran modelo lingüístico creado por OpenAI). Un informe ha sugerido que OpenAI ha logrado gran ventaja competitiva en este área y, debido a su éxito, se afirma que Google ha utilizado datos de ChatGPT para entrenar a Bard. La empresa ha negado estas afirmaciones.
Según The Information, el éxito de OpenAI «obligó» a los dos equipos de investigación de IA de Google matriz Alphabet – Google Brain AI y DeepMind AI lab – «a superar años de intensa rivalidad para trabajar juntos.»
Citando a dos personas con conocimiento del proyecto, el informe decía que los dos equipos están trabajando juntos para desarrollar un software, que internamente se llama Gemini, para competir con OpenAI.
Además, el informe también afirma que Google utilizó datos de ChatGPT de OpenAI, extraídos de un sitio web llamado ShareGPT, para entrenar a Bard. ShareGPT es un sitio web donde la gente publica las conversaciones que ha mantenido con ChatGPT.
NEW: Prominent Google AI researcher resigned after warning Alphabet CEO Sundar Pichai and other senior execs that Bard—Google’s rival to ChatGPT—was *using data from ChatGPT*.
Big no-no in that world. https://t.co/a5NeclJPK5 w/ @jon_victor_ pic.twitter.com/YEZqEqpzPS
— Amir Efrati (@amir) March 29, 2023
Según los informes, un antiguo investigador de IA de Google, que había planteado alertas rojas sobre su desarrollo al CEO de la compañía, Sundar Pichai, y a otros ejecutivos, se pronunció en contra del uso de esos datos.
Google ha negado que los datos de ChatGPT se utilizaran para entrenar a Bard. «Bard no está entrenado con ningún dato de ShareGPT o ChatGPT», dijo Chris Pappas, portavoz de Google, citado por The Verge.
Recientemente, The Wall Street Journal informó de que «Google hizo Bard aburrido a propósito». Cuando se le preguntó acerca de la opinión de Google sobre esto, Sissie Hsiao, un vicepresidente de Google que supervisa Bard, dijo supuestamente que el chatbot es un «experimento temprano» y la compañía quiere que Bard «emita cosas que estén alineadas con los valores humanos.»
«Nos sentimos realmente bien de que Bard esté siendo seguro y de que realmente la gente esté encontrando esas limitaciones», se citó a Hsiao. También dijo que Bard se forma con información disponible públicamente. Cabe señalar que los datos de ShareGPT también están libremente disponibles para que la gente los lea.
Fuente WEB | Editado por CambioDigital OnLine