OpenAI, propietaria de ChatGPT, ha comunicado que ha corregido un error que provocaba un «problema significativo» por el que un pequeño grupo de usuarios podía ver los títulos del historial de conversaciones de otros usuarios con el chatbot viral.
Como resultado de la corrección, los usuarios no podrán acceder a su historial de chat entre las 8 de la mañana y las 5 de la tarde GMT del 20 de marzo, dijo el director ejecutivo Sam Altman en un tweet.
ChatGPT ha experimentado un crecimiento meteórico desde su lanzamiento a finales del año pasado, a medida que personas de todo el mundo se volvían creativas con las instrucciones que el chatbot conversacional utiliza para crear desde poemas y novelas hasta chistes y guiones cinematográficos.
La semana pasada, OpenAI, respaldada por Microsoft Corp, lanzó su modelo de inteligencia artificial GPT-4, una actualización de GPT-3.5, que se puso a disposición de los usuarios en noviembre.
La última versión ha demostrado ser mucho más potente que su predecesora, ya que ejecuta con rapidez instrucciones complejas, como completar declaraciones de la renta y generar estructuras de frases complejas.
En su demostración de lanzamiento, OpenAI también mostró la capacidad de ChatGPT-4 para leer imágenes, creando un sitio web simplemente a partir de un boceto dibujado a mano del diseño.
we had a significant issue in ChatGPT due to a bug in an open source library, for which a fix has now been released and we have just finished validating.
a small percentage of users were able to see the titles of other users’ conversation history.
we feel awful about this.
— Sam Altman (@sama) March 22, 2023
La integración de la tecnología GPT de OpenAI en Bing, de Microsoft, ha impulsado el uso de este motor de búsqueda poco utilizado, según datos de la empresa de análisis Similarweb.
A principios de este mes, los directores técnicos del Centro Nacional de Ciberseguridad advirtieron a los usuarios que no compartieran datos personales o sensibles con ChatGPT y otros Large Language Models, no sólo por el riesgo de filtraciones malintencionadas o accidentales, sino también por la posibilidad de que los desarrolladores utilicen chats al entrenar el programa en el futuro.
Fuente WEB | Editado por CambioDigital OnLine