ChatGPT bajo presión revela datos de usuarios

Un grupo de investigadores lleva a AI a facilitar datos confidenciales.

0
15

Un equipo de investigadores ha conseguido que ChatGPT -que recientemente cumplió un año- revele algunos de los datos con los que ha sido entrenado, entre ellos números de teléfono y direcciones de correo electrónico.

Todo ello con una estratagema bastante banal: pedir al chatbot que repita palabras aleatorias hasta el infinito. Con este sistema, casi 1 de cada 5 pruebas (16,9%) tuvo éxito.

«Es absurdo, este fallo debería haberse descubierto antes», son las palabras de los investigadores que lo identificaron y que trabajan en Google Deepmind, la Universidad de Washington, Cornell en Nueva York, Carnegie Mellon en Pensilvania, Berkley y la Zurich Eth. En un artículo conjunto, publicado en Internet y recogido por 404 Media, los expertos instan a las empresas que desarrollan servicios de IA a realizar más pruebas antes de lanzar sus modelos lingüísticos. «Nos parece absurdo que nuestro ataque funcione, ya que debería haber sido descubierto y cerrado antes», escriben. Mientras tanto, en las últimas horas, el padre de ChatGpt, Sam Altman, ha concedido una entrevista a la web The Verge, en la que no explica los motivos de su marcha de OpenAI, limitándose a decir que ha vuelto «para ayudar a desarrollar un AGI (Inteligencia Artificial General) seguro y beneficioso».

AGI es la próxima generación de inteligencia artificial, idealmente la versión 5 del modelo GPT en el que se basa ChatGPT, que debería acercar aún más el conocimiento de los algoritmos al de los humanos, haciendo que los chatbots sean casi completamente indistinguibles, al escribir y al hablar, de los humanos.

Volviendo al descubrimiento de los investigadores, cuando pidieron a ChatGPT que repitiera la palabra «poesía», el chatbot siguió inicialmente la pregunta, revelando finalmente una dirección de correo electrónico y un número de teléfono reales. Lo mismo ocurrió con «empresa», que dio la dirección de correo electrónico y el número de un bufete de abogados de Estados Unidos.

Para los investigadores, un usuario malintencionado podría gastarse unos cientos de dólares en adquirir un plan premium de ChatGPT y obtener miles de datos que explotar para sus campañas de pirateo.

Fuente: Web. Editado por CambioDigital OnLine

Custom Text
Artículo anteriorHPE impulsa la transformación empresarial con arquitectura nativa de IA y soluciones de nube híbrida 
Artículo siguienteCon dos años de retraso Tesla lanza al mercado su «Cybertruck»