OpenAI ha lanzado una nueva herramienta capaz de detectar si un texto ha sido escrito por un humano o por una IA, incluido su propio chatbot ChatGPT.
En un comunicado publicado ayer (31 de enero), la empresa de investigación en inteligencia artificial afirma que, aunque es «imposible» detectar de forma fiable todos los textos escritos por IA, las buenas herramientas «pueden servir para mitigar las falsas afirmaciones» de que el texto generado por IA ha sido escrito por un ser humano.
Esto podría tener aplicaciones para detectar campañas automatizadas de desinformación escritas por IA, identificar casos de deshonestidad académica en entornos universitarios e incluso desenmascarar chatbots de IA que se hacen pasar por humanos.
Sin embargo, OpenAI advirtió de que su última herramienta hecha pública tiene una serie de limitaciones importantes y aún no es totalmente fiable.
«No debe utilizarse como herramienta principal para la toma de decisiones, sino como complemento de otros métodos para determinar el origen de un texto», afirma la empresa.
Basándose en evaluaciones de textos en inglés, OpenAI afirma que su herramienta identificó correctamente el 26% de los textos escritos con IA como «probablemente escritos con IA», mientras que el 9% de las veces etiquetó incorrectamente textos escritos por humanos como escritos con IA.
Además, la herramienta es muy poco fiable en textos cortos, de menos de 1.000 palabras.
«La fiabilidad de nuestro clasificador suele mejorar a medida que aumenta la longitud del texto de entrada. En comparación con nuestro clasificador anterior, este nuevo clasificador es significativamente más fiable en textos de sistemas de IA más recientes».
OpenAI también advierte de que la herramienta de detección sólo debe utilizarse con textos en inglés, ya que su rendimiento es «significativamente peor» en otros idiomas.
Reconociendo el impacto de ChatGPT en los círculos académicos, donde se ha utilizado indebidamente para realizar tareas y posteriormente se ha prohibido su uso en algunas universidades, OpenAI está trabajando ahora con los educadores para conocer su opinión sobre la tecnología.
«Estamos trabajando con educadores de EE.UU. para saber qué están viendo en sus aulas y debatir sobre las capacidades y limitaciones de ChatGPT, y seguiremos ampliando nuestro alcance a medida que vayamos aprendiendo», afirma la empresa, que pide a los educadores su opinión directa.
«Son conversaciones importantes, ya que parte de nuestra misión es desplegar grandes modelos lingüísticos de forma segura, en contacto directo con las comunidades afectadas».
Fuente WEB | Editado por CambioDigital OnLine