La decisión de OpenAI de comenzar a probar anuncios dentro de ChatGPT desencadenó una reacción inesperada dentro de la propia organización. Zoë Hitzig, investigadora que trabajó dos años en la compañía, anunció su renuncia el mismo día en que la plataforma empezó a mostrar publicidad a ciertos usuarios. Su salida, explicada en un ensayo publicado en The New York Times, abrió un debate más amplio sobre los riesgos asociados a la monetización de herramientas de inteligencia artificial que manejan información altamente sensible.
Hitzig, economista y miembro del Harvard Society of Fellows, participó en el diseño de políticas de seguridad y en la definición de cómo se construían y se valoraban los modelos de OpenAI. En su reflexión pública, señaló que la introducción de anuncios no es en sí misma una práctica cuestionable, dado que los modelos requieren recursos significativos y la publicidad puede convertirse en una fuente de ingresos. Sin embargo, expresó reservas profundas sobre el rumbo estratégico de la empresa, especialmente por el tipo de datos que los usuarios comparten con ChatGPT: conversaciones personales, dudas íntimas y consultas que conforman lo que describió como un “archivo de franqueza humana sin precedentes”.
Su preocupación central radica en el potencial de que la publicidad, aun si está claramente etiquetada y separada de las respuestas —como ha asegurado OpenAI—, pueda abrir la puerta a dinámicas similares a las que vivió Facebook en la última década. Según Hitzig, la historia de esa plataforma muestra cómo las promesas iniciales de control y protección de datos pueden erosionarse con el tiempo ante presiones comerciales. La investigadora advirtió que un sistema conversacional que acumula información tan personal podría, si no se gestiona con cautela, convertirse en un espacio vulnerable a formas de influencia difíciles de detectar o regular.
OpenAI, por su parte, ha insistido en que los anuncios no influirán en las respuestas del modelo y que no aparecerán en conversaciones sensibles. También ha subrayado que la publicidad estará claramente identificada y ubicada al final de las respuestas, con el objetivo de no interferir en la experiencia principal. La empresa sostiene que estas pruebas buscan explorar vías de sostenibilidad económica sin comprometer la integridad del sistema.
La renuncia de Hitzig se suma a un contexto más amplio en el que otras figuras del sector han expresado inquietudes sobre la dirección que están tomando las grandes compañías de IA. En paralelo, algunas plataformas han aprovechado el momento para diferenciarse, presentándose como alternativas sin publicidad o con modelos de negocio más transparentes. Aunque la introducción de anuncios en ChatGPT se encuentra todavía en fase experimental, el episodio ha puesto de relieve tensiones internas y externas sobre cómo equilibrar innovación, sostenibilidad financiera y protección de los usuarios.
El caso también reabre preguntas sobre la gobernanza de sistemas que, por su naturaleza, manejan información personal en un volumen y profundidad inéditos. La discusión no se limita a la presencia de anuncios, sino a la necesidad de establecer marcos claros que eviten que la monetización comprometa la confianza del público. Para muchos observadores, la renuncia de Hitzig funciona como un recordatorio de que las decisiones comerciales en torno a la IA no son neutrales y pueden tener implicaciones duraderas en la relación entre usuarios, empresas y tecnologías emergentes.
Fuente: WEB | Editado por CDOL







































