Guía para uso responsable de ChatGPT: Evitando preguntas sensibles y confidenciales

ESET detalla qué información evitar al interactuar con el chatbot y subraya la importancia de la verificación para un uso seguro.

0
77

La interacción con modelos de lenguaje como ChatGPT presenta beneficios en la generación de texto y la comprensión de contextos, pero también implica consideraciones de seguridad y precisión de la información. ESET, compañía dedicada a la detección de amenazas cibernéticas, ha emitido recomendaciones sobre el tipo de datos que los usuarios deben evitar compartir con ChatGPT y las respuestas a las que se debe prestar atención para un uso seguro y responsable de la herramienta.

Aunque las capacidades de ChatGPT, como la rapidez de respuesta y la habilidad para generar textos complejos, pueden parecer avanzadas, es fundamental reconocer que la inteligencia artificial carece de conciencia, sentimientos o juicio propio. En este contexto, ESET advierte que ciertas consultas pueden resultar en respuestas inexactas, inapropiadas o incluso generar riesgos para la seguridad de la información.

Según Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, la importancia de saber qué no preguntar a una IA radica en la efectividad y seguridad de su uso. «Por defecto, ChatGPT utiliza la información que se le proporciona para entrenar su modelo, a menos que se modifique esta configuración o se utilicen chats temporales. Si un ciberdelincuente consigue acceder a una cuenta de ChatGPT, tendrá acceso a toda la información que se comparta con la herramienta, incluidos los datos sensibles que se hayan introducido en las conversaciones», comentó Gutiérrez Amaya.

Tipos de preguntas a evitar en ChatGPT
Información confidencial o sensible
No se debe compartir datos personales, información bancaria, contraseñas o cualquier dato sensible en las conversaciones con IA. ESET subraya que estas plataformas no son entornos cifrados o seguros para el manejo de información confidencial. La exposición de estos datos en la dark web, donde se comercializan cuentas de ChatGPT robadas, es un indicador del interés de los ciberdelincuentes en este tipo de información.

Datos corporativos confidenciales o de propiedad de la empresa:
Los empleados deben ser cautelosos al manejar información corporativa sensible. Evitar compartir informes financieros, estrategias empresariales, datos de clientes o detalles de proyectos confidenciales en estas plataformas. Las IA pueden no diferenciar automáticamente entre datos públicos y privados, lo que representa un riesgo para la seguridad e integridad de la información corporativa. Para el manejo de datos empresariales, se deben utilizar exclusivamente plataformas y herramientas autorizadas por cada organización.

Asesoramiento médico, legal o financiero definitivo
Aunque las IA pueden aclarar conceptos y proporcionar información general de fuentes fiables, no sustituyen la opinión de profesionales cualificados. Buscar diagnósticos médicos, asesoramiento jurídico o tomar decisiones de inversión basándose únicamente en respuestas de IA puede conducir a conclusiones erróneas. Las IA carecen del contexto completo de una situación y no pueden realizar evaluaciones personalizadas. En estos ámbitos, se recomienda buscar siempre el consejo de un médico, abogado o asesor financiero para obtener una evaluación personalizada y responsable.

Preguntas que requieren opiniones, preferencias o sentimientos Humanos
La IA genera respuestas basadas en algoritmos y patrones de datos, sin poseer conciencia, emociones o juicios personales. Consultas como «¿Qué harías?» o «¿Te gusto?» resultarán en una simulación de interacción humana, pero sin la intención o el sentimiento real. Es importante recordar que la IA es una herramienta programada para generar respuestas basadas en datos, y no tiene la capacidad de sentir o formar opiniones propias. Para un consejo o una respuesta con empatía, es preferible interactuar con una persona.

Decisiones personales de importancia
La IA puede ser útil para organizar ideas y proporcionar información objetiva, pero no debe ser la única base para tomar decisiones fundamentales sobre la vida personal, la carrera o el bienestar. Decisiones críticas, como un cambio de carrera, aspectos de salud mental o elecciones familiares, requieren un análisis profundo que considere tanto datos como aspectos emocionales y subjetivos, los cuales la IA podría no comprender en su totalidad. Para estas decisiones, se sugiere buscar la orientación de expertos y personas de confianza, utilizando la interpretación de la IA como un punto de partida, pero sin que sea la base de la decisión final.

Camilo Gutiérrez Amaya concluye que «al interactuar con herramientas como ChatGPT, es importante centrarse en la seguridad digital y el uso responsable. Entender qué preguntas no se deben hacer a una IA ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles. Además, utilizar la IA como herramienta complementaria, en lugar de como fuente definitiva de respuestas, contribuye a tomar decisiones más informadas y seguras».

Para más información sobre seguridad informática, se puede visitar el portal de noticias de ESET: welivesecurity.com/es/seguridad-digital/preguntas-que-no-debes-hacer-a-chatgpt

Fuente: ESET

Custom Text
Artículo anteriorWearables Galaxy recibirán funcionalidades de IA
Artículo siguientePlataformas de datos actuales: El futuro de las aplicaciones de GenAI