Flammia de ESET Venezuela: «ChatGPT ya es una herramienta para desarrollar código malicioso y realizar otro tipo de acciones fraudulentas”

Al estar desarrollado con grandes cantidades de texto para responder preguntas o proporcionar información, hoy, la plataforma ChatGPT está madura para las actividades de los cibercriminales.

0
51
Michele Flammia CEO ESET Venezuela - Foto CDOL

ESET Venezuela llevó a cabo su cuarto desayuno tecnológico junto a periodistas venezolanos especializados en esta materia, en el que la compañía experta en Ciberseguridad, compartió los resultados de las experiencias obtenidas de sus investigaciones de laboratorio sobre cómo en la actualidad, las nuevas tecnologías de IA, ya son blanco para los ciberdelincuentes que usan distintas técnicas de ingeniería social y malware.

Michele Flammia, gerente general de Logintel, distribuidor exclusivo de ESET Venezuela dio a conocer la interacción de la compañía con el ya conocido ChatGPT, el Chatbot desarrollado por OpenAI, basado en IA (GPT-3) que permite a las personas interactuar con este sistema como si fuera una persona real a través de texto.

De acuerdo al experto, las investigaciones de ESET han demostrado que los cibercriminales ya comenzaron a utilizar ChatGPT como herramienta para desarrollar código malicioso y realizar otro tipo de acciones fraudulentas.

“Es evidente que debemos seguir este tema muy de cerca para ver cómo evoluciona y analizar lo que nos depara la evolución de la IA y sobre todo el Machine Learning”, dijo Flammia.

Para entender mejor qué es ChatGPT, el gerente informó que una de las investigadoras del laboratorio de análisis de Malware de ESET Latam, le preguntó al propio sistema y esto fue lo que respondió:

-Disculpa. ¿Me podrías decir qué eres?

-Soy ChatGPT, un modelo de lenguaje grande entrenado por OpenAI. Estoy aquí para ayudarle con cualquier pregunta o información que necesites. ¿En qué puedo ayudarte hoy?

De acuerdo a Flammia, al estar desarrollado con grandes cantidades de texto para responder preguntas o proporcionar información, hoy, la plataforma está madura para:

Mejoras en los ataques de Phishing: Con ChatGPT se abre la posibilidad para los atacantes de mejorar las comunicaciones y estafas telefónicas con las victimas durante las negociaciones. Con los avances que se vienen dando en la generación de lenguaje para que suene natural, los estafadores podrán perfeccionar su estrategia ciberdelictiva.

Chats Maliciosos: ChatGPT cuenta con una interfaz de programación de aplicaciones (API) que permite alimentar a otros chats. Debido a su interfaz amigable, podría ser utilizada para muchos usos beneficiosos, pero lamentablemente, puede ser utilizada para usos maliciosos. Por ejemplo, para engañar a las personas y realizar estafas muy persuasivas.

Robo de identidad: Los Ciberdelincuentes pueden utilizar ChatGPT para crear engaños que se presenten como si fueran de una institución confiable, como un banco o una empresa, con el objetivo de obtener información privada de las personas. Incluso pueden escribir en redes, como si fueran celebridades.

“Es un hecho que a través de ChatGPT se pueden crear correos electrónicos de phishing personalizados y muy convincentes para engañar a las víctimas y obtener información confidencial de una manera automatizada”, advierte el experto, quién asevera además que es un hecho que cada vez resulta más fácil identificar los correos de phishing y en este sentido, los investigadores de ESET le preguntaron a ChatGPT cómo los cibercriminales pueden usar esta tecnología y la respuesta fue la siguiente:

“Es probable que los ciberdelincuentes utilicen modelos de lenguaje como para automatizar tareas de phishing y suplantación de identidad, generar contenidos maliciosos como correos electrónicos y sitios web falsos y para generar contenido automáticamente en redes sociales, con el objetivo de propagar información falsa o engañosa. Sin embargo, también es posible que se utilice para detectar y evitar la detección de actividades maliciosas. Es importante tener en cuenta que mi desarrollo y uso, deben ser responsables y ética para evitar su uso malicioso”.

De acuerdo a Flammia, ChatGPT se comunica de una manera no solo amigable, sino que emplea un lenguaje accesible. Esto es lo que hace a esta tecnología tan disruptiva y el gran cambio que introduce es cómo los usuarios interactúan con la misma, ya que permite que sea accesible para cualquier tipo de usuario.

Autor: Clelia Santambrogio, CambioDigital OnLine

Custom Text
Artículo anteriorCrece el interés por Bluesky, el rival de Twitter, pero Mozilla invierte en Mastodon
Artículo siguienteLa Gira de Servicio de LG aterrizó en Maracay