Los «Gemelos Malvados Digitales» son la nueva amenaza de la IA

Réplicas de usuarios con información tomada online, nuevas estafas.

0
5

Los ciberataques mediante inteligencia artificial serán cada vez más personalizados y atacarán a través de sofisticadas estafas y phishing. En particular, los ciberdelincuentes utilizarán información robada en línea para entrenar modelos de IA que imiten a los usuarios y así lanzar ataques cada vez más difíciles de distinguir. Un fenómeno denominado «gemelos malvados digitales», que podría caracterizar los futuros ataques. Esta es la alarma que se desprende de un informe de la firma de seguridad Trend Micro, que traza un escenario de amenazas en ciernes.

Después de los deepfakes, explica el análisis, los ciberdelincuentes también utilizarán IA entrenada en las publicaciones públicas de una persona para imitar su estilo de escritura y personalidad, creando imitaciones convincentes que se dirigirán a nuevas víctimas involuntarias, dando lugar al fenómeno de los ‘gemelos digitales maliciosos’.Los ciberdelincuentes también crearán falsos empleados para atacar a las empresas en nuevas estafas comerciales y también harán uso de los datos biométricos expuestos involuntariamente.

Para los usuarios, será así cada vez más difícil comprender la veracidad y legitimidad de los contenidos.

«Este panorama es tan preocupante como esperable», explica Pierluigi Paganini, CEO de Cyberhorus y profesor de Ciberseguridad en la Universidad Luis Guido Carli, “en el underground criminal ya se están despoblando plataformas capaces de crear deepfakes y correos electrónicos de phishing, capaces de engañar a la mayoría de los usuarios online”.

También preocupa la integración de esta nueva tecnología en las empresas. La IA sustituirá a los humanos en muchos procesos y su supervisión puede ser cualquier cosa menos sencilla, introduciendo nuevos riesgos de seguridad.

En la actualidad, demasiadas empresas y organizaciones no están preparadas para hacer frente a estas amenazas emergentes, por lo que es crucial adoptar estrategias de defensa más avanzadas, como un enfoque basado en el riesgo, el refuerzo de la seguridad LLM y la formación continua de los usuarios. «En esto, la IA podría echarnos una gran mano, ya que tiene muchas aplicaciones con fines defensivos», destaca Paganini.

Fuente: Cyberhorus 

Custom Text
Artículo anteriorZuckerberg quiere trasladar Meta a Texas como Musk
Artículo siguienteLa IA de Google que llama a las tiendas llega a EE.UU.