Alexa imitando voces humanas supone una amenaza para la seguridad, advierten los expertos

0
116

Esta semana, Amazon anunció que estaba trabajando en una tecnología que permitiera a su asistente de voz, Alexa, sonar como seres humanos reales, vivos o muertos.

El sistema permitiría a Alexa imitar cualquier voz después de escuchar menos de un minuto de audio, dijo Rohit Prasad, un vicepresidente senior de Amazon, en una conferencia que la compañía celebró en Las Vegas el miércoles.

El objetivo es «hacer que los recuerdos perduren» después de que «muchos de nosotros hayamos perdido a un ser querido» durante la pandemia, dijo Prasad.

Aunque Amazon está posicionando esta tecnología como una herramienta sentimental, los usuarios de Twitter la encontraron ‘espeluznante’. Por no hablar de las implicaciones de seguridad de esta función.

Amazon Alexa está investigando una tecnología que imita la voz de las persona, en este ejemplo vemos al chico escuchando El Mago de Oz narrado por la voz de su abuela (que incluso  podría ya estar muerta) 
 

Nuestras voces se utilizan a menudo como contraseña para autenticar ciertas cuentas, por lo que imitar una voz concreta a partir de sólo 60 segundos podría tener graves implicaciones de seguridad», dijo Jake Moore, asesor global de ciberseguridad de ESET.

Amazon no es el primero en jugar con la voz y la IA. Recientemente, Microsoft restringió las empresas que podían utilizar su software para repetir la voz, por temor a los ataques de «deepfake».

Ya se están produciendo ataques de audio falso contra las empresas, pero a menudo son creados por potentes ordenadores que utilizan una gran cantidad de datos. Cuando los gigantes de la tecnología añaden funciones efectivas para las masas, se abre el nivel de amenaza a mucha más gente», explicó Moore.

Dar a los asistentes de IA la voz de personas reales podría ser un caso en el que la tecnología superara la seguridad y pusiera en peligro a las personas.

Si la voz de cualquier persona se puede duplicar con tanta facilidad y rapidez, podría haber incidentes potencialmente graves en el horizonte. Las empresas deben preguntarse por qué necesitamos esta tecnología, en lugar de crearla por crear», afirmó Moore.

El año pasado, HSBC afirmó que el fraude bancario telefónico se había reducido en un 50% desde la introducción de un sistema de seguridad biométrico que autentificaba a los clientes a través de su voz.

Ahora bien, ¿qué pasaría si Alexa pudiera imitar esas voces? Es fácil imaginar la potencial pesadilla de seguridad que podría causar.

Si esta tecnología llega a ser realidad, los expertos aconsejan que podría ser prudente cambiar el uso de la voz para autenticar las cuentas bancarias por otro método de verificación, como la banca online a través del smartphone.

CambioDigital OnLine |Fuente WEB

Custom Text
Artículo anteriorAtaques a proveedores de servicios en nube descendieron un 25% durante los cuatro primeros meses de 2022
Artículo siguienteUna red Wi-Fi vulnerable pone en peligro los datos de su organización