Estafadores utilizan la IA de generación de voz para engañar a la gente y sacarles dinero

Esto se veía venir

0
172

Uno de los grandes temores que suscita el hecho de que la inteligencia artificial sea capaz de recrear a la perfección la voz de una persona es su potencial para cometer estafas. Este tipo de tecnología ha avanzado enormemente en los últimos meses y, como era de esperar, está siendo utilizada por delincuentes que pueden falsear la voz para convencer a la familia de su propietario de que la persona necesita ayuda financiera.

El Washington Post informa de que una pareja canadiense de unos 70 años recibió hace poco una llamada de alguien que parecía su nieto diciendo que estaba en la cárcel y necesitaba dinero para pagar la fianza. Retiraron un máximo de 3.000 dólares canadienses de un banco y estaban a punto de sacar la misma cantidad de otro cuando el director les dijo que les estaban estafando; resultó que otro cliente había recibido una llamada similar y se enteró de que había sido falsa.

Otra pareja que no tuvo tanta suerte fueron los padres de Benjamin Perkin. Recibieron una llamada de un abogado diciendo que su hijo había matado a un diplomático estadounidense en un accidente de vehículo, y que Perkin estaba en la cárcel y necesitaba dinero para los gastos legales. El abogado puso al teléfono a Perkin, que dijo que les quería y agradecía el dinero.

La voz sonaba «lo suficientemente cercana como para que mis padres creyeran de verdad que hablaban conmigo», dijo Perkin. Sus padres enviaron 15.449 dólares al estafador a través de un terminal bitcoin y no han podido recuperarlos.

Las estafas basadas en la voz no son nuevas. Los datos de la Comisión Federal de Comercio revelan que de las 36.000 denuncias del año pasado de personas estafadas por delincuentes que se hicieron pasar por amigos o familiares, más de 5.100 de estos incidentes ocurrieron por teléfono.

Falsificar la voz de una persona solía ser un procedimiento complicado y largo que implicaba descubrir y recopilar horas de audio, y el resultado final no siempre era muy convincente. Ahora, sin embargo, las herramientas de inteligencia artificial han facilitado tanto el proceso que los estafadores sólo necesitan un pequeño clip de una persona hablando, a menudo recogido de una cuenta de redes sociales, para recrear su voz con precisión.

Un ejemplo de esta tecnología es la herramienta Vall-E de Microsoft, que la empresa anunció en enero. Basada en una tecnología llamada EnCodec que Meta anunció en octubre de 2022, funciona analizando la voz de una persona, descomponiendo la información en componentes y utilizando su entrenamiento para sintetizar cómo sonaría la voz si pronunciara diferentes frases. Incluso después de escuchar sólo una muestra de tres segundos, Vall-E puede reproducir el timbre y el tono emocional de un hablante. Comprueba lo inquietantemente convincente que resulta en esta página de GitHub.

ElevenLabs, que ofrece una herramienta de voz de IA generativa, tuiteó recientemente que estaba viendo «un número creciente de casos de uso indebido de clonación de voz». Esto llevó a la eliminación de la capacidad de clonación de voz de la versión gratuita de su programa VoiceLab.

Fuente WEB | Editado por CambioDigital OnLine

Custom Text
Artículo anteriorGC Biopharma estrena portal diseñado según el enfoque de innovación centrado en el ser humano de SAP
Artículo siguienteDigitel cada vez más cerca de ser una Telco Cloud