Apple pide perdón por escuchar conversaciones de Siri

0
46

La compañía ha suspendido la recopilación de los audios y deja a los usuarios la libre elección de activar su guardado para ayudar a mejorar el asistente de voz.

Apple ha pedido disculpas por escuchar conversaciones de Siri, su asistente de voz. La compañía, tal y como ha reconocido, analizaba audios mediante trabajadores externos con el objetivo de “calificar” e introducir mejoras progresivas en la herramienta. Sin embargo, según declaró un extrabajador de la multinacional al diario The Guardian, se han podido llegar a oír audios, que se han activado por accidente, que contenían temáticas sexuales, de drogas o sanitarias.

“Hemos llegado a la conclusión de que no hemos estado a la altura de nuestros ideales. Por ello, pedimos disculpas”, ha señalado Apple en un comunicado en el que asegura que, a pesar de la mala praxis, diseña sus productos para proteger los datos de los usuarios. También, dice, ha suspendido la evaluación de la aplicación por parte de seres humanos. “Creemos que la privacidad es un derecho fundamental y trabajamos constantemente para reforzar su protección”, reza el escrito.

En cualquier caso, el ‘escándalo’ ha obligado a la organización a revisar sus políticas. Ésta no oculta que la ingesta de datos hace que las funcionalidades de Siri mejoren constantemente. Eso sí, siempre, según Apple, sin utilizarlos para crear perfiles de marketing o venderlos. “Usamos la información únicamente para mejorar Siri y constantemente desarrollamos tecnologías para garantizar aún más la privacidad”.

Entre los nuevos cambios, y además de haber detenido el programa de escucha y evaluación, se dejarán de conservar grabaciones de audio de las interacciones con el asistente. Activar este guardado para mejorar Siri será opcional para los usuarios que quieran “siempre sabiendo que Siri respeta sus datos y cuenta con estrictos controles de privacidad”. El cliente que active esta opción podrá cancelarla cuando quiera y sus interacciones solo serán escuchadas por empleados internos de la firma y no de terceros, como era costumbre.

Unas prácticas ya comunes
El de Apple no es el único asistente del que se ha destapado que escucha conversaciones de sus usuarios. Google Home también admitió las mismas prácticas con el pretexto de que expertos de lenguaje de todo el mundo “revisan y transcriben un pequeño conjunto de consultas para ayudarnos a comprender mejor los idiomas, acentos y dialectos”, en los que el asistente opera.

También Amazon, con su asistente Alexa, ha querido tomar medidas al respecto y dejará que sean los usuarios los que decidan si sus audios pueden ser revisados por empleados de la plantilla.

IDG.es