Subcontratado Apple escuchar conversaciones privadas de Siri, según uno de ellos

Subcontratado Apple escuchar conversaciones privadas de Siri, según uno de ellos
5 (100%) 5 votos

Subcontratado Apple escuchar conversaciones privadas de Siri, según uno de ellos 1

Un Apple el guardián de privacidad del usuario en comunicación, pero en la práctica ni siquiera el poderoso Ma pasa por la falta de privacidad que (casi) inherente a la vida digital. Uno nuevo informe de El guardián Muéstralo bien.

El periódico británico escuchó a un empleado de una empresa contratada por Apple para realizar análisis de secciones de audio procesadas por Cangrejo cortos clips de voz grabados por el asistente de su usuario y enviados para su revisión para mejorar su sistema Reconocimiento de voz. Según el testimonio del empleado, el contenido de estas grabaciones está lejos de ser inofensivo o desechable.

Según él, los empleados subcontratados a menudo escuchan grabaciones altamente privadas y sensibles de los usuarios, como el audio de personas que tienen relaciones sexuales, discuten tratamientos con médicos, cierran tratos confidenciales o realizan actos criminales, como el tráfico de drogas. La frecuencia con que estos audios son "accidentalmente" atrapados por Siri alto, según el demandante.

Vale la pena señalar que, como parte de la estrategia de privacidad diferencial de la compañía Apple, las grabaciones no van acompañadas de datos personales de los usuarios; Además, Ma lo deja claro Términos de uso de Siri Algunas de las grabaciones capturadas por el asistente pueden ser revisadas por humanos.

El problema aquí, advierte el empleado, es que el carácter anónimo de estas grabaciones no es tan anónimo: en algunos casos, los trabajadores analizan fragmentos de hasta 30 segundos de audio, donde puede escuchar fácilmente información personal del usuario y dibujar su perfil. Además, el Apple no dejaría suficientemente claro a sus clientes que Siri puede tener falsos positivos en sus activaciones para que pueda "despertarse" y comenzar una grabación en un momento aleatorio sin que lo llame simplemente porque ha capturado un audio similar a ese tu comando

Recomendamos:  Apple lanza séptimas versiones beta para desarrolladores de iOS 13, watchOS 6, iPadOS 13 y tvOS 13

En respuesta a Guardiánel Apple reiteró que los clips de Siri siempre se analizan de forma anónima, y ​​una porción aleatoria de menos de 1% de activaciones de asistente utilizadas diariamente para la conferencia La mayoría de los clips de voz duran unos segundos. "Todos los analizadores tienen la obligación de seguir los estrictos términos de confidencialidad del Apple"Dijo la compañía.

Según el funcionario escuchado por el periódico, sin embargo, la respuesta no es suficiente; otros comentaristas maliciosos podrían usar la información obtenida en los clips con intención maliciosa contra los usuarios de la compañía. Es bastante cierto que las posibilidades de que esto suceda son escasas, pero aún así, el recordatorio es: privacidad absoluta, en la era digital, una utopía incluso con Apple.

vía AppleInsider

Dejános tus Comentarios: