Os contratados contratados pela Apple também estão ouvindo suas conversas Siri gravadas


  

A Apple está pagando empreiteiros para ouvir conversas gravadas Siri, de acordo com um novo relatório de The Guardian com um ex-contratante revelando que os trabalhadores ouviram gravações acidentais de usuários pessoais vidas, incluindo consultas médicas, endereços e até possíveis acordos de drogas.

De acordo com o empreiteiro, as interações do Siri são enviadas aos trabalhadores, que ouvem a gravação e são solicitados a classificá-la para uma variedade de fatores, como se a solicitação foi intencional ou um falso positivo que acidentalmente acionou a Siri, ou se resposta foi útil.

Mas a Apple não diz explicitamente que tem outros humanos ouvindo as gravações, e quaisquer admissões feitas para esse fim provavelmente estão enterradas em uma política de privacidade que poucos (ou nenhum) usuários da Siri já leram. A Apple não nota em sua página de privacidade que “Para ajudá-los a reconhecer sua pronúncia e fornecer respostas melhores, certas informações como seu nome, contatos, músicas que você ouve e pesquisas são enviadas para servidores da Apple usando protocolos criptografados ”, Mas em nenhum lugar menciona que trabalhadores humanos estarão ouvindo e analisando esses dados.

Em uma declaração para The Guardian a empresa reconheceu que “uma pequena porção dos pedidos da Siri é analisada para melhorar o Siri e o ditado. As solicitações do usuário não estão associadas ao ID da Apple do usuário. As respostas da Siri são analisadas em instalações seguras e todos os revisores estão sob a obrigação de aderir aos rigorosos requisitos de confidencialidade da Apple. ”A Apple também observou que menos de 1% das ativações diárias são analisadas sob este sistema.

O fato de os humanos estarem ouvindo as gravações de assistentes de voz em geral não é exatamente uma novidade – revelaram que tanto a Amazon (para Alexa) quanto a Google (para Assistente) sistemas semelhantes onde os trabalhadores humanos reais ouvem as conversas gravadas para melhorar melhor esses sistemas. Faz sentido: assistentes inteligentes, obviamente, não podem dizer a diferença entre falsos positivos e consultas reais (se pudessem, não seria um falso positivo), e qualquer um que tenha usado um assistente inteligente pode dizer que os falsos positivos ainda são muito , muito comum neste estágio de sua evolução.

Mas para todas as três empresas, até recentemente, não ficou claro até que ponto essas empresas estavam ouvindo os clientes.

O sistema da Apple também pode ser mais preocupante por algumas razões, como a difusão dos produtos da Apple. Onde o Alexa é amplamente limitado a alto-falantes inteligentes e o Assistente do Google a alto-falantes e telefones, o Siri também está no popular Apple Watch da Apple, que está em pulsos de milhões de pessoas a cada momento. Além disso, o Siri em um Apple Watch é ativado toda vez que um usuário levanta o pulso, não apenas quando ele acha que ouviu a frase da palavra “Hey, Siri”.

De acordo com The Guardian fonte, essa proliferação levou a algumas conversas muito pessoais, fazendo o seu caminho para completar estranhos trabalhando para a Apple: "Houve inúmeras instâncias de gravações com discussões privadas entre médicos e pacientes, negócios, negócios aparentemente criminosos, encontros sexuais e assim por diante. Essas gravações são acompanhadas de dados do usuário mostrando a localização, detalhes de contato e dados do aplicativo. ”

Além disso, como The Guardian observa, enquanto a Amazon e o Google permitem que os clientes recusem alguns usos de suas gravações, a Apple não oferece uma opção semelhante de proteção de privacidade, além de desabilitar totalmente a Siri. Esse é um aspecto particularmente ruim, considerando que a Apple construiu grande parte de sua reputação em se vender como a empresa de privacidade que defende seus dados de maneiras que o Google e a Amazon não usam. Implicitamente dizendo aos clientes que, efetivamente, "a única maneira de ter paz de espírito que um estranho aleatório não escuta suas gravações Siri acidentalmente acionadas é parar de usar Siri por completo" é uma mensagem confusa da empresa que supostamente coloca a privacidade a um prêmio .

Falta de parar completamente o uso de assistentes inteligentes, provavelmente não há muito que os clientes da Siri possam fazer para evitar o problema, além de ser cuidadoso com o que dizem ao redor de seus iPhones e HomePods (a menos que a pressão pública aqui cause Apple para adicionar uma opção de opt-out). Ainda assim, é um bom lembrete de que, quando você concorda em usar esses produtos, muitas vezes você está dando muito mais privacidade do que imagina.



Source link



Os comentários estão desativados.