A IA não pode nos proteger dos deepfakes, argumenta novo relatório


  

Um novo relatório da Data and Society levanta dúvidas sobre soluções automatizadas para vídeos alterados enganosamente, incluindo vídeos alterados de aprendizado de máquina chamados deepfakes. Os autores Britt Paris e Joan Donovan argumentam que os deepfakes, embora novos, fazem parte de uma longa história de manipulação da mídia – que exige uma correção social e técnica. Depender da IA ​​pode realmente piorar as coisas concentrando mais dados e poder nas mãos de empresas privadas.

"O pânico em torno dos deepfakes justifica soluções técnicas rápidas que não tratam da desigualdade estrutural", diz Paris. "É um projeto enorme, mas precisamos encontrar soluções sociais e políticas para que as pessoas sem poder não fiquem de fora da equação".

Na opinião de Paris e Donovan, é improvável que os deepfakes sejam corrigidos apenas pela tecnologia. "A relação entre mídia e verdade nunca foi estável", diz o relatório. Na década de 1850, quando os juízes começaram a permitir provas fotográficas no tribunal, as pessoas desconfiavam da nova tecnologia e preferiam testemunhos de testemunhas e registros escritos. Na década de 1990, as empresas de mídia eram cúmplices em deturpar os eventos editando seletivamente imagens das transmissões noturnas. Na Guerra do Golfo, os repórteres construíram um conflito entre oponentes igualmente equilibrados ao não mostrar o número de mortes desigualmente desigual entre as forças dos EUA e do Iraque. "Essas imagens eram imagens reais", diz o relatório. "O que foi manipulador foi como eles foram contextualizados, interpretados e transmitidos 24 horas por dia na televisão a cabo."

Hoje, os deepfakes levaram ainda mais a manipulação ao permitir que as pessoas manipulassem vídeos e imagens usando o aprendizado de máquina, com resultados quase impossíveis de detectar com o olho humano. Agora, o relatório diz: "qualquer pessoa com um perfil público de mídia social é um jogo justo a ser falsificado". Uma vez que as falsificações existam, elas podem se tornar virais nas mídias sociais em questão de segundos.

Para combater esse problema, o Facebook anunciou recentemente que estava lançando um conjunto de dados para permitir que as pessoas testassem novos modelos destinados a detectar falhas profundas. Startups como TruePic que usam AI e tecnologia blockchain para detectar fotos manipuladas, também começaram a ganhar impulso. Mais recentemente, a Agência de Projetos de Pesquisa Avançada em Defesa dos EUA (DARPA) investiu no Medifor que analisa as diferenças nos pixels do vídeo para determinar quando algo foi manipulado. Porém, quase todas essas soluções visam combater a manipulação no ponto de captura (ou seja, quando uma foto ou vídeo é tirado) ou no nível de detecção (para facilitar a diferenciação entre conteúdo protegido e não protegido).

Os especialistas em direito veem essa abordagem como positiva, observando que os problemas com os deepfakes não podem ser resolvidos apenas pelos tribunais. David Greene, diretor de liberdades civis da Electronic Frontier Foundation, diz que vídeos falsos também podem ter usos importantes em comentários políticos, paródias e anonimato de pessoas que precisam de proteção de identidade.

"Se houver uma lei de deepfakes, ela deve levar em conta a liberdade de expressão", acrescentou, observando que se as pessoas usarem o deepfakes para fazer algo ilegal – como chantagear ou extorquir alguém, por exemplo – elas podem ser processadas sob legislação existente.

Mas Paris teme que os filtros de conteúdo orientados por IA e outras correções técnicas possam causar danos reais. "Eles melhoram as coisas para alguns, mas podem piorar para outros", diz ela. “O design de novos modelos técnicos cria aberturas para as empresas capturarem todos os tipos de imagens e criar um repositório da vida on-line.”

Bobby Chesney, co-autor do artigo "Deep Fakes: um iminente desafio para privacidade, democracia e segurança nacional" não vê a coleta de dados como um problema. "Vejo que, se não forem regulamentadas, as entidades privadas terão acesso a mais informações", afirmou. "Mas a idéia de que isso é inerentemente ruim me parece pouco convincente".

Chesney e Paris concordam que é necessário algum tipo de correção técnica e que ela deve trabalhar em conjunto com o sistema legal para processar os maus atores e impedir a propagação de vídeos falsificados. "Precisamos falar sobre mitigação e limitação de danos, não resolvendo esse problema", acrescentou Chesney. "Os Deepfakes não vão desaparecer."



Source link



Os comentários estão desativados.