Pesquisadores do Facebook treinaram a IA para enganar os sistemas de reconhecimento facial

[ad_1]

  

O Facebook continua envolvido em uma ação judicial multibilionária sobre suas práticas de reconhecimento facial mas isso não impediu sua divisão de pesquisa de inteligência artificial de desenvolver tecnologia para combater os próprios delitos dos quais a empresa é acusada. . De acordo com VentureBeat a Facebook AI Research (FAIR) desenvolveu um sistema de “desidentificação” de ponta que funciona em vídeo, incluindo até vídeo ao vivo. Ele funciona alterando os principais recursos faciais de um assunto de vídeo em tempo real usando o aprendizado de máquina, para induzir um sistema de reconhecimento facial a identificar indevidamente o assunto.

Essa tecnologia de desidentificação existia no passado e existem empresas inteiras, como a IA israelense e a empresa de privacidade D-ID dedicada a fornecer imagens estáticas. Há também uma categoria inteira de imagens enganadoras de reconhecimento facial que você pode usar, chamadas exemplos adversários que funcionam explorando os pontos fracos na maneira como o software de visão por computador foi treinado para identificar determinadas características. Tomemos, por exemplo, este par de óculos de sol com um padrão contraditório impresso que pode fazer um sistema de reconhecimento facial pensar que você é a atriz Milla Jovovich.

Mas esse tipo de impedimento do reconhecimento facial geralmente significa alterar uma fotografia ou uma imagem parada capturada de uma câmera de segurança ou de alguma outra fonte após o fato. Ou, no caso de exemplos contraditórios, preventivamente tentando enganar o sistema. A pesquisa do Facebook supostamente faz um trabalho semelhante em tempo real e em vídeos, pré-capturados e ao vivo. Essa é a primeira vez na indústria, afirma a FAIR, e boa o suficiente para combater sistemas sofisticados de reconhecimento facial. Você pode ver um exemplo disso em ação neste neste vídeo do YouTube que, por não ser listado, não pode ser incorporado em outro lugar.

  


    
      
        

      
    
    
  
  
    
      
      
         Imagem: Facebook AI Research
      
    

  

"O reconhecimento de rosto pode levar à perda de privacidade e a tecnologia de substituição de rosto pode ser mal utilizada para criar vídeos enganosos", lê o artigo explicando a abordagem da empresa, conforme citado por VentureBeat . “Eventos mundiais recentes sobre os avanços e o abuso da tecnologia de reconhecimento de face invocam a necessidade de entender métodos que lidam com êxito com a desidentificação. Nossa contribuição é a única adequada para vídeo, incluindo vídeo ao vivo, e apresenta qualidade que ultrapassa em muito os métodos da literatura. ”

O Facebook aparentemente não pretende fazer uso dessa tecnologia em nenhum de seus produtos comerciais, VentureBeat relata. Mas a pesquisa pode influenciar as ferramentas futuras desenvolvidas para proteger a privacidade das pessoas e, como destaca a pesquisa com "vídeos enganosos", impede que a semelhança de alguém seja usada nos deepfakes de vídeos.

  


    
      
        

      
    
    
  
  
    
      
      
         Imagem: Facebook AI Research
      
    

  

Atualmente, a indústria de IA está trabalhando em maneiras de combater a propagação de deepfakes e as ferramentas cada vez mais sofisticadas usadas para criá-las. Esse é um método, e legisladores e empresas de tecnologia estão tentando criar outras ferramentas, como software de detecção de deepfake e estruturas regulatórias para controlar a propagação de vídeos, imagens e áudio falsos.

A outra preocupação abordada pela pesquisa da FAIR é o reconhecimento facial, que também não é regulamentado e causa preocupação entre legisladores, acadêmicos e ativistas que temem que isso possa violar os direitos humanos, se continuar sendo implantado sem supervisão por lei. fiscalização, governos e corporações.

[ad_2]

Source link



Os comentários estão desativados.