O que os robôs assassinos significam para o futuro da guerra

O que os robôs assassinos significam para o futuro da guerra

Robôs assassinos não se parecem com isso, por enquanto. Crédito: Denis Starostin/Shutterstock

Você pode ter ouvido falar de robôs assassinos, matadouros ou exterminadores – oficialmente chamados de armas autônomas letais (LAWs) – de filmes e livros. E a ideia de armas superinteligentes correndo desenfreadas ainda é ficção científica. Mas, à medida que as armas de IA se tornam cada vez mais sofisticadas, cresce a preocupação do público com o medo da falta de responsabilidade e do risco de falha técnica.

Já vimos como a chamada IA ​​neutra criou algoritmos sexistas e sistemas de moderação de conteúdo ineptos, principalmente porque seus criadores não entendiam a tecnologia. Mas na guerra, esses tipos de mal-entendidos podem matar civis ou arruinar as negociações.

Por exemplo, um algoritmo de reconhecimento de alvo pode ser treinado para identificar tanques a partir de imagens de satélite. Mas e se todas as imagens usadas para treinar o sistema mostrassem soldados em formação ao redor do tanque? Pode confundir um veículo civil passando por um bloqueio militar com um alvo.

Por que precisamos de armas autônomas?

Civis em muitos países (como Vietnã, Afeganistão e Iêmen) sofreram por causa da forma como as superpotências globais constroem e usam armas cada vez mais avançadas. Muitas pessoas argumentariam que fizeram mais mal do que bem, apontando mais recentemente para a invasão russa da Ucrânia no início de 2022.

No outro campo estão as pessoas que dizem que um país deve ser capaz de se defender, o que significa acompanhar a tecnologia militar de outras nações. A IA já pode ser mais esperta que os humanos no xadrez e no pôquer. Ele supera os humanos no mundo real também. Por exemplo, a Microsoft afirma que seu software de reconhecimento de fala tem uma taxa de erro de 1% em comparação com a taxa de erro humano de cerca de 6%. Portanto, não é de surpreender que os exércitos estejam lentamente entregando as rédeas aos algoritmos.

Mas como evitamos adicionar robôs assassinos à longa lista de coisas que gostaríamos de nunca ter inventado? Primeiro de tudo: conheça o seu inimigo.

O que são armas autônomas letais (LAWs)?

O Departamento de Defesa dos EUA define um sistema de armas autônomo como: “Um sistema de armas que, uma vez ativado, pode selecionar e engajar alvos sem intervenção adicional de um operador humano.”

Muitos sistemas de combate já se enquadram neste critério. Os computadores em drones e mísseis modernos têm algoritmos que podem detectar alvos e atirar neles com muito mais precisão do que um operador humano. O Domo de Ferro de Israel é um dos vários sistemas de defesa ativos que podem engajar alvos sem supervisão humana.

Embora projetado para defesa antimísseis, o Iron Dome pode matar pessoas por acidente. Mas o risco é visto como aceitável na política internacional porque o Domo de Ferro geralmente tem um histórico confiável de proteção de vidas civis.

Existem armas habilitadas para IA projetadas para atacar pessoas também, desde sentinelas robóticas até drones kamikaze vagabundos usados ​​na guerra da Ucrânia. As LEIS já estão aqui. Então, se quisermos influenciar o uso das LEIS, precisamos entender a história das armas modernas.

As regras da guerra

Acordos internacionais, como as convenções de Genebra, estabelecem condutas para o tratamento de prisioneiros de guerra e civis durante conflitos. Eles são uma das poucas ferramentas que temos para controlar como as guerras são travadas. Infelizmente, o uso de armas químicas pelos EUA no Vietnã e pela Rússia no Afeganistão são provas de que essas medidas nem sempre são bem-sucedidas.

Pior é quando os principais jogadores se recusam a se inscrever. A Campanha Internacional para Proibir Minas Terrestres (ICBL) tem feito lobby junto a políticos desde 1992 para proibir minas e munições cluster (que espalham pequenas bombas aleatoriamente por uma área ampla). Em 1997, o tratado de Ottawa incluiu a proibição dessas armas, que 122 países assinaram. Mas os EUA, a China e a Rússia não compraram.

As minas terrestres feriram e mataram pelo menos 5.000 soldados e civis por ano desde 2015 e até 9.440 pessoas em 2017. O relatório do Landmine and Cluster Munition Monitor 2022 disse:

O que os robôs assassinos significam para o futuro da guerra

Um sistema de defesa antimísseis israelense. Crédito: ChameleonsEye/Shutterstock

“As baixas… foram perturbadoramente altas nos últimos sete anos, após mais de uma década de reduções históricas. O ano de 2021 não foi exceção. Essa tendência é em grande parte o resultado do aumento de conflitos e contaminação por minas improvisadas observados desde 2015. Os civis representaram a maioria das vítimas registradas, metade das quais eram crianças.”

Apesar dos melhores esforços do ICBL, há evidências de que a Rússia e a Ucrânia (um membro do tratado de Ottawa) estão usando minas terrestres durante a invasão russa da Ucrânia. A Ucrânia também contou com drones para guiar ataques de artilharia ou, mais recentemente, para “ataques kamikaze” à infraestrutura russa.

Nosso futuro

Mas e as armas habilitadas para IA mais avançadas? A Campanha para Parar os Robôs Assassinos lista nove problemas principais com as LAWs, com foco na falta de responsabilidade e na desumanização inerente à matança que vem com ela.

Embora essa crítica seja válida, uma proibição total de LAWs não é realista por dois motivos. Primeiro, assim como as minas, a caixa de pandora já foi aberta. Além disso, as linhas entre armas autônomas, LAWs e robôs assassinos são tão tênues que é difícil distingui-los. Os líderes militares sempre seriam capazes de encontrar uma brecha na redação de uma proibição e colocar robôs assassinos em serviço como armas autônomas defensivas. Eles podem até fazer isso sem saber.

Certamente veremos mais armas habilitadas para IA no futuro. Mas isso não significa que temos que olhar para o outro lado. Proibições mais específicas e diferenciadas ajudariam a responsabilizar nossos políticos, cientistas de dados e engenheiros.

Por exemplo, proibindo:

  • caixa preta AI: sistemas onde o usuário não tem informações sobre o algoritmo além de entradas e saídas
  • AI não confiável: sistemas que foram mal testados (como no exemplo do bloqueio militar mencionado anteriormente).

E você não precisa ser um especialista em IA para ter uma visão sobre as LEIS. Fique atento aos novos desenvolvimentos de IA militar. Quando você ler ou ouvir sobre o uso de IA em combate, pergunte-se: isso se justifica? É preservar a vida civil? Caso contrário, envolva-se com as comunidades que estão trabalhando para controlar esses sistemas. Juntos, temos a chance de impedir que a IA faça mais mal do que bem.

Fornecido por The Conversation

Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.A conversa

Citação: O que os robôs assassinos significam para o futuro da guerra (2023, 10 de janeiro) recuperado em 17 de janeiro de 2023 em https://techxplore.com/news/2023-01-killer-robots-future-war.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins informativos.



[ad_2]

Deixe uma resposta