‘Robôs assassinos’ estão chegando e ONU está preocupada

‘Robôs assassinos’ estão chegando e ONU está preocupada

Bonnie Docherty, da Faculdade de Direito de Harvard, participou na Assembleia Geral da ONU, onde foi adotada a primeira resolução sobre “robôs assassinos”. Crédito: Bonnie Docherty

Há muito tempo material de ficção científica, os sistemas de armas autônomos, conhecidos como “robôs assassinos”, estão prestes a se tornar uma realidade, graças ao rápido desenvolvimento da inteligência artificial.

Em resposta, as organizações internacionais têm intensificado os apelos à limitação ou mesmo à proibição total da sua utilização. A Assembleia Geral da ONU adoptou em Novembro a primeira resolução sobre estes sistemas de armas, que podem seleccionar e atacar alvos sem intervenção humana.

Para esclarecer as preocupações jurídicas e éticas que levantam, o Gazette entrevistou Bonnie Docherty, professora de direito na Clínica Internacional de Direitos Humanos (IHRC) da Faculdade de Direito de Harvard, que participou em algumas das reuniões da ONU. Docherty também é pesquisador sênior na Divisão de Armas da Human Rights Watch. Esta entrevista foi condensada e editada para maior extensão e clareza.

O que exatamente são robôs assassinos? Até que ponto são uma realidade?

Robôs assassinos, ou sistemas de armas autônomos, para usar um termo mais técnico, são sistemas que escolhem um alvo e disparam contra ele com base em informações de sensores, e não em informações humanas. Eles estão em desenvolvimento há algum tempo, mas estão rapidamente se tornando uma realidade. Estamos cada vez mais preocupados com eles porque já estão a ser utilizados no campo de batalha sistemas de armas com autonomia significativa sobre o uso da força.

O que são aqueles? Onde eles foram usados?

É um pouco tênue sobre o que é considerado um robô assassino e o que não é. Alguns sistemas que foram utilizados na Líbia e outros que foram utilizados na [the ethnic and territorial conflict between Armenia and Azerbaijan over] Nagorno-Karabakh demonstra uma autonomia significativa, no sentido de que pode operar por conta própria para identificar um alvo e atacar.

Elas são chamadas de munições ociosas e usam cada vez mais a autonomia que lhes permite pairar sobre o campo de batalha e esperar para atacar até sentirem um alvo. Se os sistemas são considerados robôs assassinos depende de factores específicos, tais como o grau de controlo humano, mas estas armas mostram os perigos da autonomia na tecnologia militar.

Quais são as preocupações éticas apresentadas pelos robôs assassinos?

As preocupações éticas são muito sérias. Delegar decisões de vida ou morte a máquinas ultrapassa os limites para muitas pessoas. Desumanizaria a violência e reduziria os humanos a valores numéricos.

Há também um sério risco de viés algorítmico, onde a discriminação de pessoas com base em raça, gênero, deficiência e assim por diante é possível porque as máquinas podem ser intencionalmente programadas para procurar determinados critérios ou podem tornar-se involuntariamente tendenciosas. Há amplas evidências de que a inteligência artificial pode se tornar tendenciosa. Nós, na comunidade de direitos humanos, estamos muito preocupados com o facto de isto ser utilizado em máquinas concebidas para matar.

Quais são as preocupações legais?

Existem também preocupações jurídicas muito sérias, como a incapacidade das máquinas distinguirem soldados de civis. Eles terão dificuldades especiais para fazê-lo num clima em que os combatentes se misturam com os civis.

Mesmo que a tecnologia consiga superar esse problema, falta-lhes o julgamento humano. Isto é importante para o chamado teste de proporcionalidade, onde se avalia se o dano civil é maior do que a vantagem militar.

Esse teste exige que um ser humano tome uma decisão ética e legal. Esse é um julgamento que não pode ser programado em uma máquina porque há um número infinito de situações que acontecem no campo de batalha. E não se pode programar uma máquina para lidar com um número infinito de situações.

Há também preocupação com a falta de responsabilização.

Estamos muito preocupados com o facto de a utilização de sistemas de armas autónomos cair numa lacuna de responsabilização porque, obviamente, não se pode responsabilizar o próprio sistema de armas.

Também seria juridicamente desafiante e possivelmente injusto responsabilizar um operador pelas ações de um sistema que funcionasse de forma autónoma.

Existem também dificuldades em responsabilizar os fabricantes de armas ao abrigo da lei de responsabilidade civil. Existe uma grande preocupação entre os Estados, os militares e outras pessoas de que estas armas autónomas possam cair numa lacuna de responsabilidade.

Acreditamos também que a utilização destes sistemas de armas prejudicaria o direito penal internacional existente, criando uma lacuna no quadro; criaria algo que não é coberto pela legislação penal existente.

Houve esforços para banir os robôs assassinos, mas até agora não tiveram sucesso. Por que é que?

Há certos países que se opõem a qualquer acção para resolver as preocupações que estas armas levantam – a Rússia em particular. Alguns países, como os EUA, o Reino Unido, e assim por diante, apoiaram regras não vinculativas. Acreditamos que um tratado vinculativo é a única resposta para lidar com preocupações tão graves.

A maioria dos países que procuraram regras não vinculativas ou nenhuma acção são aqueles que estão no processo de desenvolvimento da tecnologia e claramente não querem desistir da opção de a utilizar no futuro.

Pode haver vários motivos pelos quais tem sido difícil proibir estes sistemas de armas. Estes são sistemas de armas que estão em desenvolvimento neste momento, ao contrário das minas terrestres e das munições cluster que já existiam há algum tempo quando foram proibidas. Poderíamos mostrar danos documentados com minas terrestres e munições cluster, e esse é um factor que leva as pessoas a agir – quando já há danos.

No caso dos lasers ofuscantes, foi uma proibição preventiva [to ensure they will be used only on optical equipment, not on military personnel] portanto, este é um bom paralelo para os sistemas de armas autónomos, embora estes sistemas de armas sejam uma categoria muito mais ampla. Há também um clima político diferente neste momento. Em todo o mundo, existe um clima político muito mais conservador, o que tornou o desarmamento mais desafiador.

O que você acha da posição do governo dos EUA?

Acreditamos que eles ficam aquém do que deveria ser uma solução. Pensamos que precisamos de regras juridicamente vinculativas que sejam muito mais fortes do que as que o governo dos EUA está a propor e que devem incluir proibições de certos tipos de sistemas de armas autónomos, e precisam de ser obrigações e não simplesmente recomendações.

Houve um desenvolvimento recente na ONU no esforço de uma década para proibir estes sistemas de armas.

O comité de desarmamento, o Primeiro Comité sobre Desarmamento e Segurança Internacional da Assembleia Geral da ONU, adoptou em Novembro por uma ampla margem — 164 estados a favor e cinco estados contra — uma resolução apelando ao secretário-geral da ONU para recolher as opiniões dos estados e civis sociedade em sistemas de armas autônomos.

Embora pareça um pequeno passo, é um passo crucial em frente. Muda o centro da discussão para a Assembleia Geral da Convenção sobre Armas Convencionais (CCAC), onde o progresso tem sido muito lento e bloqueado pela Rússia e outros estados. A Assembleia Geral da ONU (AGNU) inclui mais estados e funciona por votação em vez de consenso.

Muitos estados, mais de 100, afirmaram apoiar um novo tratado que inclui proibições e regulamentos sobre sistemas de armas autónomos. Isto, combinado com o aumento da utilização destes sistemas no mundo real, convergiu para impulsionar a acção na frente diplomática.

O secretário-geral disse que até 2026 gostaria de ver um novo tratado. Um tratado resultante da AGNU poderia considerar uma gama mais ampla de tópicos, como direitos humanos, direito, ética, e não limitar-se apenas ao direito humanitário. Estamos muito esperançosos de que isso mudará o jogo nos próximos anos.

O que implicaria uma proibição internacional de sistemas de armas autónomos e qual a probabilidade de isso acontecer em breve?

Apelamos a um tratado que tenha três partes. Uma delas é a proibição de sistemas de armas autónomos que carecem de controlo humano significativo. Apelamos também à proibição de sistemas de armas autónomos que visem pessoas, porque levantam preocupações sobre discriminação e desafios éticos. A terceira vertente é que pedimos regulamentos sobre todos os outros sistemas de armas autónomos para garantir que só possam ser utilizados dentro de um determinado âmbito geográfico ou temporal. Estamos otimistas de que os estados adotarão tal tratado nos próximos anos.

Fornecido por Harvard Gazette

Esta história foi publicada como cortesia do Harvard Gazette, o jornal oficial da Universidade de Harvard. Para notícias adicionais da universidade, visite Harvard.edu.

Citação: Perguntas e respostas: ‘Robôs assassinos’ estão chegando e a ONU está preocupada (2024, 15 de janeiro) recuperado em 15 de janeiro de 2024 em https://techxplore.com/news/2024-01-qa-killer-robots.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.



[ad_2]

Deixe uma resposta