Padrões morais elevados para robôs em dilemas de resgate

Robôs como socorristas não podem cometer erros

Crédito: Yle/ Heidi Grönroos / Shutterstock / Pixabay

O grupo de pesquisa Moralities of Intelligent Machines, liderado por Michael Laakasuo, investiga as opiniões morais das pessoas sobre situações imaginárias de resgate em que o salvador é um humano ou um robô projetado especificamente para a tarefa. O socorrista deve decidir se salva, por exemplo, uma vítima inocente de um acidente de barco ou dois indivíduos cujo comportamento irresponsável causou o acidente.

“Trata-se de colocar o número de vidas salvas em desacordo com a prioridade dos inocentes”, diz o principal autor do estudo, Jukka Sundvall.

O objetivo do estudo era coletar dados sobre os fatores que as pessoas enfatizam em suas avaliações morais sobre situações difíceis de tomada de decisão e se a ênfase muda se a decisão for atribuída a um robô. Em outras palavras, espera-se que os robôs de resgate sigam prioridades diferentes das dos humanos?

A descoberta mais importante do estudo foi que os participantes do estudo (N = 3.752) e os entrevistados de uma pesquisa online (em finlandês) realizada com a emissora pública finlandesa Yle (N = 19.000) enfatizaram a inocência daqueles que seriam salvos em a situação do acidente mais do que o seu número. Em geral, as pessoas achavam melhor salvar um inocente do que dois que causaram o acidente, seja o agente de resgate humano ou robô. Os entrevistados queriam que o socorrista maximizasse o número de vidas salvas apenas em situações em que todas as partes envolvidas no acidente fossem igualmente culpadas ou inocentes.

Outra constatação foi que essa ênfase foi destacada no caso dos robôs: se o socorrista decidiu maximizar o número de vidas salvas resgatando os responsáveis ​​pelo acidente, a decisão foi mais fortemente condenada no caso dos robôs do que nos socorristas humanos.

Os robôs são avaliados de forma mais crítica do que os humanos

“Com base nas descobertas, parece que as decisões dos robôs são avaliadas em critérios morais mais rígidos”, diz Michael Laakasuo.

“Enquanto robôs e humanos estão sujeitos a expectativas morais semelhantes, espera-se que os robôs sejam melhores que os humanos em atender a essas expectativas”.

Uma possível razão para isso é que as pessoas desejam que a tomada de decisão automatizada seja “certa” com muito mais frequência do que as pessoas. Se isso não acontecer, põe em causa a finalidade da automação.

“Talvez as más decisões morais tomadas pelos humanos possam ser vistas como incidentes compreensíveis, enquanto no caso dos robôs são consideradas indicadores de erros na programação”, pondera Sundvall.

Examinando as atitudes em relação à nova tecnologia

No nível prático, critérios morais mais rígidos podem resultar em reações nitidamente negativas em situações da vida real em que o resultado da tomada de decisão automatizada é moralmente ruim do ponto de vista dos cidadãos. Altas expectativas podem dificultar a implantação da tomada de decisão automatizada. Nem sempre está claro de antemão o que o público em geral considera ser uma opção moralmente pior em circunstâncias individuais, muito menos a quantidade de resultados moralmente ruins considerados um “número aceitável de erros”.

O estudo faz parte dos campos da psicologia moral e dos estudos de interação humano-tecnologia, e seu objetivo é expandir nossa compreensão do pensamento moral e das atitudes em relação às novas tecnologias.

Segundo Sundvall, o estudo é importante porque o desenvolvimento da inteligência artificial e da robótica é atual.

“As possibilidades de tomada de decisão automatizada em vários setores da sociedade estão aumentando e é útil tentar antecipar problemas relacionados”, observa Sundvall.

O artigo de pesquisa, intitulado “Inocência sobre o utilitarismo: padrões morais elevados para robôs em dilemas de resgate”, foi publicado no Jornal Europeu de Psicologia Social.

Mais Informações:
Jukka Sundvall et al, Inocência sobre o utilitarismo: Padrões morais elevados para robôs em dilemas de resgate, Jornal Europeu de Psicologia Social (2023). DOI: 10.1002/ejsp.2936

Fornecido pela Universidade de Helsinque

Citação: Inocência sobre o utilitarismo: padrões morais elevados para robôs em dilemas de resgate (2023, 11 de abril) recuperado em 11 de abril de 2023 em https://techxplore.com/news/2023-04-innocence-utilitarianism-heightened-moral-standards.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins informativos.



[ad_2]

Deixe uma resposta