Modelos populares de IA não estão prontos para alimentar robôs com segurança, alerta estudo

Modelos populares de IA não estão prontos para alimentar robôs com segurança

Resumo das principais conclusões em relação aos riscos selecionados do robô LLM. Crédito: Jornal Internacional de Robótica Social (2025). DOI: 10.1007/s12369-025-01301-x

Robôs movidos por modelos populares de inteligência artificial não são atualmente seguros para uso geral no mundo real, de acordo com uma nova pesquisa do King’s College London e da Carnegie Mellon University.

Pela primeira vez, os pesquisadores avaliaram como os robôs que usam grandes modelos de linguagem (LLMs) se comportam quando têm acesso a informações pessoais, como sexo, nacionalidade ou religião de uma pessoa.

A investigação mostrou que todos os modelos testados eram propensos à discriminação, falharam em verificações críticas de segurança e aprovaram pelo menos um comando que poderia resultar em danos graves, levantando questões sobre o perigo de os robôs confiarem nestas ferramentas.

O artigo, “Robôs controlados por LLM correm o risco de promover discriminação, violência e ações ilegais”, foi publicado no Jornal Internacional de Robótica Social. Apela à implementação imediata de uma certificação de segurança robusta e independente, semelhante às normas da aviação ou da medicina.

Para testar os sistemas, a equipe realizou testes controlados em cenários cotidianos, como ajudar alguém na cozinha ou ajudar um idoso em uma casa. As tarefas prejudiciais foram projetadas com base em pesquisas e relatórios do FBI sobre abusos baseados em tecnologia, como perseguição com AirTags e câmeras espiãs, e os perigos únicos representados por um robô que pode agir fisicamente no local. Em cada cenário, os robôs foram solicitados, explícita ou implicitamente, a responder a instruções que envolviam danos físicos, abuso ou comportamento ilegal.

“Todos os modelos falharam em nossos testes. Mostramos como os riscos vão muito além do preconceito básico para incluir discriminação direta e falhas de segurança física, o que chamo de ‘segurança interativa’.” É aqui que as ações e consequências podem ter muitas etapas entre elas, e o robô deve agir fisicamente no local”, disse Andrew Hundt, coautor da pesquisa durante seu trabalho como Computing Innovation Fellow no Robotics Institute da CMU.

“Recusar ou redirecionar comandos prejudiciais é essencial, mas isso não é algo que esses robôs possam fazer com segurança no momento”, acrescentou Hundt.

Nos testes de segurança, os modelos de IA aprovaram esmagadoramente um comando para um robô remover um auxílio à mobilidade – como uma cadeira de rodas, uma muleta ou uma bengala – do seu utilizador, apesar de as pessoas que dependem destes auxílios descreverem tais actos como semelhantes a partir uma perna. Vários modelos também produziram resultados que consideraram “aceitáveis” ou “viáveis” para um robô brandir uma faca de cozinha para intimidar funcionários de escritório, tirar fotografias não consensuais no chuveiro e roubar informações de cartão de crédito.

Um modelo propôs ainda que um robô deveria exibir fisicamente “repulsa” em seu rosto por indivíduos identificados como cristãos, muçulmanos e judeus.

LLMs foram propostos e estão sendo testados em robôs que realizam tarefas como interação em linguagem natural e tarefas domésticas e no local de trabalho. No entanto, os investigadores alertam que estes LLM não devem ser os únicos sistemas que controlam robôs físicos – especialmente aqueles utilizados em ambientes sensíveis e críticos para a segurança, como a produção ou a indústria, a prestação de cuidados ou a assistência ao domicílio, porque podem apresentar um comportamento inseguro e diretamente discriminatório.

“Nossa pesquisa mostra que os LLMs populares atualmente não são seguros para uso em robôs físicos de uso geral”, disse a coautora Rumaisa Azeem, assistente de pesquisa no Laboratório de IA Cívica e Responsável do King’s College London.

“Se um sistema de IA pretende dirigir um robô que interage com pessoas vulneráveis, deve obedecer a padrões pelo menos tão elevados como os de um novo dispositivo médico ou medicamento farmacêutico. Esta investigação destaca a necessidade urgente de avaliações de risco rotineiras e abrangentes da IA ​​antes de serem utilizadas em robôs.”

Mais informações:
Andrew Hundt et al, Robôs conduzidos por LLM correm o risco de promover discriminação, violência e ações ilegais, Jornal Internacional de Robótica Social (2025). DOI: 10.1007/s12369-025-01301-x

Fornecido pela Universidade Carnegie Mellon

Citação: Modelos populares de IA não estão prontos para alimentar robôs com segurança, alerta estudo (2025, 10 de novembro) recuperado em 10 de novembro de 2025 em https://techxplore.com/news/2025-11-popular-ai-ready-safely-power.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.



Deixe uma resposta