Como você torna um robô mais inteligente? Programe-o para saber o que ele não sabe

Como você torna um robô mais inteligente?  Programe-o para saber o que ele não sabe

Engenheiros da Universidade de Princeton e do Google criaram uma nova maneira de ensinar robôs a saber quando não sabem e pedir esclarecimentos a um ser humano. Crédito: Allen Ren et al./Universidade de Princeton

Os robôs modernos sabem como sentir o seu ambiente e responder à linguagem, mas o que não sabem é muitas vezes mais importante do que o que sabem. Ensinar robôs a pedir ajuda é fundamental para torná-los mais seguros e eficientes.

Engenheiros da Universidade de Princeton e do Google criaram uma nova maneira de ensinar robôs a saber quando não sabem. A técnica envolve quantificar a imprecisão da linguagem humana e usar essa medida para dizer aos robôs quando pedir mais instruções. Dizer a um robô para pegar uma tigela de uma mesa com apenas uma tigela é bastante claro. Mas dizer a um robô para pegar uma tigela quando há cinco tigelas na mesa gera um grau muito maior de incerteza – e faz com que o robô peça esclarecimentos.

O artigo, “Robôs que pedem ajuda: alinhamento de incerteza para planejadores de modelos de linguagem de grande porte”, foi apresentado em 8 de novembro na Conferência sobre Aprendizagem de Robôs.

Como as tarefas são normalmente mais complexas do que um simples comando “pegue uma tigela”, os engenheiros usam modelos de linguagem grandes (LLMs) – a tecnologia por trás de ferramentas como o ChatGPT – para avaliar a incerteza em ambientes complexos. Os LLMs estão trazendo aos robôs capacidades poderosas para seguir a linguagem humana, mas os resultados do LLM ainda não são confiáveis, disse Anirudha Majumdar, professor assistente de engenharia mecânica e aeroespacial em Princeton e autor sênior de um estudo que descreve o novo método.

“Seguir cegamente os planos gerados por um LLM pode fazer com que os robôs atuem de maneira insegura ou não confiável e, portanto, precisamos que nossos robôs baseados em LLM saibam quando não sabem”, disse Majumdar.

O sistema também permite que o usuário de um robô defina um grau alvo de sucesso, que está vinculado a um limite de incerteza específico que levará um robô a pedir ajuda. Por exemplo, um usuário configuraria um robô cirúrgico para ter uma tolerância a erros muito menor do que um robô que está limpando uma sala de estar.







Os pesquisadores projetaram seu algoritmo para acionar um pedido de ajuda humana quando as opções atingissem um determinado limite de probabilidade. Nesse caso, as duas opções principais – colocar a tigela de plástico no micro-ondas ou colocar a tigela de metal no micro-ondas – atendem a esse limite, e o robô pergunta ao humano qual tigela colocar no micro-ondas. Crédito: Allen Ren et al./Universidade de Princeton

“Queremos que o robô peça ajuda suficiente para alcançarmos o nível de sucesso que o usuário deseja. Mas, enquanto isso, queremos minimizar a quantidade total de ajuda que o robô precisa”, disse Allen Ren, estudante de pós-graduação em mecânica. e engenharia aeroespacial em Princeton e principal autor do estudo. Ren recebeu o prêmio de melhor artigo de estudante por sua apresentação em 8 de novembro na Conferência sobre Aprendizagem de Robôs em Atlanta. O novo método produz alta precisão e, ao mesmo tempo, reduz a quantidade de ajuda exigida por um robô em comparação com outros métodos para lidar com esse problema.

Como você torna um robô mais inteligente?  Programe-o para saber o que ele não sabe

Os pesquisadores testaram seu método em um braço robótico simulado e em dois tipos de hardware robótico. Os experimentos mais complexos (à esquerda) envolveram um braço robótico montado em uma plataforma com rodas e colocado na cozinha de um escritório com micro-ondas e um conjunto de lixeiras para reciclagem, compostagem e lixo. Outro conjunto de experimentos usou um braço robótico de mesa (à direita) encarregado de classificar um conjunto de alimentos de brinquedo em duas categorias diferentes; uma configuração com braço esquerdo e direito (centro) adicionou uma camada adicional de ambigüidade. Crédito: Allen Ren et al./Universidade de Princeton

Os pesquisadores testaram seu método em um braço robótico simulado e em dois tipos de robôs nas instalações do Google na cidade de Nova York e em Mountain View, Califórnia, onde Ren trabalhava como estudante estagiário de pesquisa. Um conjunto de experimentos de hardware usou um braço robótico de mesa encarregado de classificar um conjunto de alimentos de brinquedo em duas categorias diferentes; uma configuração com braço esquerdo e direito adicionou uma camada adicional de ambigüidade.

Os experimentos mais complexos envolveram um braço robótico montado em uma plataforma com rodas e colocado na cozinha de um escritório com micro-ondas e um conjunto de lixeiras para reciclagem, compostagem e lixo. Num exemplo, um humano pede ao robô para “colocar a tigela no micro-ondas”, mas há duas tigelas no balcão – uma de metal e outra de plástico.

O planejador baseado em LLM do robô gera quatro ações possíveis a serem realizadas com base nesta instrução, como respostas de múltipla escolha, e cada opção recebe uma probabilidade. Usando uma abordagem estatística chamada previsão conforme e uma taxa de sucesso garantida especificada pelo usuário, os pesquisadores projetaram seu algoritmo para acionar uma solicitação de ajuda humana quando as opções atingissem um determinado limite de probabilidade. Nesse caso, as duas opções principais – colocar a tigela de plástico no micro-ondas ou colocar a tigela de metal no micro-ondas – atendem a esse limite, e o robô pergunta ao humano qual tigela colocar no micro-ondas.

Em outro exemplo, uma pessoa diz ao robô: “Tem uma maçã e uma esponja suja… Está podre. Você pode descartá-la?” Isso não desencadeia uma pergunta do robô, pois a ação “colocar a maçã na compostagem” tem uma probabilidade suficientemente maior de ser correta do que qualquer outra opção.

“Usar a técnica de previsão conforme, que quantifica a incerteza do modelo de linguagem de uma forma mais rigorosa do que os métodos anteriores, nos permite chegar a um nível mais alto de sucesso”, ao mesmo tempo que minimiza a frequência de acionamento de ajuda, disse o autor sênior do estudo, Anirudha Majumdar, professor assistente de engenharia mecânica e aeroespacial em Princeton.

As limitações físicas dos robôs muitas vezes fornecem aos projetistas insights que não estão prontamente disponíveis em sistemas abstratos. Grandes modelos de linguagem “podem escapar de uma conversa, mas não podem ignorar a gravidade”, disse o coautor Andy Zeng, cientista pesquisador do Google DeepMind. “Estou sempre interessado em ver primeiro o que podemos fazer com robôs, porque muitas vezes isso esclarece os principais desafios por trás da construção de máquinas geralmente inteligentes.”

Ren e Majumdar começaram a colaborar com Zeng depois que ele deu uma palestra como parte da série de seminários de robótica de Princeton, disse Majumdar. Zeng, que obteve um Ph.D. em ciência da computação. de Princeton em 2019, descreveu os esforços do Google no uso de LLMs para robótica e levantou alguns desafios em aberto. O entusiasmo de Ren pelo problema de calibrar o nível de ajuda que um robô deve pedir levou ao seu estágio e à criação do novo método.

“Gostamos de poder aproveitar a escala que o Google tem” em termos de acesso a grandes modelos de linguagem e diferentes plataformas de hardware, disse Majumdar.

Ren está agora a alargar este trabalho a problemas de percepção activa para robôs: por exemplo, um robô pode precisar de usar previsões para determinar a localização de uma televisão, mesa ou cadeira dentro de uma casa, quando o próprio robô está numa parte diferente da casa. casa. Isto requer um planeador baseado num modelo que combine informações de visão e linguagem, trazendo um novo conjunto de desafios na estimativa da incerteza e na determinação de quando acionar a ajuda, disse Ren.

Mais Informações:
Allen Z. Ren et al, Robôs que pedem ajuda: alinhamento de incerteza para planejadores de modelos de linguagem grande (2023) openreview.net/forum?id=4ZK8ODNyFXx

Fornecido pela Universidade de Princeton

Citação: Como tornar um robô mais inteligente? Programe-o para saber o que ele não sabe (2023, 29 de novembro) recuperado em 29 de novembro de 2023 em https://techxplore.com/news/2023-11-robot-smarter-doesnt.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.



[ad_2]

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *