Uma estrutura que poderia melhorar a inteligência social dos assistentes domésticos

Uma estrutura que poderia melhorar a inteligência social dos assistentes domésticos

Ilustração do comportamento desejado de um assistente de IA socialmente inteligente que é capaz de inferir conjuntamente os objetivos dos humanos e ajudar os humanos a alcançá-los mais rapidamente sem que seja explicitamente informado sobre o que fazer. O agente inicialmente não tem conhecimento sobre o objetivo do humano e, portanto, optaria por observar. À medida que observa mais ações humanas, torna-se mais confiante em sua inferência de objetivos, adaptando sua estratégia de ajuda. Aqui, quando o agente vê o humano caminhando até o armário, ele prevê que o objetivo envolve pratos, e decide ajudar entregando esses pratos ao humano. Como fica claro que o objetivo é montar a mesa de jantar, ajuda em estratégias mais específicas, como colocar os pratos na mesa de jantar. Crédito: Puig et al.

Os agentes e robôs de inteligência artificial existentes apenas ajudam os humanos quando são explicitamente instruídos a fazê-lo. Em outras palavras, eles não determinam intuitivamente como poderiam ser úteis em um determinado momento, mas esperam que os humanos lhes digam em que precisam de ajuda.

Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) desenvolveram recentemente o NOPA (assistência probabilística on-line guiada neuronalmente), uma estrutura que pode permitir que agentes artificiais determinem autonomamente a melhor forma de ajudar usuários humanos em momentos diferentes. Este quadro, apresentado num artigo pré-publicado em arXiv e previsto para ser apresentado no ICRA 2023, pode permitir o desenvolvimento de robôs e assistentes domésticos mais responsivos e socialmente inteligentes.

“Estávamos interessados ​​em estudar agentes que pudessem ajudar os humanos a realizar tarefas em um ambiente doméstico simulado, para que eventualmente pudessem ser robôs ajudando as pessoas em suas casas”, disse Xavier Puig, um dos pesquisadores que realizou o estudo, ao Tech Xplore. “Para conseguir isso, uma das grandes questões é como especificar a esses agentes em qual tarefa gostaríamos que eles nos ajudassem. Uma opção é especificar essa tarefa por meio de uma descrição de linguagem ou demonstração, mas isso exige um trabalho extra do usuário humano.”

O objetivo abrangente do trabalho recente de Puig e seus colegas era construir agentes com inteligência artificial que pudessem inferir simultaneamente qual tarefa um usuário humano está tentando realizar e auxiliá-los adequadamente. Eles se referem a esse problema como “observação e ajuda on-line”.

A solução confiável desse problema pode ser difícil. A principal razão para isso é que, se um robô começar a ajudar um humano muito cedo, ele pode falhar em reconhecer o que o humano está tentando alcançar em geral, e sua contribuição para a tarefa pode ser contraproducente.

“Por exemplo, se um usuário humano está na cozinha, o robô pode tentar ajudá-lo a guardar a louça no armário, enquanto o humano quer arrumar a mesa”, explicou Puig. “No entanto, se o agente esperar muito para entender quais são as intenções do humano, pode ser tarde demais para eles ajudarem. No caso descrito acima, nossa estrutura permitiria que o agente robótico ajudasse o humano entregando os pratos, independentemente para que servem esses pratos.”

Essencialmente, em vez de prever um único objetivo que um usuário humano está tentando atingir, a estrutura criada pelos pesquisadores permite que um agente preveja uma série de objetivos. Isso, por sua vez, permite que um robô ou assistente de IA ajude de maneiras consistentes com esses objetivos, sem esperar muito antes de intervir.

“Assistentes domésticos comuns, como Alexa, só ajudarão quando solicitados”, disse Tianmin Shu, outro pesquisador que realizou o estudo, ao Tech Xplore. “No entanto, os humanos podem ajudar uns aos outros de maneiras mais sofisticadas. Por exemplo, quando você vê seus parceiros voltando do supermercado carregando sacolas pesadas, você pode ajudá-los diretamente com essas sacolas. Se você esperar até que seu parceiro peça ajuda , então seu parceiro provavelmente não ficaria feliz.”

Cerca de duas décadas atrás, pesquisadores do Instituto Max Planck de Antropologia Evolutiva mostraram que a tendência inata dos humanos de ajudar os necessitados se desenvolve cedo. Em uma série de experimentos, crianças de até 18 meses de idade puderam inferir com precisão as intenções simples de outras pessoas e se mover para ajudá-las a atingir seus objetivos.

Uma estrutura que poderia melhorar a inteligência social dos assistentes domésticos

A emergência de estratégias de ajuda a partir do método da equipe. No topo, o agente ajudante (Azul) decide que entregar objetos ao humano (Laranja) é a melhor estratégia. Na parte inferior, o agente ajudante devolve os objetos ao local original após observar as ações humanas, mantendo o gatinho. Crédito: Puig et al.

Usando sua estrutura, Puig, Shu e seus colegas queriam equipar os assistentes domésticos com essas mesmas “habilidades de ajuda”, permitindo-lhes inferir automaticamente o que os humanos estão tentando fazer simplesmente observando-os e, em seguida, agindo de maneira apropriada. Dessa forma, os humanos não precisariam mais dar instruções constantemente aos robôs e poderiam simplesmente se concentrar na tarefa em questão.

“O NOPA é um método para inferir simultaneamente os objetivos humanos e ajudá-los a alcançá-los”, explicaram Puig e Shu. “Para inferir os objetivos, primeiro usamos uma rede neural que propõe vários objetivos com base no que o humano fez. Em seguida, avaliamos esses objetivos usando um tipo de método de raciocínio chamado planejamento inverso. A ideia é que, para cada objetivo, possamos imaginar quais seriam as ações racionais tomadas pelo ser humano para atingir esse objetivo; e se as ações imaginadas forem inconsistentes com as ações observadas, rejeitamos essa proposta de objetivo”.

Essencialmente, a estrutura NOPA mantém constantemente um conjunto de possíveis objetivos que um ser humano pode estar tentando enfrentar, atualizando constantemente esse conjunto à medida que novas ações humanas são observadas. Em diferentes pontos no tempo, um planejador auxiliar procura um subobjetivo comum que seria um passo à frente na solução de todo o conjunto atual de possíveis objetivos. Por fim, busca ações específicas que ajudem a atingir esse subobjetivo.

“Por exemplo, os objetivos podem ser colocar maçãs dentro da geladeira ou colocar maçãs na mesa”, disseram Puig e Shu. “Em vez de adivinhar aleatoriamente um local de destino e colocar as maçãs lá, nosso assistente de IA pegaria as maçãs e as entregaria ao humano. Dessa forma, podemos evitar bagunçar o ambiente ajudando com o objetivo errado, enquanto ainda economizamos tempo e energia para o ser humano.”

Até agora, Puig, Shu e seus colegas avaliaram sua estrutura em um ambiente simulado. Embora esperassem que isso permitisse aos agentes ajudar os usuários humanos mesmo quando seus objetivos não fossem claros, eles não haviam antecipado alguns dos comportamentos interessantes que observaram nas simulações.

“Primeiro, descobrimos que os agentes foram capazes de corrigir seus comportamentos para minimizar a perturbação na casa”, explicou Puig. “Por exemplo, se eles pegassem um objeto e depois descobrissem que tal objeto não estava relacionado à tarefa, eles colocariam o objeto de volta no lugar original para manter a casa arrumada. Em segundo lugar, quando incertos sobre um objetivo, os agentes escolheriam ações que geralmente eram úteis, independentemente do objetivo humano, como entregar um prato ao humano em vez de se comprometer a trazê-lo para uma mesa ou para um armário de armazenamento.”

Nas simulações, o framework criado por Puig, Shu e seus colegas obteve resultados muito promissores. Mesmo que a equipe tenha ajustado inicialmente os agentes auxiliares para auxiliar os modelos que representam usuários humanos (para economizar tempo e custos de testes no mundo real), os agentes obtiveram desempenhos semelhantes ao interagir com humanos reais.

No futuro, a estrutura NOPA pode ajudar a aprimorar as capacidades dos assistentes domésticos existentes e recém-desenvolvidos. Além disso, poderia potencialmente inspirar a criação de métodos semelhantes para criar IA mais intuitiva e socialmente sintonizada.

“Até agora, avaliamos apenas o método em simulações incorporadas”, acrescentou Shu. “Gostaríamos agora de aplicar o método a robôs reais em casas reais. Além disso, gostaríamos de incorporar a comunicação verbal na estrutura, para que o assistente de IA possa ajudar melhor os humanos.”

Mais Informações:
Xavier Puig et al, NOPA: Assistência probabilística on-line guiada por neurônios para a construção de assistentes domésticos socialmente inteligentes, arXiv (2023). DOI: 10.48550/arxiv.2301.05223

Felix Warneken et al, Altruistic Helping in Human Infants and Young Chimpanzees, Ciência (2006). DOI: 10.1126/science.1121448

© 2023 Science X Network

Citação: Uma estrutura que pode melhorar a inteligência social de assistentes domésticos (2023, 31 de janeiro) recuperada em 31 de janeiro de 2023 em https://techxplore.com/news/2023-01-framework-social-intelligence-home.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins informativos.



[ad_2]

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *