
A estrutura geral. Crédito: IET Cyber-Systems and Robotics (2025). Doi: 10.1049/csy2.70018
Navegar sem um mapa é uma tarefa difícil para os robôs, especialmente quando eles não podem determinar com segurança onde estão. Uma nova solução movida a IA ajuda os robôs a superar esse desafio, treinando-os para tomar decisões de movimento que também protegem sua capacidade de localizar. Em vez de ir às cegas em direção a um alvo, o robô avalia a riqueza visual de seus arredores e favorece rotas, onde é menos provável que se perca “.
Ao combinar o aprendizado de reforço profundo (DRL) com o feedback em tempo real sobre a estimativa de pose, essa abordagem permite que os robôs evitem colisões e falhas de localização. O resultado: navegação mais inteligente, melhor desempenho em ambientes complicados e um grande passo em direção a sistemas autônomos que realmente entendem suas limitações.
Os métodos tradicionais de navegação por robôs requerem mapas detalhados ou assumem que a localização precisa está sempre disponível – Assuntos que se quebram em ambientes internos ou desconhecidos. Os sistemas visuais simultâneos de localização e mapeamento (SLAM), frequentemente usados como fallback, podem falhar facilmente em cenas sem texturas distintas ou durante movimentos abruptos, levando a erros de navegação graves.
Muitos modelos anteriores de IA se concentraram apenas em encontrar caminhos sem colisão, ignorando se o robô poderia permanecer adequadamente localizado ao longo do caminho. Mesmo aqueles que consideram a localização geralmente dependem de limiares de penalidade rígidos, incapazes de se adaptar às condições de mudança. Devido a esses desafios, é urgentemente necessária uma estratégia de navegação mais flexível e orientada por conscientização para que os robôs tenham desempenho de maneira confiável em diversos cenários do mundo real.
Uma equipe de pesquisa da Universidade de Cardiff e da Universidade Hohai desenvolveu um novo modelo de aprendizado de reforço profundo (DRL) que ajuda os robôs a planejar caminhos mais inteligentes e seguros em ambientes internos complexos. O estudo deles, publicado em IET Cyber-Systems and Robotics Em julho de 2025, apresenta uma política de navegação com reconhecimento de localização treinada com entrada de câmera RGB-D e feedback em tempo real do Orb-Slam2.
Em vez de confiar em limiares pré-definidos ou mapas fixos, o robô aprende a se adaptar dinamicamente às condições visuais em seu ambiente-aumentando sua capacidade de manter a localização e melhorar significativamente as taxas de sucesso da navegação em testes simulados.
A inovação central reside na integração da qualidade da localização em todas as decisões de navegação. O robô é treinado usando uma representação de estado compacto que reflete a distribuição espacial dos pontos de mapa visual, particionada em 24 regiões angulares ao redor de seu corpo. Esse design ajuda o robô a identificar quais instruções são visualmente “mais seguras” para viajar – as áreas de proximidade têm maior probabilidade de fornecer dados de localização confiáveis.
Além disso, os pesquisadores introduziram uma nova função de recompensa com base em erros de pose relativa (EPR), oferecendo feedback instantâneo sobre se uma ação de movimento específica melhora ou piora a compreensão do robô de sua posição. Ao contrário dos modelos anteriores que usavam limiares estáticos, esse sistema emprega um limiar dinâmico que se ajusta em tempo real, dependendo das condições ambientais.
Para avaliar a abordagem, a equipe realizou um treinamento extensivo usando o ambiente de simulação de Igibson e testou seu modelo contra quatro métodos de linha de base. Ao desafiar cenários internos, o novo modelo superou os outros por uma ampla margem, alcançando uma taxa de sucesso de 49% em comparação com apenas 33% para a navegação convencional baseada em SLAM.
Também mostrou erro de localização significativamente menor e melhor adaptabilidade em novos ambientes. Notavelmente, o modelo escolheu consistentemente mais, mas rotas mais seguras-demonstrando o valor de priorizar a robustez da localização em vez de mais curta eficiência do caminho.
“Nosso objetivo não era apenas ensinar o robô a se mudar – era ensiná -lo a pensar em como ele sabe onde está”, disse o Dr. Ze Ji, autor sênior do estudo. “A navegação não é apenas evitar paredes; trata -se de manter a confiança em sua posição a cada passo do caminho. Ao integrar a percepção e o planejamento, nosso modelo permite movimentos mais inteligentes e mais seguros em espaços incertos. Isso pode abrir o caminho para robôs mais autônomos que podem lidar com as complexidades do mundo real sem a constante supervisão humana”.
As implicações deste trabalho se estendem através da robótica interna – de robôs de serviço em hospitais e residências aos sistemas de automação de armazém. Em ambientes em que o GPS não funciona e as condições visuais variam, ser capaz de avaliar e responder à confiabilidade da localização é crucial. Esse método equipa os robôs com a conscientização para ajustar suas estratégias com base em quão bem elas podem ver e entender seus arredores.
No futuro, a equipe planeja testar seu modelo em robôs reais e em cenas dinâmicas com pedestres. Com um desenvolvimento adicional, a abordagem pode se tornar um bloco de construção essencial para navegação confiável e sem mapa em ambientes humanos do mundo real.
Yan Gao et al., Aprendizagem de reforço profundo para navegação sem mapa localizabilidade – IET Cyber-Systems and Robotics (2025). Doi: 10.1049/csy2.70018
Fornecido pela Universidade de Zhejiang
Citação: Navegação mais inteligente: a IA ajuda os robôs a permanecer no caminho certo sem um mapa (2025, 27 de agosto) recuperado em 27 de agosto de 2025 em https://techxplore.com/news/2025-08-smarter-ai-robots-stay-track.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa particular, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.