
Crédito: Universidade Carnegie Mellon
Árvores, vegetação, pedras, terrenos imprevisíveis e falta de estradas claramente definidas-ou estradas-não pararam um veículo autônomo e off-road desenvolvido por pesquisadores do Instituto de Robótica da Universidade Carnegie Mellon.
À medida que os táxis autônomos, caminhões e outros veículos aparecem nas ruas e rodovias da cidade, os desafios permanecem para veículos autônomos projetados para mineração, busca e resgate, gerenciamento de incêndios, exploração, defesa e outros usos que possam levá-los a terrenos imprevisíveis e off-road. Veículos autônomos dependem de mapas definidos, leis de trânsito, sinais e marcadores de rua para navegar nas cidades, subúrbios e interestaduais. Mas essas informações não estão disponíveis para o veículo autônomo de todo o terreno, acelerando em um campo aberto ou no deserto.
Navegar com sucesso terreno off-road exige um veículo que possa interpretar seu ambiente em tempo real. A maioria dos sistemas atuais exige meses de rotulagem de dados liderada por humanos, design e teste de campo. A equipe de Tartandriver no AirLab, um laboratório de pesquisa de RI especializado em autonomia de última geração, criou uma nova pilha de autonomia auto-supervisionada que permite que os veículos atravessem com segurança terrenos complexos com velocidade e precisão, sem a necessidade de intervenção humana demorada.
“Ao combinar o poder dos modelos de fundação e a flexibilidade da auto-supervisão, o Airlab da CMU está empurrando os limites da direção autônoma em terrenos desafiadores”, disse Wenshan Wang, cientista de sistemas do AirLab e membro da equipe de Tartandriver. Os modelos de fundação podem reconhecer características naturais, como gramíneas altas e árvores, sem que os pesquisadores tenham que rotular tudo sozinho, tornando o processo de coleta de dados muito mais eficiente.
A equipe se concentrou em três princípios principais: auto-supervisão, multimodalidade e consciência da incerteza. Eles equiparam seu ATV com sensores Lidar para detectar objetos, câmeras, unidades de medição inercial (IMUS), sensores de viagem de choque, codificadores de rodas e muito mais. O sistema resultante abraça a auto-supervisão para navegar por si só com o aprendizado de reforço inverso com os dados de percepção multimodal para saber para onde ir e equilibrar o risco e o desempenho.
“Como não existe um mapa ou GPS anterior, nosso sistema depende do SLAM (localização e mapeamento simultâneos) para rastrear a posição e construir um entendimento local do meio ambiente em tempo real”, disse Micah Nye, Michael of Science in Robotics (MSR), estudante e membro da equipe de Tartandriver. “Isso permite percepção consistente em terrenos que possuem diferentes ambientes visuais”.
A equipe implementou seu sistema em um ATV lado a lado e testou suas habilidades em vários terrenos complexos, incluindo campos de grama, caminhos rochosos e inclinações variadas. O veículo conseguiu navegar com sucesso nos ambientes e se ajustar às mudanças sem correção humana. Em seguida, o AirLab está pressionando pelo sucesso em condições mais desafiadoras, adicionando novos sensores à sua carga útil, como câmeras térmicas.
“As câmeras térmicas detectam calor em vez de luz, permitindo -nos ver através da fumaça e de outras condições visualmente degradadas”, disse Yifei Liu, estudante da MSR e membro da equipe do Tartandriver.
Além do ATV, a equipe também começou a testar a pilha de autonomia em quadrúpedes e cadeiras de rodas motorizadas urbanas, expandindo suas capacidades em novas plataformas e ambientes.
Fornecido pela Universidade Carnegie Mellon
Citação: Tomando a direção autônoma off-road para mineração, pesquisa e resgate, exploração (2025, 1º de maio) Recuperado em 1 de maio de 2025 de https://techxplore.com/news/2025-05-autonomous-road-exploration.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa particular, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.
[ad_2]