O sistema de aprendizado profundo ensina robôs macios e inspirados a se mover usando apenas uma única câmera

Novo sistema de aprendizado profundo ensina robôs flexíveis, macios e inspirados a se mover com apenas uma única câmera

A, reconstrução do campo visuomotor jacobiano e previsão de movimento. De uma única imagem, um modelo de aprendizado de máquina infere uma representação em 3D do robô na cena, que nomeamos o visuomotor Jacobian Field. Ele codifica a geometria e a cinemática do robô, permitindo -nos prever os movimentos 3D dos pontos de superfície do robô sob todos os comandos possíveis. As cores indicam a sensibilidade desse ponto para os canais de comando individuais. B, controle de circuito fechado da visão. Dadas as trajetórias de movimento desejadas no espaço de pixels ou em 3D, usamos o campo visuomotor jacobiano para otimizar o comando robot que geraria o movimento prescrito a uma velocidade interativa de aproximadamente 12 Hz. A execução do comando robô no mundo real confirma que os movimentos desejados foram alcançados. Crédito: Natureza (2025). Doi: 10.1038/s41586-025-09170-0

Robôs convencionais, como os usados ​​em ambientes da indústria e perigosos, são fáceis de modelar e controlar, mas são rígidos demais para operar em espaços confinados e terrenos irregulares. Os robôs macios e inspirados são muito melhores em se adaptar aos seus ambientes e manobrar em lugares inacessíveis.

Esses recursos mais flexíveis, no entanto, normalmente exigiriam uma variedade de sensores a bordo e modelos espaciais adaptados exclusivamente para cada design de robô individual.

Adotando uma abordagem nova e menos exigente de recursos, uma equipe de pesquisadores do MIT desenvolveu um sistema de controle de aprendizado profundo e muito menos complexo que ensina robôs suaves e bio-inspirados a mover e seguir comandos de apenas uma única imagem.

Seus resultados são publicados na revista Natureza.

Ao treinar uma rede neural profunda em duas a três horas de visão múltipla do vídeo de vários robôs que executam comandos aleatórios, os pesquisadores treinaram a rede para reconstruir a forma e o alcance da mobilidade de um robô de apenas uma única imagem.

Os projetos anteriores de controle de aprendizado de máquina exigiam personalização de especialistas e sistemas caros de captura de movimento. Essa falta de um sistema de controle de uso geral limitou suas aplicações e tornou a prototipagem rápida muito menos prática.

“Nosso método abriga o design de hardware de robôs de nossa capacidade de modelá -los manualmente, que no passado ditaram a fabricação de precisão, materiais caros, recursos extensos de detecção e dependência de blocos de construção convencionais e rígidos”, observam os pesquisadores em seu artigo.

A nova abordagem de aprendizado de máquina de câmera única permitiu o controle de alta precisão em testes em uma variedade de sistemas robóticos, incluindo uma mão pneumática impressa em 3D, um pulso auxético macio, uma mão de 16-DOG allegro e um braço de robô de Poppy de baixo custo.

Esses testes conseguiram alcançar menos de três graus de erro no movimento da junta e menos de 4 milímetros (cerca de 0,15 polegadas) de erro no controle da ponta dos dedos. O sistema também foi capaz de compensar o movimento do robô e as mudanças no ambiente circundante.

“Este trabalho aponta para uma mudança de robôs de programação para robôs de ensino”, observa Ph.D. estudante sizhe lester li em um recurso da web do MIT.

“Hoje, muitas tarefas de robótica exigem engenharia e codificação extensa. No futuro, imaginamos mostrar um robô o que fazer e deixá -lo aprender a alcançar a meta de forma autônoma”.

Como esse sistema depende apenas da visão, pode não ser adequado para tarefas mais ágeis que exigem sensor de contato e manipulação tátil. Seu desempenho também pode se degradar nos casos em que as dicas visuais são insuficientes.

Os pesquisadores sugerem que a adição de sensores táteis e outros pode permitir que os robôs realizem tarefas mais complexas. Há também o potencial de automatizar o controle de uma ampla gama de robôs, incluindo aqueles com sensores mínimos ou incorporados.

Escrito para você por nosso autor Charles Blue, editado por Sadie Harley, e verificou-se e revisado por Robert Egan-este artigo é o resultado de um trabalho humano cuidadoso. Confiamos em leitores como você para manter vivo o jornalismo científico independente. Se este relatório é importante para você, considere uma doação (especialmente mensalmente). Você vai conseguir um sem anúncios conta como um agradecimento.

Mais informações:
Sizhe Lester Li et al, controlando diversos robôs inferindo campos jacobianos com redes profundas, Natureza (2025). Doi: 10.1038/s41586-025-09170-0

© 2025 Science X Network

Citação: O sistema de aprendizado profundo ensina robôs suaves e inspirados a se mover usando apenas uma única câmera (2025, 9 de julho) recuperada em 9 de julho de 2025 em https://techxplore.com/news/2025-07-deep-soft-bio-robots-camera.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa particular, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.



[ad_2]

Deixe uma resposta