
Os engenheiros do MIT desenvolveram um método de treinamento para sistemas multiagentes, como um grande número de drones, que pode garantir sua operação segura em ambientes lotados. Crédito: Cortesia dos pesquisadores
Os programas de drones são uma forma cada vez mais popular de tela de luz em larga escala. Esses programas incorporam centenas a milhares de bots aéreos, cada um programado para voar em caminhos que juntos formam formas e padrões complexos no céu. Quando eles vão como planejado, os shows de drones podem ser espetaculares. Mas quando um ou mais drones funcionam, como aconteceu recentemente na Flórida, Nova York e em outros lugares, eles podem ser um risco sério para os espectadores no chão.
Os acidentes com drones mostram os desafios de manter a segurança no que os engenheiros chamam de “sistemas multiagentes”-sistemas de múltiplos agentes coordenados, colaborativos e programados por computador, como robôs, drones e carros autônomos.
Agora, uma equipe de engenheiros do MIT desenvolveu um método de treinamento para sistemas multiagentes que podem garantir sua operação segura em ambientes lotados. Os pesquisadores descobriram que, uma vez que o método é usado para treinar um pequeno número de agentes, as margens e os controles de segurança aprendidos por esses agentes podem escalar automaticamente para qualquer número maior de agentes, de uma maneira que garante a segurança do sistema como um todo.
Nas demonstrações do mundo real, a equipe treinou um pequeno número de drones do tamanho de uma palma para realizar com segurança objetivos diferentes, desde as posições de troca simultaneamente no meio do voo até o pouso em veículos móveis designados no chão. Nas simulações, os pesquisadores mostraram que os mesmos programas, treinados em alguns drones, poderiam ser copiados e escalados para milhares de drones, permitindo que um grande sistema de agentes realizasse com segurança as mesmas tarefas.
“Isso pode ser um padrão para qualquer aplicativo que exija uma equipe de agentes, como robôs de armazém, drones de busca e salvamento e carros autônomos”, diz Chuchu, professor associado de aeronáutica e astronáutica do MIT. “Isso fornece um escudo ou filtro de segurança, dizendo que cada agente pode continuar com sua missão, e vamos lhe dizer como estar seguro”.
Fan e seus colegas relatam seu novo método em um estudo que aparece este mês no diário IEEE Transações sobre robótica. Os co-autores do estudo são estudantes de pós-graduação do MIT Songyuan Zhang e Oswin, assim como o ex-Doc Kunal Garg do MIT, que agora é professor assistente da Universidade Estadual do Arizona.
Margens do shopping
Quando os engenheiros projetam para a segurança em qualquer sistema multiagente, eles normalmente precisam considerar os caminhos em potencial de cada agente em relação a todos os outros agentes do sistema. Esse planejamento de caminho em pares é um processo demorado e computacionalmente caro. E mesmo assim, a segurança não é garantida.
“Em um show de drones, cada drone recebe uma trajetória específica – um conjunto de waypoints e um conjunto de vezes – e então eles essencialmente fecham os olhos e seguem o plano”, diz Zhang, principal autor do estudo. “Como eles só sabem onde devem estar e a que horas, se houver coisas inesperadas que acontecem, não sabem como se adaptar”.
A equipe do MIT procurou desenvolver um método para treinar um pequeno número de agentes para manobrar com segurança, de uma maneira que pudesse escalar com eficiência para qualquer número de agentes no sistema. E, em vez de planejar caminhos específicos para agentes individuais, o método permitiria que os agentes mapeiam continuamente suas margens de segurança, ou limites além dos quais eles poderiam ser inseguros. Um agente pode então seguir qualquer número de caminhos para realizar sua tarefa, desde que permaneça dentro de suas margens de segurança.
Em certo sentido, a equipe diz que o método é semelhante à maneira como os humanos navegam intuitivamente ao redor.
“Diga que você está em um shopping realmente lotado”, explica. “Você não se importa com ninguém além das pessoas que estão no seu bairro imediato, como os 5 metros ao seu redor, em termos de se locomover com segurança e não esbarrar em ninguém. Nosso trabalho adota uma abordagem local semelhante”.
Barreira de segurança
Em seu novo estudo, a equipe apresenta seu método, GCBF+, que significa “Função da Barreira de Controle de Gráficos”. Uma função de barreira é um termo matemático usado na robótica que calcula uma espécie de barreira de segurança ou um limite além do qual um agente tem uma alta probabilidade de ser inseguro. Para qualquer agente, essa zona de segurança pode mudar momento a momento, à medida que o agente se move entre outros agentes que estão se movendo dentro do sistema.
Quando os designers calculam as funções de barreira para qualquer agente em um sistema multiagente, eles normalmente precisam levar em consideração os caminhos e interações em potencial com todos os outros agentes do sistema. Em vez disso, o método da equipe do MIT calcula as zonas de segurança de apenas alguns agentes, de uma maneira precisa o suficiente para representar a dinâmica de muitos outros agentes do sistema.
“Então, podemos fazer colar essa função de barreira para cada agente e, de repente, temos um gráfico de zonas de segurança que funciona para qualquer número de agentes do sistema”, diz o que diz.
Para calcular a função de barreira de um agente, o método da equipe primeiro leva em consideração o “raio de detecção” de um agente ou quanto dos arredores um agente pode observar, dependendo de seus recursos do sensor. Assim como na analogia do shopping, os pesquisadores assumem que o agente se preocupa apenas com os agentes que estão dentro do seu raio de detecção, em termos de manter seguro e evitar colisões com esses agentes.
Em seguida, usando modelos de computador que capturam os recursos e limites mecânicos de um agente, a equipe simula um “controlador” ou um conjunto de instruções sobre como o agente e um punhado de agentes semelhantes devem se movimentar. Eles então executam simulações de vários agentes que passam por certas trajetórias e registram se e como colidem ou interagem de outra forma.
“Depois de termos essas trajetórias, podemos calcular algumas leis que queremos minimizar, como digamos, quantas violações de segurança temos no controlador atual”, diz Zhang. “Então atualizamos o controlador para ser mais seguro.”
Dessa forma, um controlador pode ser programado para agentes reais, o que lhes permitiria mapear continuamente sua zona de segurança com base em qualquer outro agente que eles possam sentir em seu ambiente imediato e depois se mover dentro dessa zona de segurança para realizar sua tarefa.
“Nosso controlador é reativo”, diz Fan. “Nós não pré -planejamos um caminho de antemão. Nosso controlador está constantemente investindo informações sobre para onde um agente está indo, qual é a sua velocidade, quão rápido outros drones estão indo. Está usando todas essas informações para criar um plano em tempo real E está replanando sempre.
A equipe demonstrou GCBF+ em um sistema de oito drones quadrotores do tamanho de uma palma e do tamanho de uma palma que eles encarregavam de voar e trocar de posição no ar. Se os drones o fizessem seguindo o caminho mais reto, certamente colidiriam. Mas depois de treinar com o método da equipe, os drones conseguiram fazer ajustes em tempo real para manobrar um com o outro, mantendo-se dentro de suas respectivas zonas de segurança, para alternar com sucesso as posições em tempo real.
De maneira semelhante, a equipe encarregou os drones de voar e, em seguida, aterrissando em tartarugas específicas-robôs com o topo do tipo Shell. Os Turtlebots dirigiam continuamente em um grande círculo, e as moscas malucas foram capazes de evitar colidir umas com as outras enquanto faziam seus pousos.
“Usando nossa estrutura, precisamos apenas dar aos drones seus destinos em vez de toda a trajetória sem colisão, e os drones podem descobrir como chegar a seus destinos sem colisão”, diz Fan, que prevê que o método possa ser aplicado a qualquer sistema multiagente para garantir sua segurança, incluindo sistemas de prevenção de colisões em shows de drones, robôs de armazém, veículos de direção autônoma e sistemas de entrega de drones.
Songyuan Zhang et al., GCBF+: Uma estrutura de função de barreira de controle de gráfico neural para controle de vários agentes distribuídos, distribuído, IEEE Transações sobre robótica (2025). Doi: 10.1109/TRO.2025.3530348. Artigo de acesso aberto: dspace.mit.edu/handle/1721.1/158072
Fornecido pelo Instituto de Tecnologia de Massachusetts
Esta história é republicada, cortesia do MIT News (web.mit.edu/newsoffice/), um site popular que abrange notícias sobre pesquisa, inovação e ensino do MIT.
Citação: Os engenheiros ajudam os sistemas multirobot a permanecer na zona de segurança (2025, 3 de fevereiro) recuperados em 3 de fevereiro de 2025 de https://techxplore.com/news/2025-02-multirobot-stay-safety-zone.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa particular, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.