Esboço em tempo real semelhante ao humano por um robô humanóide

Esboço em tempo real semelhante ao humano por um robô humanóide

TEO, o robô humanóide do UC3M Robotics Lab, pintando uma flor. Crédito: Fernandez-Fernandez et al

O rápido avanço dos algoritmos de aprendizagem profunda e dos modelos generativos permitiu a produção automatizada de conteúdo artístico gerado por IA cada vez mais impressionante. A maior parte desta arte gerada pela IA, no entanto, é criada por algoritmos e modelos computacionais, e não por robôs físicos.

Pesquisadores da Universidade Complutense de Madrid (UCM) e da Universidade Carlos III de Madrid (UC3M) desenvolveram recentemente um modelo baseado em aprendizagem profunda que permite que um robô humanóide esboce imagens, da mesma forma que um artista humano faria. Seu artigo, publicado em Pesquisa de Sistemas Cognitivosoferece uma demonstração notável de como os robôs poderiam se envolver ativamente em processos criativos.

“Nossa ideia era propor uma aplicação de robô que pudesse atrair a comunidade científica e o público em geral”, disse Raúl Fernandez-Fernandez, coautor do artigo, ao Tech Xplore. “Pensamos em uma tarefa que poderia ser chocante ver um robô atuando, e foi assim que surgiu o conceito de fazer arte com um robô humanóide.”

A maioria dos sistemas robóticos existentes projetados para produzir esboços ou pinturas funcionam essencialmente como impressoras, reproduzindo imagens previamente geradas por um algoritmo. Fernandez-Fernandez e seus colegas, por outro lado, desejavam criar um robô que aproveitasse técnicas de aprendizagem por reforço profundo para criar esboços traço por traço, semelhante à forma como os humanos os desenhariam.

“O objetivo do nosso estudo não era fazer uma aplicação de robô de pintura que pudesse gerar pinturas complexas, mas sim criar um robô pintor físico robusto”, disse Fernandez-Fernandez. “Queríamos melhorar o estágio de controle do robô nas aplicações de robôs de pintura.”

Nos últimos anos, Fernandez-Fernandez e seus colegas têm tentado desenvolver algoritmos avançados e eficientes para planejar as ações de robôs criativos. O seu novo artigo baseia-se nestes esforços de investigação recentes, combinando abordagens que consideraram particularmente promissoras.

“Este trabalho foi inspirado em dois trabalhos anteriores importantes”, disse Fernandez-Fernandez. “O primeiro deles é um de nossos esforços de pesquisa anteriores, onde exploramos o potencial do Quick Draw! Dataset funciona para treinar pintores robóticos. O segundo trabalho introduziu o Deep-Q-Learning como uma forma de realizar trajetórias complexas que podem incluir complexas características como emoções.”

Esboço em tempo real semelhante ao humano por um robô humanóide

Waypoints gerados obtidos durante a execução do esboço da flor usando o framework DQN. Crédito: Fernandez-Fernandez et al

O novo sistema de esboço robótico apresentado pelos pesquisadores é baseado em uma estrutura Deep-Q-Learning introduzida pela primeira vez em um artigo anterior de Zhou e colegas postado em arXiv. Fernandez-Fernandez e seus colegas melhoraram esta estrutura para planejar cuidadosamente as ações dos robôs, permitindo-lhes realizar tarefas manuais complexas em uma ampla variedade de ambientes.

“A rede neural está dividida em três partes que podem ser vistas como três redes diferentes interligadas”, explicou Fernandez-Fernandez. “A rede global extrai os recursos de alto nível da tela completa. A rede local extrai recursos de baixo nível em torno da posição da pintura. A rede de saída toma como entrada os recursos extraídos pelas camadas convolucionais (das redes globais e locais) para gerar as próximas posições de pintura.”

Fernandez-Fernandez e seus colaboradores também informaram seu modelo através de dois canais adicionais que fornecem informações relacionadas à distância e à ferramenta de pintura (ou seja, a posição da ferramenta em relação à tela). Coletivamente, todos esses recursos orientaram o treinamento de sua rede, aprimorando suas habilidades de desenho. Para melhorar ainda mais as habilidades de pintura humanas de seu sistema, os pesquisadores também introduziram uma etapa de pré-treinamento baseada no chamado gerador de traços aleatórios.

“Usamos o duplo Q-learning para evitar o problema de superestimação e uma função de recompensa personalizada para seu treinamento”, disse Fernandez-Fernandez. “Além disso, introduzimos uma rede adicional de classificação de esboços para extrair os recursos de alto nível do esboço e usar seu resultado como recompensa nas últimas etapas de uma época de pintura. Esta rede fornece alguma flexibilidade à pintura, uma vez que a recompensa gerado por ele não depende da tela de referência, mas da categoria.”

Enquanto tentavam automatizar os esboços usando um robô físico, os pesquisadores também tiveram que elaborar uma estratégia para traduzir as distâncias e posições observadas em imagens geradas por IA em uma tela no mundo real. Para isso, geraram um espaço virtual discretizado dentro da tela física, no qual o robô poderia se mover e traduzir diretamente as posições de pintura fornecidas pelo modelo.

“Acho que a conquista mais relevante deste trabalho é a introdução de algoritmos de controle avançados em uma aplicação real de pintura de robôs”, disse Fernandez-Fernandez. “Com este trabalho, demonstramos que a etapa de controle da pintura de aplicações de robôs pode ser melhorada com a introdução desses algoritmos. Acreditamos que as estruturas DQN têm a capacidade e o nível de abstração para alcançar aplicações originais e de alto nível fora do escopo de problemas clássicos.”

O trabalho recente desta equipa de investigadores é um exemplo fascinante de como os robôs poderiam criar arte no mundo real, através de ações que se assemelham mais às dos artistas humanos. Fernandez-Fernandez e os seus colegas esperam que o modelo baseado em aprendizagem profunda que desenvolveram inspire novos estudos, contribuindo potencialmente para a introdução de políticas de controlo que permitam aos robôs enfrentar tarefas cada vez mais complexas.

“Nesta linha de trabalho, desenvolvemos uma estrutura usando Deep Q-Learning para extrair as emoções de um demonstrador humano e transferi-las para um robô”, acrescentou Fernandez-Fernandez. “Neste artigo recente, aproveitamos os recursos de extração de recursos das redes DQN para tratar as emoções como um recurso que pode ser otimizado e definido dentro da recompensa de uma tarefa robótica padrão e os resultados são bastante impressionantes.

“Em trabalhos futuros, pretendemos introduzir ideias semelhantes que aprimorem as aplicações de controle de robôs além dos problemas clássicos de controle de robôs.”

Mais Informações:
Raul Fernandez-Fernandez et al, Deep Robot Sketching: Uma aplicação de Deep Q-Learning Networks para esboços semelhantes aos humanos, Pesquisa de Sistemas Cognitivos (2023). DOI: 10.1016/j.cogsys.2023.05.004

Informações do diário:
arXiv

© 2024 Science X Network

Citação: Esboço em tempo real semelhante ao humano por um robô humanóide (2024, 24 de fevereiro) recuperado em 24 de fevereiro de 2024 em https://techxplore.com/news/2024-02-human-real-humanoid-robot.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.



[ad_2]

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *