Ciência

Uma maneira melhor de controlar robôs flexíveis que mudam de forma

Uma nova técnica de aprendizado de máquina pode treinar e controlar um soft rob reconfigurável
Uma nova técnica de aprendizado de máquina pode treinar e controlar um robô macio reconfigurável que pode mudar dinamicamente sua forma para completar uma tarefa. Os pesquisadores, do MIT e de outros lugares, também construíram um simulador que pode avaliar algoritmos de controle para robôs leves que mudam de forma.

Um novo algoritmo aprende a apertar, dobrar ou esticar todo o corpo de um robô para realizar diversas tarefas, como evitar obstáculos ou recuperar itens.

Imagine um robô parecido com um limo que pode mudar perfeitamente de forma para se espremer em espaços estreitos, que poderia ser implantado dentro do corpo humano para remover um item indesejado.

Embora tal robô ainda não exista fora de um laboratório, os pesquisadores estão trabalhando para desenvolver robôs leves reconfiguráveis ​​para aplicações em cuidados de saúde, dispositivos vestíveis e sistemas industriais.

Mas como alguém pode controlar um robô mole que não tem articulações, membros ou dedos que possam ser manipulados e, em vez disso, pode alterar drasticamente toda a sua forma à vontade? Os pesquisadores do MIT estão trabalhando para responder a essa pergunta.

Eles desenvolveram um algoritmo de controle que pode aprender de forma autônoma como mover, esticar e moldar um robô reconfigurável para completar uma tarefa específica, mesmo quando essa tarefa exige que o robô mude sua morfologia várias vezes. A equipe também construiu um simulador para testar algoritmos de controle para robôs macios deformáveis ​​em uma série de tarefas desafiadoras que mudam de forma.

Seu método completou cada uma das oito tarefas avaliadas, superando outros algoritmos. A técnica funcionou especialmente bem em tarefas multifacetadas. Por exemplo, em um teste, o robô teve que reduzir sua altura enquanto crescia duas pernas minúsculas para se espremer através de um cano estreito e, em seguida, desengordurar essas pernas e estender seu torso para abrir a tampa do cano.

Embora os robôs leves reconfiguráveis ​​ainda estejam em sua infância, tal técnica poderá algum dia permitir robôs de uso geral que possam adaptar suas formas para realizar diversas tarefas.

“Quando as pessoas pensam em robôs macios, elas tendem a pensar em robôs que são elásticos, mas que retornam à sua forma original. Nosso robô é como lodo e pode realmente mudar sua morfologia. É impressionante que nosso método tenha funcionado tão bem porque somos lidando com algo muito novo”, diz Boyuan Chen, estudante de graduação em engenharia elétrica e ciência da computação (EECS) e coautor de um artigo sobre essa abordagem.

Os co-autores de Chen incluem o autor principal Suning Huang, um estudante de graduação na Universidade Tsinghua, na China, que concluiu este trabalho enquanto era estudante visitante no MIT; Huazhe Xu, professor assistente da Universidade Tsinghua; e o autor sênior Vincent Sitzmann, professor assistente de EECS no MIT que lidera o Grupo de Representação de Cena no Laboratório de Ciência da Computação e Inteligência Artificial. A pesquisa será apresentada na Conferência Internacional sobre Representações de Aprendizagem.

Controlando o movimento dinâmico

Os cientistas muitas vezes ensinam robôs a completar tarefas usando uma abordagem de aprendizado de máquina conhecida como aprendizado por reforço, que é um processo de tentativa e erro no qual o robô é recompensado por ações que o aproximam de um objetivo.

Isto pode ser eficaz quando as partes móveis do robô são consistentes e bem definidas, como uma pinça com três dedos. Com uma pinça robótica, um algoritmo de aprendizagem por reforço pode mover ligeiramente um dedo, aprendendo por tentativa e erro se esse movimento lhe vale uma recompensa. Em seguida, passaria para o próximo dedo e assim por diante.

Mas os robôs que mudam de forma, controlados por campos magnéticos, podem comprimir, dobrar ou alongar dinamicamente todo o seu corpo.

“Esse robô poderia ter milhares de pequenos pedaços de músculos para controlar, por isso é muito difícil aprender da maneira tradicional”, diz Chen.

Para resolver este problema, ele e seus colaboradores tiveram que pensar de forma diferente. Em vez de mover cada pequeno músculo individualmente, o algoritmo de aprendizagem por reforço começa aprendendo a controlar grupos de músculos adjacentes que trabalham juntos.

Então, depois de o algoritmo ter explorado o espaço de ações possíveis, concentrando-se em grupos de músculos, ele se aprofunda em detalhes mais sutis para otimizar a política, ou plano de ação, que aprendeu. Desta forma, o algoritmo de controle segue uma metodologia grosseira a fina.

“Grosso para fino significa que quando você realiza uma ação aleatória, essa ação aleatória provavelmente fará diferença. A mudança no resultado é provavelmente muito significativa porque você controla grosseiramente vários músculos ao mesmo tempo”, diz Sitzmann.

Para possibilitar isso, os pesquisadores tratam o espaço de ação de um robô, ou como ele pode se mover em uma determinada área, como uma imagem.

Seu modelo de aprendizado de máquina usa imagens do ambiente do robô para gerar um espaço de ação 2D, que inclui o robô e a área ao seu redor. Eles simulam o movimento do robô usando o que é conhecido como método de ponto material, onde o espaço de ação é coberto por pontos, como pixels de imagem, e sobreposto por uma grade.

Da mesma forma que os pixels próximos em uma imagem estão relacionados (como os pixels que formam uma árvore em uma foto), eles construíram seu algoritmo para entender que pontos de ação próximos têm correlações mais fortes. Os pontos ao redor do “ombro” do robô se moverão de forma semelhante quando ele mudar de forma, enquanto os pontos na “perna” do robô também se moverão de forma semelhante, mas de uma maneira diferente daqueles no “ombro”.

Além disso, os pesquisadores utilizam o mesmo modelo de aprendizado de máquina para observar o ambiente e prever as ações que o robô deve realizar, o que o torna mais eficiente.

Construindo um simulador

Depois de desenvolver essa abordagem, os pesquisadores precisavam de uma forma de testá-la, então criaram um ambiente de simulação chamado DittoGym.

DittoGym apresenta oito tarefas que avaliam a capacidade de um robô reconfigurável de mudar de forma dinamicamente. Em um deles, o robô deve alongar e curvar seu corpo para poder contornar obstáculos para alcançar um ponto alvo. Noutra, deve mudar a sua forma para imitar as letras do alfabeto.

“Nossa seleção de tarefas no DittoGym segue princípios genéricos de design de referência de aprendizagem por reforço e as necessidades específicas de robôs reconfiguráveis. Cada tarefa é projetada para representar certas propriedades que consideramos importantes, como a capacidade de navegar através de explorações de longo horizonte, a capacidade de analisar o ambiente e interagir com objetos externos”, diz Huang. “Acreditamos que juntos eles podem dar aos usuários uma compreensão abrangente da flexibilidade dos robôs reconfiguráveis ​​e da eficácia do nosso esquema de aprendizagem por reforço”.

Seu algoritmo superou os métodos de linha de base e foi a única técnica adequada para completar tarefas de vários estágios que exigiam várias mudanças de forma.

“Temos uma correlação mais forte entre pontos de acção que estão mais próximos uns dos outros e penso que isso é fundamental para que isto funcione tão bem”, diz Chen.

Embora possam demorar muitos anos até que robôs que mudam de forma sejam implantados no mundo real, Chen e seus colaboradores esperam que seu trabalho inspire outros cientistas não apenas a estudar robôs leves reconfiguráveis, mas também a pensar em aproveitar espaços de ação 2D para outros problemas de controle complexos.

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button