IA ajuda robôs a manipular objetos com o corpo inteiro

IA ajuda robôs a manipular objetos com o corpo inteiro

Nessas figuras, um robô simulado executa três tarefas de manipulação ricas em contato: manipulação manual de uma bola, pegar um prato e manipular uma caneta em uma orientação específica. Crédito: HJ Terry Suh, Lujie Yang, Russ Tedrake e outros

Imagine que você queira carregar uma caixa grande e pesada por um lance de escadas. Você pode abrir os dedos e levantar a caixa com as duas mãos, depois segurá-la sobre os antebraços e equilibrá-la contra o peito, usando todo o corpo para manipular a caixa.

Os humanos geralmente são bons na manipulação de todo o corpo, mas os robôs têm dificuldade em realizar essas tarefas. Para o robô, cada ponto onde a caixa pode tocar qualquer ponto dos dedos, braços e torso do transportador representa um evento de contato sobre o qual ele deve raciocinar. Com bilhões de possíveis eventos de contato, o planejamento dessa tarefa rapidamente se torna intratável.

Agora, os pesquisadores do MIT encontraram uma maneira de simplificar esse processo, conhecido como planejamento de manipulação rico em contatos. Eles usam uma técnica de IA chamada suavização, que resume muitos eventos de contato em um número menor de decisões, para permitir que até mesmo um algoritmo simples identifique rapidamente um plano de manipulação eficaz para o robô.

Embora ainda esteja em seus primórdios, esse método poderia potencialmente permitir que as fábricas usassem robôs móveis menores, capazes de manipular objetos com os braços ou corpos inteiros, em vez de grandes braços robóticos que só conseguem agarrar com a ponta dos dedos. Isso pode ajudar a reduzir o consumo de energia e reduzir custos. Além disso, essa técnica poderia ser útil em robôs enviados em missões de exploração a Marte ou outros corpos do sistema solar, já que poderiam se adaptar rapidamente ao ambiente utilizando apenas um computador de bordo.

“Em vez de pensar nisso como um sistema de caixa preta, se pudermos aproveitar a estrutura desses tipos de sistemas robóticos usando modelos, há uma oportunidade de acelerar todo o procedimento de tentativa de tomar essas decisões e chegar a soluções ricas em contato. planos”, diz HJ Terry Suh, estudante de graduação em engenharia elétrica e ciência da computação (EECS) e coautor principal de um artigo sobre essa técnica.

Juntando-se a Suh no artigo estão o co-autor principal Tao Pang Ph.D. ’23, roboticista do Boston Dynamics AI Institute; Lujie Yang, estudante de pós-graduação do EECS; e o autor sênior Russ Tedrake, Professor Toyota de EECS, Aeronáutica e Astronáutica e Engenharia Mecânica, e membro do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL). A pesquisa aparece esta semana em Transações IEEE em Robótica.






Crédito: Instituto de Tecnologia de Massachusetts

Aprendendo sobre aprender

O aprendizado por reforço é uma técnica de aprendizado de máquina em que um agente, como um robô, aprende a concluir uma tarefa por tentativa e erro, com uma recompensa por se aproximar de uma meta. Os pesquisadores dizem que esse tipo de aprendizagem adota uma abordagem de caixa preta porque o sistema deve aprender tudo sobre o mundo por meio de tentativa e erro.

Tem sido utilizado de forma eficaz para planejamento de manipulação rica em contato, onde o robô busca aprender a melhor maneira de mover um objeto de uma maneira específica.

Mas como podem existir milhares de milhões de pontos de contacto potenciais sobre os quais um robô deve raciocinar ao determinar como usar os dedos, as mãos, os braços e o corpo para interagir com um objeto, esta abordagem de tentativa e erro requer uma grande quantidade de computação.

“A aprendizagem por reforço pode precisar passar milhões de anos em tempo de simulação para realmente ser capaz de aprender uma política”, acrescenta Suh.

Por outro lado, se os investigadores conceberem especificamente um modelo baseado na física, utilizando o seu conhecimento do sistema e da tarefa que pretendem que o robô realize, esse modelo incorpora uma estrutura sobre este mundo que o torna mais eficiente.

No entanto, as abordagens baseadas na física não são tão eficazes como a aprendizagem por reforço quando se trata de planeamento de manipulação rica em contactos – Suh e Pang perguntaram-se porquê.

Eles conduziram uma análise detalhada e descobriram que uma técnica conhecida como suavização permite que o aprendizado por reforço tenha um desempenho tão bom.

Muitas das decisões que um robô poderia tomar ao determinar como manipular um objeto não são importantes no grande esquema das coisas. Por exemplo, cada ajuste infinitesimal de um dedo, quer resulte ou não em contato com o objeto, não importa muito. A suavização das médias elimina muitas dessas decisões intermediárias e sem importância, deixando algumas importantes.

O aprendizado por reforço realiza a suavização implicitamente, tentando muitos pontos de contato e, em seguida, calculando uma média ponderada dos resultados. Com base neste conhecimento, os investigadores do MIT conceberam um modelo simples que executa um tipo semelhante de suavização, permitindo-lhe concentrar-se nas interações centrais do robô-objeto e prever o comportamento a longo prazo. Eles mostraram que esta abordagem poderia ser tão eficaz quanto a aprendizagem por reforço na geração de planos complexos.

“Se você souber um pouco mais sobre o seu problema, poderá projetar algoritmos mais eficientes”, diz Pang.

Uma combinação vencedora

Embora a suavização simplifique bastante as decisões, pesquisar as decisões restantes ainda pode ser um problema difícil. Assim, os pesquisadores combinaram seu modelo com um algoritmo que pode pesquisar de forma rápida e eficiente todas as decisões possíveis que o robô poderia tomar.

Com esta combinação, o tempo de cálculo foi reduzido para cerca de um minuto em um laptop padrão.

Eles primeiro testaram sua abordagem em simulações em que mãos robóticas recebiam tarefas como mover uma caneta para a configuração desejada, abrir uma porta ou pegar um prato. Em cada caso, a sua abordagem baseada em modelos alcançou o mesmo desempenho que a aprendizagem por reforço, mas numa fração do tempo. Eles obtiveram resultados semelhantes quando testaram seu modelo em hardware em braços robóticos reais.

“As mesmas ideias que permitem a manipulação de todo o corpo também funcionam para o planejamento com mãos hábeis e semelhantes às humanas. Anteriormente, a maioria dos pesquisadores dizia que o aprendizado por reforço era a única abordagem que se adaptava a mãos hábeis, mas Terry e Tao mostraram que, ao usar essa chave ideia de suavização (randomizada) do aprendizado por reforço, eles também podem fazer com que métodos de planejamento mais tradicionais funcionem extremamente bem”, diz Tedrake.

No entanto, o modelo que desenvolveram baseia-se numa aproximação mais simples do mundo real, pelo que não consegue lidar com movimentos muito dinâmicos, como a queda de objectos. Embora eficaz para tarefas de manipulação mais lentas, a sua abordagem não pode criar um plano que permita a um robô atirar uma lata para o lixo, por exemplo. No futuro, os investigadores planeiam melhorar a sua técnica para que possa lidar com estes movimentos altamente dinâmicos.

“Se você estudar seus modelos cuidadosamente e realmente entender o problema que está tentando resolver, há definitivamente alguns ganhos que você pode alcançar. Há benefícios em fazer coisas que estão além da caixa preta”, diz Suh.

Mais Informações:
Tao Pang et al, Planejamento Global para Manipulação Rica em Contato via Suavização Local de Modelos de Contato Quase Dinâmicos, Transações IEEE em Robótica (2023). DOI: 10.1109/TRO.2023.3300230

Fornecido pelo Instituto de Tecnologia de Massachusetts

Esta história foi republicada como cortesia do MIT News (web.mit.edu/newsoffice/), um site popular que cobre notícias sobre pesquisa, inovação e ensino do MIT.

Citação: IA ajuda robôs a manipular objetos com o corpo inteiro (2023, 24 de agosto) recuperado em 24 de agosto de 2023 em https://techxplore.com/news/2023-08-ai-robots-bodies.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.



Deixe uma resposta