
Um robô observa sua reflexão em um espelho, aprendendo sua própria morfologia e cinemática para a auto-simulação autônoma. O processo destaca a interseção da aprendizagem e da robótica baseadas na visão, onde o robô refina seus movimentos e prevê seu movimento espacial através da auto-observação. Crédito: Jane Nisselson/Columbia Engineering
Ao assistir seus próprios movimentos com uma câmera, os robôs podem se ensinar sobre a estrutura de seus próprios corpos e como eles se movem, revela um novo estudo de pesquisadores da Columbia Engineering. Equipados com esse conhecimento, os robôs não só poderiam planejar suas próprias ações, mas também superar danos aos seus corpos.
Os pesquisadores detalharam suas descobertas no diário Inteligência da máquina da natureza.
“Como os humanos aprendendo a dançar assistindo sua reflexão espelhada, os robôs agora usam vídeo cru para construir a autoconsciência cinemática”, diz o principal autor do estudo, o autor Yuhang Hu, um estudante de doutorado no Creative Machines Lab da Columbia University, dirigido por Hod Lipson, James e Sally Scapa Professor de Inovação e Presidente do Departamento de Engenharia Mecânica.
“Nosso objetivo é um robô que entende seu próprio corpo, se adapta aos danos e aprende novas habilidades sem programação humana constante”.
A maioria dos robôs aprende primeiro a se mover em simulações. Depois que um robô pode se mover nesses ambientes virtuais, ele é lançado no mundo físico, onde pode continuar aprendendo.
“Quanto melhor e mais realista o simulador, mais fácil é para o robô dar o salto da simulação para a realidade”, explica Lipson.
No entanto, a criação de um bom simulador é um processo árduo, geralmente exigindo engenheiros qualificados. Os pesquisadores ensinaram um robô a criar um simulador de si mesmo simplesmente assistindo seu próprio movimento através de uma câmera.
“Essa habilidade não apenas salva o esforço de engenharia, mas também permite que a simulação continue e evolua com o robô, pois sofre desgaste, danos e adaptação”, diz Lipson.
No novo estudo, os pesquisadores desenvolveram uma maneira de os robôs modelarem autonomamente suas próprias formas 3D usando uma única câmera 2D regular. Esse avanço foi impulsionado por três sistemas de IA que imitam o cérebro, conhecidos como redes neurais profundas. Eles inferiram o movimento 3D do vídeo 2D, permitindo que o robô entenda e se adapte a seus próprios movimentos.
O novo sistema também pode identificar alterações nos corpos dos robôs, como uma curva em um braço, e ajudá -los a ajustar seus movimentos para se recuperar desse dano simulado.
Essa adaptabilidade pode ser útil em uma variedade de aplicativos do mundo real. Por exemplo, “imagine um vácuo de robô ou um bot de assistente pessoal que perceba que seu braço está dobrado depois de esbarrar nos móveis”, diz Hu. “Em vez de quebrar ou precisar de reparos, ele se observa, ajusta como se move e continua funcionando. Isso pode tornar os robôs domésticos mais confiáveis - não é necessária reprogramação constante”.
Outro cenário pode envolver um braço de robô sendo derrubado do alinhamento em uma fábrica de carros. “Em vez de interromper a produção, ela pode se observar, ajustar seus movimentos e voltar à soldagem – cortando o tempo de inatividade e os custos”, diz Hu. “Essa adaptabilidade pode tornar a fabricação mais resiliente”.
À medida que entregamos funções mais críticas aos robôs, da fabricação aos cuidados médicos, precisamos que esses robôs sejam mais resilientes. “Nós, humanos, não podemos se dar ao luxo de cuidar constantemente desses robôs, reparar peças quebradas e ajustar o desempenho. Os robôs precisam aprender a cuidar de si mesmos se quiserem se tornar verdadeiramente úteis”, diz Lipson. “É por isso que a auto-modeling é tão importante.”
A habilidade demonstrada neste estudo é a mais recente de uma série de projetos que a equipe de Columbia lançou nas últimas duas décadas, onde os robôs estão aprendendo a se tornar melhor na auto-modeling usando câmeras e outros sensores.
Em 2006, os robôs da equipe de pesquisa foram capazes de usar observações para criar apenas simulações simples semelhantes a figuras. Cerca de uma década atrás, os robôs começaram a criar modelos de fidelidade mais altos usando várias câmeras.
Neste estudo, o robô conseguiu criar um modelo cinemático abrangente de si mesmo usando apenas um pequeno videoclipe de uma única câmera comum, semelhante a olhar no espelho. Os pesquisadores chamam essa nova habilidade de “autoconsciência cinemática”.
“Nós, humanos, estamos intuitivamente conscientes de nosso corpo; podemos nos imaginar no futuro e visualizar as consequências de nossas ações bem antes de executarmos essas ações na realidade”, explica Lipson.
“Por fim, gostaríamos de imbuir robôs com uma capacidade semelhante de se imaginar, porque uma vez que você possa se imaginar no futuro, não há limite para o que você pode fazer”.
Yuhang Hu et al, ensinando robôs para construir simulações de si mesmas, Inteligência da máquina da natureza (2025). Doi: 10.1038/s42256-025-01006-W
Fornecido pela Columbia University School of Engineering and Applied Science
Citação: Os robôs aprendem a se mover assistindo a si mesmos (2025, 25 de fevereiro) recuperado em 25 de fevereiro de 2025 de https://techxplore.com/news/2025-02-robots.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa particular, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.