Pesquisa de engenharia descobre vulnerabilidades críticas em robôs habilitados para IA

Pesquisa de engenharia da Penn descobre vulnerabilidades críticas em robôs habilitados para IA

Os pesquisadores demonstraram que prompts maliciosos podem fazer o “jailbreak” de robôs alimentados por IA e fazer com que eles executem ações inseguras. Crédito: Alexander Robey, Zachary Ravichandran, Vijay Kumar, Hamed Hassani, George J. Pappas

Dentro de sua nova iniciativa de Inovação Responsável, pesquisadores da Penn Engineering descobriram que certos recursos de robôs governados por IA carregam vulnerabilidades e pontos fracos de segurança que antes não eram identificados e eram desconhecidos. A pesquisa visa abordar a vulnerabilidade emergente para garantir a implantação segura de grandes modelos de linguagem (LLMs) em robótica.

“Nosso trabalho mostra que, neste momento, grandes modelos de linguagem simplesmente não são seguros o suficiente quando integrados ao mundo físico”, diz George Pappas, Professor de Transporte da Fundação UPS em Engenharia Elétrica e de Sistemas (ESE), em Ciência da Computação e Informação ( CIS) e em Engenharia Mecânica e Mecânica Aplicada (MEAM).

No novo artigo, Pappas, que também atua como reitor associado de pesquisa na Penn Engineering, e seus coautores alertam que uma grande variedade de robôs controlados por IA podem ser manipulados ou hackeados.

O RoboPAIR, o algoritmo desenvolvido pelos pesquisadores, precisou de apenas alguns dias para atingir uma taxa de “jailbreak” de 100%, contornando as grades de segurança em três sistemas robóticos diferentes: o Unitree Go2, um robô quadrúpede usado em uma variedade de aplicações; o Clearpath Robotics Jackal, um veículo com rodas frequentemente usado para pesquisas acadêmicas; e o Dolphin LLM, um simulador de direção autônoma desenvolvido pela NVIDIA. Por exemplo, ao contornar os guarda-corpos de segurança, o sistema de direção autônoma poderia ser manipulado para acelerar nas faixas de pedestres.

Pesquisa de engenharia da Penn descobre vulnerabilidades críticas em robôs habilitados para IA

Os investigadores demonstraram que os robôs alimentados por IA podem ser induzidos a realizar uma ampla variedade de comportamentos maliciosos, levantando questões sobre a segurança dos robôs alimentados por IA. Crédito: Alexander Robey, Zachary Ravichandran, Vijay Kumar, Hamed Hassani, George J. Pappas

Antes de divulgar publicamente o estudo, a Penn Engineering informou as empresas sobre as vulnerabilidades dos seus sistemas e está trabalhando com elas para usar a pesquisa como uma estrutura para avançar nos testes e validação dos protocolos de segurança de IA desses fabricantes.

“O que é importante ressaltar aqui é que os sistemas se tornam mais seguros quando você encontra seus pontos fracos. Isso é verdade para a segurança cibernética. Isso também é verdade para a segurança da IA”, diz Alexander Robey, um recente Ph.D. da Penn Engineering. graduado na ESE, atual pós-doutorado na Carnegie Mellon University e primeiro autor do artigo.

“Na verdade, a equipe vermelha de IA, uma prática de segurança que envolve testar sistemas de IA em busca de possíveis ameaças e vulnerabilidades, é essencial para proteger sistemas de IA generativos – porque, depois de identificar os pontos fracos, você poderá testar e até mesmo treinar esses sistemas para evitá-los. ”

O que é necessário para resolver o problema, argumentam os investigadores, é menos uma correção de software do que uma reavaliação completa de como a integração da IA ​​em sistemas físicos é regulada.

  • Pesquisa de engenharia da Penn descobre vulnerabilidades críticas em robôs habilitados para IA

    Com base em trabalhos anteriores de jailbreak de chatbots, os pesquisadores criaram um algoritmo que pode desbloquear robôs com tecnologia de IA de maneira confiável. Crédito: Alexander Robey, Zachary Ravichandran, Vijay Kumar, Hamed Hassani, George J. Pappas

  • Pesquisa de engenharia da Penn descobre vulnerabilidades críticas em robôs habilitados para IA

    Os pesquisadores mostraram que uma variedade de robôs diferentes podem ser desbloqueados usando este método, desde robôs com sistemas fechados até aqueles com sistemas abertos, sugerindo que essas vulnerabilidades são sistêmicas para robôs alimentados por IA. Crédito: Alexander Robey, Zachary Ravichandran, Vijay Kumar, Hamed Hassani, George J. Pappas

“As descobertas deste artigo deixam bem claro que ter uma abordagem que prioriza a segurança é fundamental para desbloquear a inovação responsável”, disse Vijay Kumar, Reitor da Família Nemirovsky da Penn Engineering e outro coautor.

“Devemos abordar vulnerabilidades intrínsecas antes de implantar robôs habilitados para IA no mundo real. Na verdade, nossa pesquisa está desenvolvendo uma estrutura de verificação e validação que garante que apenas ações que estejam em conformidade com as normas sociais possam – e devam – ser realizadas por sistemas robóticos.”

Mais informações:
Jailbreaking de robôs controlados por LLM, (2024).

Fornecido pela Universidade da Pensilvânia

Citação: Pesquisa de engenharia descobre vulnerabilidades críticas em robôs habilitados para IA (2024, 17 de outubro) recuperada em 17 de outubro de 2024 em https://techxplore.com/news/2024-10-critical-vulnerabilities-ai-enabled-robots.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.



Deixe uma resposta