Em um cruzeiro de pesquisa pelo Havaí em 2018, Yuening Zhang SM ’19, Ph.D. ’24 viu o quão difícil era manter um navio firme. A coordenação cuidadosa necessária para mapear o terreno subaquático às vezes poderia levar a um ambiente estressante para os membros da equipe, que poderiam ter diferentes entendimentos sobre quais tarefas devem ser concluídas em condições de mudança espontânea.
Durante essas viagens, Zhang considerou como um companheiro robótico poderia ter ajudado ela e seus companheiros de tripulação a atingir seus objetivos com mais eficiência.
Seis anos depois, como assistente de pesquisa no Laboratório de Ciência da Computação e Inteligência Artificial do MIT (CSAIL), Zhang desenvolveu o que poderia ser considerado uma peça que faltava: um assistente de IA que se comunica com os membros da equipe para alinhar funções e atingir um objetivo comum.
Em um artigo apresentado na Conferência Internacional sobre Robótica e Automação (ICRA 2024) e publicado no Conferência Internacional IEEE 2024 sobre Robótica e Automação (ICRA) em 8 de agosto, ela e seus colegas apresentam um sistema que pode supervisionar uma equipe de agentes humanos e de IA, intervindo quando necessário para aumentar potencialmente a eficácia do trabalho em equipe em domínios como missões de busca e resgate, procedimentos médicos e videogames de estratégia.
O grupo liderado pelo CSAIL desenvolveu um modelo de teoria da mente para agentes de IA, que representa como os humanos pensam e entendem o possível plano de ação uns dos outros quando cooperam em uma tarefa.
Ao observar as ações de seus colegas agentes, esse novo coordenador de equipe pode inferir seus planos e seu entendimento um do outro a partir de um conjunto anterior de crenças. Quando seus planos são incompatíveis, o ajudante de IA intervém alinhando suas crenças um sobre o outro, instruindo suas ações, bem como fazendo perguntas quando necessário.
Por exemplo, quando uma equipe de socorristas está em campo para fazer a triagem de vítimas, eles devem tomar decisões com base em suas crenças sobre os papéis e o progresso uns dos outros. Esse tipo de planejamento epistêmico poderia ser melhorado pelo software do CSAIL, que pode enviar mensagens sobre o que cada agente pretende fazer ou fez para garantir a conclusão da tarefa e evitar esforços duplicados.
Nesse caso, o auxiliar de IA pode intervir para comunicar que um agente já foi para uma determinada sala ou que nenhum dos agentes está cobrindo uma determinada área com possíveis vítimas.
“Nosso trabalho leva em conta o sentimento de que ‘Eu acredito que você acredita no que outra pessoa acredita'”, diz Zhang, que agora é um cientista pesquisador na Mobi Systems. “Imagine que você está trabalhando em uma equipe e se pergunta: ‘O que exatamente essa pessoa está fazendo? O que eu vou fazer? Ela sabe o que estou prestes a fazer?’ Nós modelamos como diferentes membros da equipe entendem o plano abrangente e comunicamos o que eles precisam realizar para ajudar a completar a meta geral de sua equipe.”
IA para o resgate
Mesmo com um plano sofisticado, tanto agentes humanos quanto robóticos encontrarão confusão e até cometerão erros se seus papéis não forem claros. Essa situação é especialmente grande em missões de busca e resgate, onde o objetivo pode ser localizar alguém em perigo, apesar do tempo limitado e de uma vasta área para escanear.
Felizmente, a tecnologia de comunicação aumentada com o novo assistente robótico poderia potencialmente notificar os grupos de busca sobre o que cada grupo está fazendo e onde estão procurando. Por sua vez, os agentes poderiam navegar em seu terreno de forma mais eficiente.
Esse tipo de organização de tarefas pode ajudar em outros cenários de alto risco, como cirurgias. Nesses casos, a enfermeira primeiro precisa levar o paciente para a sala de cirurgia, então o anestesista coloca o paciente para dormir antes que os cirurgiões comecem a operação.
Durante toda a operação, a equipe deve monitorar continuamente a condição do paciente enquanto responde dinamicamente às ações de cada colega. Para garantir que cada atividade dentro do procedimento permaneça bem organizada, o coordenador da equipe de IA pode supervisionar e intervir se surgir confusão sobre qualquer uma dessas tarefas.
O trabalho em equipe eficaz também é essencial para videogames como “Valorant”, onde os jogadores coordenam colaborativamente quem precisa atacar e defender contra outro time online. Nesses cenários, um assistente de IA pode aparecer na tela para alertar usuários individuais sobre onde eles interpretaram mal quais tarefas precisam concluir.
Antes de liderar o desenvolvimento deste modelo, Zhang projetou o EPike, um modelo computacional que pode atuar como um membro da equipe. Em um programa de simulação 3D, este algoritmo controlava um agente robótico que precisava combinar um recipiente com a bebida escolhida pelo humano. Por mais racionais e sofisticados que sejam, surgem casos em que esses bots simulados por IA são limitados por seus equívocos sobre seus parceiros humanos ou a tarefa.
O novo coordenador de IA pode corrigir as crenças dos agentes quando necessário para resolver problemas potenciais, e ele interveio consistentemente nesta instância. O sistema enviou mensagens ao robô sobre as verdadeiras intenções do humano para garantir que ele correspondesse ao contêiner corretamente.
“Em nosso trabalho de colaboração entre humanos e robôs, ficamos honrados e inspirados ao longo dos anos pela fluidez dos parceiros humanos”, diz Brian C. Williams, professor de aeronáutica e astronáutica do MIT, membro do CSAIL e autor sênior do estudo.
“Basta olhar para um jovem casal com filhos, que trabalham juntos para levar o café da manhã para as crianças e levá-las para a escola. Se um dos pais vê seu parceiro servindo café da manhã e ainda de roupão, o pai sabe que deve tomar banho rápido e levar as crianças para a escola, sem precisar dizer uma palavra. Bons parceiros estão bem sintonizados com as crenças e objetivos um do outro, e nosso trabalho em planejamento epistêmico se esforça para capturar esse estilo de raciocínio.”
O método dos pesquisadores incorpora raciocínio probabilístico com modelagem mental recursiva dos agentes, permitindo que o assistente de IA tome decisões limitadas por risco. Além disso, eles se concentraram em modelar a compreensão dos agentes sobre planos e ações, o que poderia complementar o trabalho anterior sobre modelagem de crenças sobre o mundo ou ambiente atual.
O assistente de IA atualmente infere as crenças dos agentes com base em um conjunto anterior de crenças possíveis, mas o grupo do MIT prevê aplicar técnicas de aprendizado de máquina para gerar novas hipóteses rapidamente. Para aplicar essa contrapartida a tarefas da vida real, eles também pretendem considerar representações de planos mais ricas em seu trabalho e reduzir ainda mais os custos de computação.
Yuening Zhang et al, Intervenções de equipe on-line limitadas ao risco por meio da teoria da mente, Conferência Internacional IEEE 2024 sobre Robótica e Automação (ICRA) (2024). DOI: 10.1109/ICRA57147.2024.10609865
Fornecido pelo Instituto de Tecnologia de Massachusetts
Citação: Assistente de IA monitora trabalho em equipe para promover colaboração eficaz (2024, 20 de agosto) recuperado em 21 de agosto de 2024 de https://techxplore.com/news/2024-08-ai-teamwork-effective-collaboration.html
Este documento está sujeito a direitos autorais. Além de qualquer uso justo para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.