Um novo estudo da Universidade de Michigan sobre como humanos e robôs trabalham juntos em tarefas com objetivos conflitantes é o primeiro a demonstrar que a confiança e o desempenho da equipe melhoram quando o robô se adapta ativamente à estratégia do humano.
Objetivos conflitantes envolvem compensações como velocidade versus precisão. O alinhamento com a estratégia humana foi mais eficaz para construir confiança quando o robô não tinha conhecimento prévio das preferências humanas.
O estudo foi apresentado em 12 de março na Conferência de Interação Humano-Robô em Boulder, Colorado. Está disponível no arXiv servidor de pré-impressão.
O algoritmo desenvolvido pelos pesquisadores pode se estender a qualquer cenário de interação humano-robô que envolva objetivos conflitantes. Por exemplo, um robô de reabilitação deve equilibrar a tolerância à dor de um paciente com objetivos de saúde a longo prazo ao atribuir o nível apropriado de exercício.
“Ao navegar por objetivos conflitantes, todos têm uma abordagem diferente para atingir as metas”, disse Xi Jessie Yang, professor associado de engenharia industrial e de operações e último autor do artigo.
Alguns pacientes podem querer recuperar rapidamente, aumentando a intensidade à custa de níveis mais elevados de dor, enquanto outros querem minimizar a dor à custa de um tempo de recuperação mais lento.
Se o robô não souber antecipadamente a preferência do paciente quanto à estratégia de recuperação, usando esse algoritmo, o robô poderá aprender e ajustar as recomendações de exercícios para equilibrar esses dois objetivos.
Esta pesquisa faz parte de um trabalho mais amplo que visa transformar os robôs de uma simples ferramenta para uma tarefa isolada em um parceiro colaborativo, através da construção de confiança.
Pesquisas anteriores se concentraram em projetar robôs para exibir comportamentos confiáveis, como explicar o raciocínio para uma ação. Recentemente, o foco mudou para o alinhamento dos objetivos dos robôs com os objetivos humanos, mas os pesquisadores não testaram como o alinhamento dos objetivos impacta os resultados.
“Nosso estudo é a primeira tentativa de examinar se o alinhamento de valores, ou a preferência de um agente para alcançar objetivos conflitantes, entre humanos e robôs pode beneficiar a confiança e o desempenho da equipe humano-robô”, disse Yang.
Para testar isso, os participantes do estudo foram convidados a completar um cenário semelhante a um videogame, onde uma equipe humano-robô deve gerenciar objetivos conflitantes de terminar uma missão de busca o mais rápido possível, mantendo o nível de saúde de um soldado.
O participante assume o personagem de um soldado que se desloca por uma área de conflito. Um robô aéreo avalia o nível de perigo dentro de um edifício e, em seguida, recomenda se o humano deve implantar um robô de escudo ao entrar. Usar o escudo mantém um alto nível de saúde ao custo de levar mais tempo para ser implantado.
O participante aceita ou rejeita a recomendação do robô e, em seguida, fornece feedback sobre seu nível de confiança no sistema de recomendação, variando de zero a confiança total.
Os experimentadores testaram três estratégias de interação do robô:
- Não-aprendizado: o robô presume que a estratégia do humano reflete sua própria estratégia pré-programada
- Aluno não adaptativo: o robô aprende a estratégia humana para estimativa de confiança e modelagem de comportamento humano, mas ainda otimiza sua própria estratégia
- Aprendiz adaptativo: o robô aprende a estratégia do humano e a adota como sua
Eles realizaram dois experimentos, um em que o robô tinha informações prévias bem informadas sobre as preferências estratégicas do ser humano e outro em que começou do zero.
A aprendizagem adaptativa do robô melhorou a equipe humano-robô quando o robô começou do zero, mas não quando o robô tinha informações prévias, deixando pouco espaço para melhorar sua estratégia.
“Os benefícios manifestam-se em muitas dimensões, incluindo maior confiança e dependência do robô, redução da carga de trabalho e maior desempenho percebido”, disse Shreyas Bhat, estudante de doutorado em engenharia industrial e de operações e primeiro autor do artigo.
Neste cenário, as preferências do ser humano não mudam com o tempo. No entanto, a estratégia pode mudar com base nas circunstâncias. Se sobrar muito pouco tempo, uma mudança para aumentar o comportamento de risco pode economizar tempo para ajudar a completar a missão.
“Como próximo passo, queremos remover do algoritmo a suposição de que as preferências permanecem as mesmas”, disse Bhat.
À medida que os robôs se tornam mais integrados em tarefas objectivas contraditórias em domínios como os cuidados de saúde, a indústria transformadora, a segurança nacional, a educação e a assistência ao domicílio, continuar a avaliar e melhorar a confiança fortalecerá as parcerias entre humanos e robôs.
Mais Informações:
Shreyas Bhat et al, Avaliando o impacto do alinhamento de valores personalizados na interação humano-robô: insights sobre confiança e resultados de desempenho da equipe, arXiv (2023). DOI: 10.48550/arxiv.2311.16051
Fornecido pela Faculdade de Engenharia da Universidade de Michigan
Citação: Construindo confiança entre humanos e robôs ao gerenciar objetivos conflitantes (2024, 13 de março) recuperado em 13 de março de 2024 em https://techxplore.com/news/2024-03-humans-robots-conflicting.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.