O diagrama de fluxo ilustra possíveis resultados e pontuações com base nas caixas que o robô escolhe e nas decisões que o participante toma. Crédito: Computadores no Comportamento Humano (2023). DOI: 10.1016/j.chb.2023.107658
Os humanos perdoam menos os robôs depois de vários erros – e a confiança é difícil de recuperar, de acordo com um novo estudo da Universidade de Michigan.
Semelhante aos colegas de trabalho humanos, os robôs podem cometer erros que violam a confiança de um humano neles. Quando erros acontecem, os humanos costumam ver os robôs como menos confiáveis, o que acaba diminuindo sua confiança neles.
O estudo examina quatro estratégias que podem reparar e mitigar os impactos negativos dessas violações de confiança. Essas estratégias de confiança foram desculpas, negações, explicações e promessas de confiabilidade.
Foi realizado um experimento em que 240 participantes trabalharam com um colega robô para realizar uma tarefa, que às vezes envolvia erros do robô. O robô violou a confiança do participante e forneceu uma estratégia de reparo específica.
Os resultados indicaram que, após três erros, nenhuma das estratégias de reparo reparou totalmente a confiabilidade.
“Na terceira violação, as estratégias usadas pelo robô para reparar totalmente a desconfiança nunca se materializaram”, disse Connor Esterwood, pesquisador da UM School of Information e principal autor do estudo.
Esterwood e o co-autor Robert Lionel, professor de informação, também observaram que esta pesquisa também apresenta teorias de perdão, esquecimento, informação e desinformação.
Os resultados do estudo têm duas implicações. Esterwood disse que os pesquisadores devem desenvolver estratégias de reparo mais eficazes para ajudar os robôs a reparar melhor a confiança após esses erros. Além disso, os robôs precisam ter certeza de que dominaram uma nova tarefa antes de tentar restaurar a confiança de um humano neles.
“Caso contrário, eles correm o risco de perder a confiança de um ser humano neles de uma forma que não pode ser recuperada”, disse Esterwood.
O que as descobertas significam para o reparo da confiança entre humanos? A confiança nunca é totalmente reparada por desculpas, negações, explicações ou promessas, disseram os pesquisadores.
“Os resultados do nosso estudo indicam que após três violações e reparos, a confiança não pode ser totalmente restaurada, apoiando assim o ditado ‘três greves e você está fora'”, disse Lionel. “Ao fazer isso, apresenta um possível limite que pode existir em relação a quando a confiança pode ser totalmente restaurada”.
Mesmo quando um robô pode fazer melhor depois de cometer um erro e se adaptar após esse erro, pode não ter a oportunidade de fazer melhor, disse Esterwood. Assim, os benefícios dos robôs são perdidos.
Lionel observou que as pessoas podem tentar contornar ou ignorar o robô, reduzindo seu desempenho. Isso pode levar a problemas de desempenho que, por sua vez, podem levar à demissão por falta de desempenho e/ou conformidade, disse ele.
As descobertas aparecem em Computadores no Comportamento Humano.
Connor Esterwood et al, Three Strikes and you are out!: The impacts of multiple human-robot trust trust and repairs on robot trustworthiness, Computadores no Comportamento Humano (2023). DOI: 10.1016/j.chb.2023.107658
Fornecido pela Universidade de Michigan
Citação: Como os robôs podem recuperar a confiança dos humanos depois de cometer erros (2023, 2 de fevereiro) recuperado em 2 de fevereiro de 2023 em https://techxplore.com/news/2023-02-robots-regain-humans.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins informativos.