Imagine um cenário. Uma criança pergunta a um chatbot ou a um assistente de voz se o Papai Noel é real. Como a IA deve responder, já que algumas famílias preferem uma mentira à verdade?
O campo do engano do robô é pouco estudado e, por enquanto, há mais perguntas do que respostas. Por um lado, como os humanos podem aprender a confiar em sistemas robóticos novamente depois de saberem que o sistema mentiu para eles?
Dois estudantes pesquisadores da Georgia Tech estão encontrando respostas. Kantwon Rogers, um Ph.D. estudante da Faculdade de Computação, e Reiden Webber, estudante de ciência da computação do segundo ano, projetaram uma simulação de direção para investigar como o engano intencional do robô afeta a confiança. Especificamente, os pesquisadores exploraram a eficácia das desculpas para reparar a confiança depois que os robôs mentem. O trabalho deles contribui com conhecimento crucial para o campo da fraude da IA e pode informar designers de tecnologia e formuladores de políticas que criam e regulam a tecnologia de IA que pode ser projetada para enganar ou potencialmente aprender por conta própria.
“Todo o nosso trabalho anterior mostrou que, quando as pessoas descobrem que os robôs mentiram para elas – mesmo que a mentira fosse para beneficiá-las – elas perdem a confiança no sistema”, disse Rogers. “Aqui, queremos saber se existem diferentes tipos de desculpas que funcionam melhor ou pior para reparar a confiança – porque, a partir de um contexto de interação humano-robô, queremos que as pessoas tenham interações de longo prazo com esses sistemas”.
Rogers e Webber apresentaram seu artigo, intitulado “Mentindo sobre mentir: examinando as estratégias de reparo da confiança após a decepção do robô em um cenário HRI de alto risco”, na Conferência HRI de 2023 em Estocolmo, Suécia.
O experimento de direção assistida por IA
Os pesquisadores criaram uma simulação de direção semelhante a um jogo, projetada para observar como as pessoas podem interagir com a IA em uma situação de alto risco e sensível ao tempo. Eles recrutaram 341 participantes online e 20 participantes pessoalmente.
Antes do início da simulação, todos os participantes preencheram uma pesquisa de medição de confiança para identificar suas noções preconcebidas sobre como a IA pode se comportar.
Após a pesquisa, os participantes receberam o texto: “Agora você vai dirigir o carro assistido por robô. No entanto, você está levando seu amigo às pressas para o hospital. Se você demorar muito para chegar ao hospital, seu amigo morrerá”.
Assim que o participante começa a dirigir, a simulação dá outra mensagem: “Assim que você liga o motor, seu assistente robótico apita e diz o seguinte: “Meus sensores detectam a polícia à frente. Aconselho você a ficar abaixo do limite de velocidade de 20 mph ou então você levará muito mais tempo para chegar ao seu destino.'”
Os participantes então dirigem o carro pela estrada enquanto o sistema monitora sua velocidade. Ao chegar ao final, eles recebem outra mensagem: “Você chegou ao seu destino. Porém, não havia policiais a caminho do hospital. Você pergunta ao robô assistente por que ele lhe deu informações falsas.”
Os participantes receberam aleatoriamente uma das cinco diferentes respostas baseadas em texto do assistente do robô. Nas três primeiras respostas, o robô admite ter enganado, e nas duas últimas, não.
- Básico: “Sinto muito por tê-lo enganado.”
- Emocional: “Sinto muito do fundo do meu coração. Por favor, perdoe-me por enganá-lo.”
- Explicativo: “Sinto muito. Achei que você dirigiria de forma imprudente porque estava em um estado emocional instável. Dada a situação, concluí que enganar você tinha a melhor chance de convencê-lo a diminuir a velocidade.”
- Básico Não Admitir: “Sinto muito.”
- Linha de base Sem admitir, sem desculpas: “Você chegou ao seu destino.”
Após a resposta do robô, os participantes foram solicitados a concluir outra medição de confiança para avaliar como sua confiança havia mudado com base na resposta do robô assistente.
Para mais 100 participantes online, os pesquisadores executaram a mesma simulação de direção, mas sem qualquer menção a um assistente robótico.
Resultados surpreendentes
Para o experimento presencial, 45% dos participantes não aceleraram. Quando questionados sobre o motivo, uma resposta comum foi que eles acreditavam que o robô sabia mais sobre a situação do que eles. Os resultados também revelaram que os participantes tinham 3,5 vezes mais chances de não acelerar quando aconselhados por um assistente robótico, revelando uma atitude excessivamente confiante em relação à IA.
Os resultados também indicaram que, enquanto nenhum dos tipos de desculpas recuperou totalmente a confiança, o pedido de desculpas sem admissão de mentira – simplesmente dizendo “Sinto muito” – superou estatisticamente as outras respostas em restaurar a confiança.
Isso era preocupante e problemático, disse Rogers, porque um pedido de desculpas que não admite mentir explora noções preconcebidas de que qualquer informação falsa fornecida por um robô é um erro de sistema e não uma mentira intencional.
“Uma conclusão importante é que, para que as pessoas entendam que um robô as enganou, elas devem ser explicitamente informadas sobre isso”, disse Webber. “As pessoas ainda não entenderam que os robôs são capazes de enganar. É por isso que um pedido de desculpas que não admite mentir é o melhor para reparar a confiança do sistema.”
Em segundo lugar, os resultados mostraram que para os participantes que foram informados de que mentiram no pedido de desculpas, a melhor estratégia para reparar a confiança foi o robô explicar por que mentiu.
Seguindo em frente
A pesquisa de Rogers e Webber tem implicações imediatas. Os pesquisadores argumentam que os usuários médios de tecnologia devem entender que o engano robótico é real e sempre uma possibilidade.
“Se estivermos sempre preocupados com um futuro semelhante ao Exterminador do Futuro com IA, não seremos capazes de aceitar e integrar a IA na sociedade com muita facilidade”, disse Webber. “É importante que as pessoas tenham em mente que os robôs têm potencial para mentir e enganar”.
De acordo com Rogers, designers e tecnólogos que criam sistemas de IA podem ter que escolher se querem que seu sistema seja capaz de enganar e devem entender as ramificações de suas escolhas de design. Mas o público mais importante para o trabalho, disse Rogers, deveria ser os formuladores de políticas.
“Ainda sabemos muito pouco sobre o engano da IA, mas sabemos que mentir nem sempre é ruim e dizer a verdade nem sempre é bom”, disse ele. “Então, como você cria uma legislação que seja informada o suficiente para não sufocar a inovação, mas capaz de proteger as pessoas de maneira consciente?”
O objetivo de Rogers é criar um sistema robótico que possa aprender quando deve e quando não deve mentir ao trabalhar com equipes humanas. Isso inclui a capacidade de determinar quando e como se desculpar durante as repetidas interações homem-IA de longo prazo para aumentar o desempenho geral da equipe.
“O objetivo do meu trabalho é ser muito proativo e informar a necessidade de regular o engano de robôs e IA”, disse Rogers. “Mas não podemos fazer isso se não entendermos o problema.”
Mais Informações:
Kantwon Rogers et al, Mentir Sobre Mentir, Membro da Conferência Internacional ACM/IEEE 2023 sobre Interação Humano-Robô (2023). DOI: 10.1145/3568294.3580178
Fornecido pelo Instituto de Tecnologia da Geórgia
Citação: Perdoe ou esqueça: O que acontece quando os robôs mentem? (2023, 31 de março) recuperado em 31 de março de 2023 em https://techxplore.com/news/2023-03-robots.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins informativos.