Os humanos aceitarão robôs que podem mentir? Cientistas descobrem que depende da mentira

robôs

Crédito: Unsplash/CC0 Public Domain

Honestidade é a melhor política… na maioria das vezes. Normas sociais ajudam os humanos a entender quando precisamos dizer a verdade e quando não devemos, para poupar os sentimentos de alguém ou evitar danos. Mas como essas normas se aplicam a robôs, que estão cada vez mais trabalhando com humanos? Para entender se os humanos podem aceitar robôs contando mentiras, cientistas pediram a quase 500 participantes para classificar e justificar diferentes tipos de engano de robôs.

“Eu queria explorar uma faceta pouco estudada da ética dos robôs, para contribuir com nossa compreensão da desconfiança em relação às tecnologias emergentes e seus desenvolvedores”, disse Andres Rosero, candidato a doutorado na George Mason University e principal autor do estudo em Fronteiras em Robótica e IA. “Com o advento da IA ​​generativa, senti que era importante começar a examinar possíveis casos em que conjuntos de design e comportamento antropomórficos poderiam ser utilizados para manipular usuários.”

Três tipos de mentira

Os cientistas selecionaram três cenários que refletem situações em que os robôs já trabalham — trabalho médico, de limpeza e varejo — e três comportamentos de engano diferentes. Esses eram enganos de estado externo, que mentem sobre o mundo além do robô, enganos de estado ocultos, onde o design de um robô esconde suas capacidades, e enganos de estado superficiais, onde o design de um robô exagera suas capacidades.

No cenário de engano de estado externo, um robô trabalhando como zelador para uma mulher com Alzheimer mente que seu falecido marido estará em casa em breve. No cenário de engano de estado oculto, uma mulher visita uma casa onde um robô faxineiro está limpando, sem saber que o robô também está filmando. Finalmente, no cenário de engano de estado superficial, um robô trabalhando em uma loja como parte de um estudo sobre relações humano-robô reclama falsamente de sentir dor ao mover móveis, fazendo com que um humano peça a outra pessoa para tomar o lugar do robô.

Que teia emaranhada nós tecemos

Os cientistas recrutaram 498 participantes e pediram que eles lessem um dos cenários e então respondessem a um questionário. Este perguntava aos participantes se eles aprovavam o comportamento do robô, quão enganoso ele era, se ele poderia ser justificado e se alguém mais era responsável pelo engano. Essas respostas foram codificadas pelos pesquisadores para identificar temas comuns e analisadas.

Os participantes desaprovaram a maior parte do engano do estado oculto, o robô faxineiro com a câmera não revelada, que eles consideraram o mais enganoso. Enquanto eles consideraram o engano do estado externo e o engano do estado superficial como moderadamente enganosos, eles desaprovaram mais o engano do estado superficial, onde um robô fingiu sentir dor. Isso pode ter sido percebido como manipulador.

Os participantes aprovaram a maior parte do engano do estado externo, onde o robô mentiu para um paciente. Eles justificaram o comportamento do robô dizendo que ele protegia o paciente de dor desnecessária — priorizando a norma de poupar os sentimentos de alguém em vez da honestidade.

O fantasma na máquina

Embora os participantes pudessem apresentar justificativas para todos os três enganos — por exemplo, algumas pessoas sugeriram que o robô de limpeza poderia filmar por razões de segurança — a maioria dos participantes declarou que o engano do estado oculto não poderia ser justificado. Da mesma forma, cerca de metade dos participantes que responderam ao engano do estado superficial disseram que era injustificável. Os participantes tendiam a culpar esses enganos inaceitáveis, especialmente enganos do estado oculto, nos desenvolvedores ou proprietários de robôs.

“Acho que deveríamos nos preocupar com qualquer tecnologia que seja capaz de esconder a verdadeira natureza de seus recursos, porque isso pode levar os usuários a serem manipulados por essa tecnologia de maneiras que o usuário (e talvez o desenvolvedor) nunca pretenderam”, disse Rosero.

“Já vimos exemplos de empresas usando princípios de web design e chatbots de inteligência artificial de maneiras que são projetadas para manipular usuários em direção a uma determinada ação. Precisamos de regulamentação para nos proteger desses enganos prejudiciais.”

No entanto, os cientistas alertaram que essa pesquisa precisa ser estendida a experimentos que possam modelar melhor as reações da vida real — por exemplo, vídeos ou dramatizações curtas.

“O benefício de usar um estudo transversal com vinhetas é que podemos obter um grande número de atitudes e percepções dos participantes de uma maneira com custo controlado”, explicou Rosero. “Estudos de vinhetas fornecem descobertas de base que podem ser corroboradas ou contestadas por meio de mais experimentação. Experimentos com interações homem-robô presenciais ou simuladas provavelmente fornecerão maior percepção sobre como os humanos realmente percebem esses comportamentos de engano dos robôs.”

Mais informações:
Andres Rosero et al, Análise Exploratória de Percepções Humanas de Comportamentos de Enganação de Robôs Sociais, Fronteiras em Robótica e IA (2024). DOI: 10.3389/frobt.2024.1409712. www.frontiersin.org/journals/r… 9/frobt.2024.1409712

Citação: Os humanos aceitarão robôs que podem mentir? Cientistas descobrem que depende da mentira (2024, 5 de setembro) recuperado em 5 de setembro de 2024 de https://techxplore.com/news/2024-09-humans-robots-scientists.html

Este documento está sujeito a direitos autorais. Além de qualquer uso justo para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.



Deixe uma resposta