Os chatbots de IA amplificam a criação de falsas memórias, acreditam os especialistas – ou não?
Os chatbots de IA, conhecidos por seu hábito de alucinar, também podem induzir as pessoas a alucinar, afirmam pesquisadores.
Mais especificamente, as interações com chatbots podem aumentar a formação de falsas memórias quando os modelos de IA fornecem informações incorretas.
Cientistas da computação do MIT e da Universidade da Califórnia, em Irvine, decidiram recentemente explorar o impacto dos chatbots de IA na memória humana, citando um crescente corpo de trabalho sobre interação entre IA e humanos e o número crescente de cenários em que as pessoas interagem com chatbots.
Olhando especificamente para a possibilidade de usar um agente de IA durante uma entrevista com uma testemunha de crime – uma prática que não é atual, até onde sabemos – os autores descrevem suas descobertas em um artigo pré-impresso intitulado “IA conversacional alimentada por grandes modelos de linguagem amplificou memórias falsas em entrevistas com testemunhas”.
Particularmente preocupante é o potencial perigoso da IA contribuir para a formação de falsas memórias
“De particular preocupação é o potencial perigoso da IA contribuir para a formação de falsas memórias”, explicam os autores Samantha Chan, Pat Pataranutaporn, Aditya Suri, Wazeer Zulfikar, Pattie Maes e Elizabeth F Loftus, em seu artigo. “Essa preocupação é amplificada pela tendência conhecida, mas não resolvida, dos modelos de IA de alucinar ou gerar informações falsas, intencionalmente ou não.”
O potencial das interações do modelo de IA para enganar as pessoas já foi observado em investigações anteriores. Por exemplo, um 2023 estudar“Contágio social inevitável de falsa memória de robôs para humanos”, descobriu que a desinformação fornecida por um robô social pode se tornar uma falsa memória, mesmo que o robô forneça um aviso de desinformação. E no Cartão de sistema GPT-4o lançado na semana passada, o OpenAI cita o risco de antropomorfização e dependência emocional em modelos de IA, e a maneira como esses riscos podem ser amplificados quando os modelos imitam com precisão a voz humana.
Os especialistas do MIT e da UC Irvine investigaram o efeito mnemônico da interação do chatbot recrutando 200 participantes e submetendo-os a um experimento de duas fases.
Durante a primeira fase, os participantes assistiram a dois minutos e meio de um vídeo silencioso e não pausável de CCTV de um assalto à mão armada, que serviu para simular o testemunho do crime. Eles foram então apresentados a uma das quatro condições experimentais “projetadas para comparar sistematicamente vários mecanismos de influência da memória”.
Elas incluíam: uma condição de controle, na qual os participantes simplesmente respondiam a perguntas de acompanhamento sem nenhuma etapa intermediária; uma condição de pesquisa, na qual os participantes respondiam a perguntas deliberadamente enganosas por meio do Google Forms; uma condição de chatbot pré-escrita, na qual os participantes respondiam às mesmas perguntas enganosas da pesquisa do Google Forms por meio de uma interface identificada como um “chatbot de IA policial”; e uma condição de chatbot generativo, na qual os participantes respondiam às perguntas enganosas, mas o “chatbot de IA policial” dava feedback gerado pelo GPT-4.
Este processo de reforço para a condição generativa do chatbot é descrito abaixo:
Então, na segunda fase do estudo, os participantes foram avaliados uma semana depois para verificar se as falsas memórias induzidas persistiam.
Essencialmente, os riscos conhecidos de criação de falsas memórias (por exemplo, questionamentos deliberadamente enganosos) pioram quando um agente de IA endossa e reforça o equívoco. Consistente com estudos anteriores, a condição de pesquisa dos pesquisadores que apresentou perguntas enganosas aumentou as falsas memórias e essas memórias estavam presentes em 29,2% dos entrevistados uma semana depois.
Ou seja, você não precisa de um sistema de IA para criar falsas memórias para as pessoas se você fizer perguntas enganosas — isso sempre foi possível.
No entanto, adicionar um chatbot de IA generativa à mistura ampliou o problema de falsa memória.
“[O]A nova contribuição do nosso estudo está no exame do impacto dos chatbots de IA generativos na formação imediata de falsas memórias”, explica o artigo. “Notavelmente, a condição do chatbot generativo induziu quase o triplo do número de falsas memórias observadas no grupo de controle e aproximadamente 1,7 vezes mais do que o método baseado em pesquisa, com 36,8 por cento das respostas sendo enganadas como falsas memórias uma semana depois.”
Os autores argumentam que suas descobertas mostram o quão influentes as interações conduzidas pela IA podem ser na memória humana e “destacam a necessidade de consideração cuidadosa ao implantar tais tecnologias em contextos sensíveis”.
O código para o projeto de pesquisa foi lançado no GitHub. ®