Usuários de IA abrem mão do pensamento crítico e aceitam respostas erradas, diz pesquisa

Por Maria Eduarda Cury 6 de Abril de 2026 👁️ 0 visualizações 💬 0 comentários
Usuários de IA abrem mão do pensamento crítico e aceitam respostas erradas, diz pesquisa

Uma pesquisa conduzida por Steven Shaw e Gideon Nave, ambos professores da Escola Wharton da Universidade da Pensilvânia, Estados Unidos, categorizou um comportamento que já rodeava empresas, salas de aula e consultórios: a entrega completa da capacidade pessoal de raciocínio a sistemas de inteligência artificial. Os pesquisadores chamam o fenômeno de "rendição cognitiva" e os resultados foram obtidos após análises com 1.372 participantes em mais de 9.500 testes.

Os grupos foram divididos para participar de diferentes estudos com condições contrastantes para avaliar a persistência. De forma geral, os usuários se mostraram confortáveis com respostas erradas 73,2% das vezes, mostrando preferência pela agilidade em detrimento de busca por mais confirmação.

Os testes foram baseados em reflexão cognitiva, analisando três diferentes sistemas. O 'Sistema 1' diz respeito aos pensamentos intuitivos, o 'Sistema 2' engloba processos deliberativos e o 'Sistema 3' diz respeito a uma uma "cognição artificial que opera fora do cérebro", significando que incrementa pensamentos gerados por processos internos a partir de novas vias cognitivas. Este teria sido criado a partir da popularidade dos modelos de IA, que faz com que o cérebro precise de uma categoria adicional para entender informações obtidas a partir de conversas com chatbots.

Uso de IA ativa "terceiro sistema" do cérebro

O estudo feito a partir de uma IA modificada para errar revelou que a maioria das pessoas está propensa a aceitar conclusões incorretas geradas por chatbots sem qualquer questionamento crítico. "Em diversos estudos, participantes com maior confiança na IA e menor necessidade de cognição e inteligência fluida demonstraram maior submissão ao Sistema 3", reforça o relatório.

Conforme os achados da pesquisa, quando uma IA responde de forma segura e articulada, o cérebro humano interpreta isso como competência e desativa os mecanismos internos utilizados para verificação. Assim, a maioria das pessoas delegam as tarefas do Sistema 3 para uma IA, que se demonstrou capaz de inflar a confiança dos participantes. Uma porcentagem de 93% dos usuários acreditaram de primeira quando uma IA respondeu com confiança.

Para testar a hipótese de persistência por motivação, a equipe também submeteu os participantes a um teste que recompensava financeiramente usuários que corrigissem a IA. Nele, a chance dos usuários corrigirem a IA aumentou 19% em relação ao estudo anterior. Mas as condições também influenciam: enquanto o primeiro grupo trabalhou sem pressão, um segundo foi encarregado da tarefa com um cronômetro que lhes dava 30 segundos para agir, o que diminuiu o engajamento para correção da IA a 12%.

Os pesquisadores reforçaram, porém, que as decisões dos participantes não são "inteiramente irracionais". As partes ativadas do cérebro acabam entendendo que um "sistema estatisticamente superior" pode apresentar conclusões mais confiáveis do que as feitas por humanos, uma vez que se baseia em "configurações probabilísticas, avaliação de riscos ou dados extensos".

Comentários

Deixe seu comentário abaixo: