ChatGPT como terapeuta? Novo estudo alerta para 15 falhas éticas

Por Maria Eduarda Lameza 26 de Abril de 2026 👁️ 0 visualizações 💬 0 comentários
ChatGPT como terapeuta? Novo estudo alerta para 15 falhas éticas

O uso de ChatGPT e outros chatbots de inteligência artificial para aconselhamento em saúde mental entrou em alerta após um estudo da Brown University, nos Estados Unidos. A pesquisa concluiu que esses sistemas falham em padrões éticos básicos da prática psicológica.

Segundo o estudo, os modelos apresentaram problemas mesmo quando receberam instruções para agir como terapeutas treinados. Os pesquisadores afirmam que os sistemas descumprem diretrizes profissionais adotadas por entidades como a American Psychological Association.

A análise identificou 15 riscos distintos, organizados em cinco grupos. Entre eles estão falta de adaptação ao contexto do usuário, colaboração terapêutica deficiente, empatia enganosa, discriminação e falhas em segurança e gestão de crise.

Os testes incluíram sete conselheiros treinados com experiência em Terapia Cognitiva Comportamental. Eles conduziram sessões simuladas com modelos da série GPT, além de sistemas da Anthropic e da Meta. Depois, três psicólogos clínicos licenciados revisaram as conversas para identificar violações éticas.

O que é 'empatia enganosa'

Um dos pontos centrais do estudo é a chamada empatia enganosa. O termo descreve respostas em que o chatbot usa frases como “eu entendo” ou “eu vejo você”, criando a aparência de acolhimento emocional sem compreensão real da situação.

Na prática, isso significa que a IA pode soar convincente sem ter consciência, responsabilidade clínica ou capacidade de julgamento comparável à de um profissional da saúde. Para os autores, esse efeito pode levar usuários a confiar em respostas que não passaram pelo mesmo controle ético exigido de terapeutas humanos.

Por que os 'prompts' não resolvem o problema

A pesquisa também avaliou se comandos bem formulados, os chamados prompts, poderiam tornar os chatbots mais seguros nesse contexto.

A conclusão foi que esse direcionamento não elimina os riscos. Embora o sistema consiga reproduzir padrões de linguagem associados a abordagens terapêuticas, ele não executa essas técnicas como um profissional.

Segundo a autora principal, Zainab Iftikhar, os modelos apenas geram respostas com base em padrões aprendidos anteriormente.

Entre os pontos mais sensíveis, os pesquisadores destacam as falhas de segurança e gestão de crise. O estudo relata que os sistemas podem se recusar a lidar com temas delicados, deixar de encaminhar o usuário para ajuda adequada ou responder de forma insuficiente a situações de crise, incluindo pensamentos suicidas.

Futuro da IA na saúde mental?

Os autores afirmam que o estudo não defende a exclusão da IA da saúde mental. A avaliação é que essas ferramentas podem ampliar acesso, sobretudo para pessoas que enfrentam custos elevados ou baixa oferta de profissionais licenciados.

O ponto crítico para os pesquisadores é o uso amplo em situações sensíveis e a falta de estruturas regulatórias mais robustas.

Para a professora Ellie Pavlick, da Brown, o trabalho mostra que sistemas usados em áreas críticas exigem avaliação humana rigorosa, e não apenas métricas automáticas.

Comentários

Deixe seu comentário abaixo: