ChatGPT como terapeuta? Novo estudo alerta para 15 falhas éticas
O uso de ChatGPT e outros chatbots de inteligência artificial para aconselhamento em saúde mental entrou em alerta após um estudo da Brown University, nos Estados Unidos. A pesquisa concluiu que esses sistemas falham em padrões éticos básicos da prática psicológica.
Segundo o estudo, os modelos apresentaram problemas mesmo quando receberam instruções para agir como terapeutas treinados. Os pesquisadores afirmam que os sistemas descumprem diretrizes profissionais adotadas por entidades como a American Psychological Association.
A análise identificou 15 riscos distintos, organizados em cinco grupos. Entre eles estão falta de adaptação ao contexto do usuário, colaboração terapêutica deficiente, empatia enganosa, discriminação e falhas em segurança e gestão de crise.
Os testes incluíram sete conselheiros treinados com experiência em Terapia Cognitiva Comportamental. Eles conduziram sessões simuladas com modelos da série GPT, além de sistemas da Anthropic e da Meta. Depois, três psicólogos clínicos licenciados revisaram as conversas para identificar violações éticas.
O que é 'empatia enganosa'
Um dos pontos centrais do estudo é a chamada empatia enganosa. O termo descreve respostas em que o chatbot usa frases como “eu entendo” ou “eu vejo você”, criando a aparência de acolhimento emocional sem compreensão real da situação.
Na prática, isso significa que a IA pode soar convincente sem ter consciência, responsabilidade clínica ou capacidade de julgamento comparável à de um profissional da saúde. Para os autores, esse efeito pode levar usuários a confiar em respostas que não passaram pelo mesmo controle ético exigido de terapeutas humanos.
Por que os 'prompts' não resolvem o problema
A pesquisa também avaliou se comandos bem formulados, os chamados prompts, poderiam tornar os chatbots mais seguros nesse contexto.
A conclusão foi que esse direcionamento não elimina os riscos. Embora o sistema consiga reproduzir padrões de linguagem associados a abordagens terapêuticas, ele não executa essas técnicas como um profissional.
Segundo a autora principal, Zainab Iftikhar, os modelos apenas geram respostas com base em padrões aprendidos anteriormente.
Entre os pontos mais sensíveis, os pesquisadores destacam as falhas de segurança e gestão de crise. O estudo relata que os sistemas podem se recusar a lidar com temas delicados, deixar de encaminhar o usuário para ajuda adequada ou responder de forma insuficiente a situações de crise, incluindo pensamentos suicidas.
Futuro da IA na saúde mental?
Os autores afirmam que o estudo não defende a exclusão da IA da saúde mental. A avaliação é que essas ferramentas podem ampliar acesso, sobretudo para pessoas que enfrentam custos elevados ou baixa oferta de profissionais licenciados.
O ponto crítico para os pesquisadores é o uso amplo em situações sensíveis e a falta de estruturas regulatórias mais robustas.
Para a professora Ellie Pavlick, da Brown, o trabalho mostra que sistemas usados em áreas críticas exigem avaliação humana rigorosa, e não apenas métricas automáticas.
Nenhum comentário disponível no momento.
Comentários
Deixe seu comentário abaixo: