Terapeutas estão a usar secretamente o ChatGPT e os pacientes estão abalados
Inteligência Artificial

Terapeutas estão a usar secretamente o ChatGPT e os pacientes estão abalados

Profissionais estão a arriscar a confiança e a privacidade dos seus clientes no processo.

De repente, eu estava a vê-lo usar o ChatGPT», diz Declan, 31 anos, que vive em Los Angeles, nos Estados Unidos. «Ele estava a pegar no que eu dizia e a colocar no ChatGPT, e depois a resumir ou a escolher respostas».

Declan ficou tão chocado que não disse nada. Durante o resto da sessão, ficou a observar uma transmissão em tempo real da análise do ChatGPT a espalhar-se pelo ecrã do seu terapeuta. A sessão tornou-se ainda mais surreal quando Declan começou a ecoar o ChatGPT nas suas próprias respostas, antecipando-se ao terapeuta.

«Eu tornei-me o melhor paciente de sempre», diz ele, «porque o ChatGPT começava a dizer: ‘Bem, já considerou que a sua forma de pensar pode ser um pouco a preto e branco?’ E eu pensava, ‘Hum, sabe, acho que a minha forma de pensar pode ser muito a preto e branco’, e [o meu terapeuta] dizia, ‘Exatamente.’ Tenho a certeza de que foi a sessão de sonho dele».

Entre as perguntas que lhe passaram pela cabeça esteve: « Isto é lícito?» Quando abordou o incidente com o terapeuta na sessão seguinte, o terapeuta chorou. «Foi super embaraçoso, como um fim estranho». Explicou que sentiu que tinham chegado a um impasse e começou a procurar respostas noutro lado. «Ainda fui cobrado por essa sessão», diz Declan, a rir.

O boom dos grandes modelos de linguagem (Large Language Models, ou LLMs) nos últimos anos teve ramificações inesperadas para o campo da psicoterapia, sobretudo porque um número crescente de pessoas está a substituir terapeutas humanos por ferramentas como o ChatGPT. O que se discute menos é a forma como alguns terapeutas estão a integrar a Inteligência Artificial na sua prática. Tal como em muitas outras profissões, a IA generativa promete ganhos de eficiência tentadores, mas a sua adoção arrisca comprometer dados sensíveis de pacientes e minar uma relação em que a confiança é fundamental.

Sentimentos suspeitos

Declan não está sozinho, como posso atestar pela minha própria experiência. Quando recebi recentemente um e-mail da minha terapeuta, que parecia mais longo e mais polido do que o habitual, inicialmente senti-me entusiasmada. Transmitia uma mensagem gentil e que validava, e a extensão levou-me a crer que ela dedicara tempo a refletir sobre todos os pontos do meu e-mail (bastante sensível).

No entanto, a uma análise mais atenta, o e-mail dela pareceu-me um pouco estranho. Estava numa fonte diferente e o texto exibia vários «sinais» de IA, incluindo o uso liberal do travessão ao estilo americano (somos ambas do Reino Unido), o estilo impessoal característico e o hábito de abordar cada ponto do e-mail original linha a linha.

Os meus sentimentos positivos dissiparam-se rapidamente, sendo substituídos por desilusão e desconfiança, assim que percebi que o ChatGPT provavelmente tivera intervenção na redação da mensagem, o que a minha terapeuta confirmou quando lhe perguntei.

Apesar da garantia de que simplesmente dita e-mails mais longos usando IA, continuei a sentir incerteza sobre até que ponto era ela, e não o robô, a responsável pelos sentimentos expressos. Também não consegui afastar totalmente a suspeita de que pudesse ter colado o meu e-mail altamente pessoal diretamente no ChatGPT.

Quando procurei na internet para ver se outras pessoas tinham tido experiências semelhantes, encontrei vários exemplos de pessoas a receber o que suspeitavam serem comunicados gerados por IA dos seus terapeutas. Muitos, incluindo o Declan, recorreram ao Reddit para pedir apoio emocional e conselhos.

A Hope, 25 anos, que mora na Costa Leste dos Estados Unidos, enviara uma mensagem privada à sua terapeuta sobre a morte do seu cão. Pouco depois, recebeu uma resposta. A mensagem teria parecido reconfortante e atenciosa, expressando como deve ser difícil «não o ter ao seu lado neste momento», não fosse a referência ao prompt da IA, acidentalmente preservada no topo: «Aqui está uma versão mais humana, sincera, com um tom gentil e conversacional».

A Hope diz que se sentiu «honestamente muito surpreendida e confusa». «Foi uma sensação muito estranha», afirma. «Depois comecei a sentir-me meio traída… Isso afetou definitivamente a minha confiança nela». Foi especialmente problemático, acrescenta, porque «parte do motivo de eu a estar a ver era por causa dos meus problemas de confiança».

A Hope, que acreditava que a sua terapeuta era competente e empática, «nunca teria suspeitado que ela sentisse necessidade de usar IA», diz. A terapeuta pediu desculpa quando confrontada e explicou que, como nunca tivera um animal de estimação, recorreu à IA para a ajudar a expressar o sentimento apropriado.

Um dilema de divulgação

Pode haver algum mérito no argumento de que a IA pode ajudar os terapeutas a comunicarem-se com os seus clientes. Um estudo de 2025, publicado na PLOS Mental Health, pediu a terapeutas que usassem o ChatGPT para responder a vinhetas que descreviam problemas que os pacientes poderiam levantar em terapia. Não só um painel de 830 participantes foi incapaz de distinguir entre as respostas humanas e as de IA, como as respostas da IA foram classificadas como mais alinhadas com as melhores práticas terapêuticas.

No entanto, quando os participantes suspeitavam que as respostas tinham sido escritas pelo ChatGPT, essas respostas eram avaliadas mais negativamente. (Respostas escritas pelo robô mas atribuídas por engano aos terapeutas, receberam as melhores classificações no geral.)

De forma semelhante, investigadores da Universidade de Cornell, nos Estados Unidos, descobriram num estudo de 2023 que mensagens geradas por IA podem aumentar os sentimentos de proximidade e cooperação entre interlocutores, mas apenas se o destinatário permanecer alheio ao papel da IA. A mera suspeita do seu uso bastou para que a boa vontade se esfumasse rapidamente.

«As pessoas valorizam a autenticidade, especialmente na psicoterapia», diz Adrian Aguilera, psicólogo clínico e professor na Universidade da Califórnia, Berkeley. «Acho que [usar IA] pode fazer parecer: ‘Não está a levar a sério a minha relação’. Eu responderia com o ChatGPT à minha mulher ou aos meus filhos? Isso não soaria genuíno».

Em 2023, nos primeiros dias da IA generativa, o serviço de terapia online Koko realizou uma experiência clandestina com os seus utilizadores, misturando respostas geradas pelo GPT-3 com outras redigidas por humanos. Constatou que os utilizadores tendiam a classificar as respostas geradas por IA de forma mais positiva. No entanto, a revelação de que tinham sido alvo de uma experiência sem o saber gerou indignação.

A plataforma de terapia online BetterHelp também foi alvo de acusações de que os seus terapeutas usaram IA para redigir respostas. Numa publicação no Medium, o fotógrafo Brendan Keen afirmou que a sua terapeuta admitiu usar IA nas respostas, o que lhe causou «uma sensação aguda de traição» e uma preocupação persistente, apesar das garantias, de que a sua privacidade de dados tinha sido violada. Terminou a relação terapêutica pouco depois.

Um porta-voz da BetterHelp disse-nos que a empresa «proíbe os terapeutas de divulgarem qualquer informação pessoal ou de saúde de um membro a inteligências artificiais de terceiros, ou de usarem IA para criar mensagens para os membros, sempre que isso possa ter o potencial, direta ou indiretamente, de identificar alguém».

Todos estes exemplos referem-se ao uso não divulgado de IA. Aguilera acredita que terapeutas com falta de tempo podem recorrer aos LLMs, mas que a transparência é essencial. «Precisamos de ser francos e dizer às pessoas: ‘Ei, vou usar esta ferramenta para X, Y e Z’, e fornecer uma justificação», afirma. Assim, as pessoas recebem mensagens geradas por IA com esse enquadramento prévio, em vez de presumirem que o seu terapeuta está «a tentar ser esperto».

Os psicólogos trabalham frequentemente no limite da sua capacidade, e os níveis de esgotamento profissional na profissão são elevados, de acordo com um inquérito realizado em 2023 pela American Psychological Association. Esse contexto torna óbvia a atração por ferramentas suportadas por IA.

Mas a falta de divulgação arrisca prejudicar permanentemente a confiança. A Hope decidiu continuar a ver a sua terapeuta, embora tenha deixado de trabalhar com ela pouco tempo depois, por razões que diz não estarem relacionadas. Mas pensei sempre no Incidente da IA sempre que a via», diz.

Correr o risco de comprometer a privacidade do paciente

Para além da questão da transparência, muitos terapeutas receiam usar LLMs logo à partida, diz Margaret Morris, psicóloga clínica e membro afiliado do corpo docente da Universidade de Washington.

«Acho que estas ferramentas podem ser realmente valiosas para a aprendizagem», diz, sublinhando que os terapeutas devem continuar a desenvolver a sua especialização ao longo da carreira. «Mas penso que precisamos de ter muito cuidado com os dados dos pacientes.” Morris descreve a experiência do Declan como «alarmante».

Os terapeutas precisam estar cientes de que os chatbots de IA de uso geral, como o ChatGPT, não estão aprovados pela agência reguladora, a Administração de Alimentos e Medicamentos (Food and Drug Administration, ou FDA), e não são compatíveis com a HIPAA, diz Pardis Emami-Naeini, professora assistente de ciência da computação na Universidade Duke, que investigou as implicações de privacidade e segurança dos LLMs em contexto de saúde (a HIPAA é um conjunto de regulamentos federais dos EUA que protegem informações sensíveis de saúde).

«Isto cria riscos significativos para a privacidade do paciente se qualquer informação sobre ele for divulgada ou puder ser inferida pela IA», afirma.

Num artigo recente, Emami-Naeini constatou que muitos utilizadores acreditam, de forma errónea, que o ChatGPT é compatível com a HIPAA, criando uma confiança injustificada na ferramenta. «Receio que alguns terapeutas partilhem essa ideia equivocada», diz.

Sendo uma pessoa relativamente aberta, o Declan afirma que não ficou completamente angustiado ao descobrir como a sua terapeuta estava a usar o ChatGPT. «Pessoalmente, não estou a pensar: “Oh, meu Deus, tenho segredos profundos e obscuros”», disse. Mas, ainda assim, sentiu-se violado: «Consigo imaginar que, se eu estivesse suicida, ou a consumir drogas, ou a trair a minha namorada… não gostaria que isso fosse colocado no ChatGPT.»

Ao usar IA para ajudar com e-mails, «não é tão simples quanto remover identificadores óbvios como nomes e moradas», diz Emami-Naeini. «Informações sensíveis podem muitas vezes ser inferidas a partir de detalhes aparentemente não sensíveis.»

Ela acrescenta: «Identificar e reformular todos os dados sensíveis potenciais exige tempo e especialização, o que pode colidir com a conveniência pretendida ao usar ferramentas de IA. Em todos os casos, os terapeutas devem divulgar o uso de IA aos pacientes e obter consentimento.»

Um número crescente de empresas, incluindo a Heidi Health, a Upheal, a Lyssn e a Blueprint, está a comercializar ferramentas especializadas para terapeutas, como serviços assistidos por IA para anotação de registros, formação e transcrição. Estas empresas afirmam ser compatíveis com a HIPAA e armazenar os dados de forma segura, usando encriptação e pseudonimização quando necessário. Mas muitos terapeutas continuam cautelosos quanto às implicações de privacidade, sobretudo quando se trata de serviços que exigem o registo de sessões inteiras.

«Mesmo que as proteções de privacidade sejam aprimoradas, haverá sempre algum risco de fuga de informações ou de utilizações secundárias dos dados», afirma Emami-Naeini.

Um ataque em 2020 a uma empresa finlandesa de saúde mental, que resultou no acesso aos registros de tratamento de dezenas de milhares de clientes, serve de aviso. As pessoas na lista foram alvo de extorsão e, subsequentemente, todo o arquivo foi divulgado publicamente, revelando detalhes extremamente sensíveis, como experiências de abuso infantil e dependência.

O que os terapeutas podem perder

Para além da violação da privacidade dos dados, há outros riscos envolvidos quando psicoterapeutas consultam LLMs em nome de um cliente. Estudos mostraram que, embora as respostas de alguns robôs especializados em terapia possam rivalizar com intervenções feitas por humanos, conselhos de ferramentas como o ChatGPT podem causar mais danos do que benefícios.

Um estudo recente da Universidade de Stanford, nos Estados Unidos, concluiu que os chatbots podem alimentar delírios e traços de psicopatia ao validarem cegamente os utilizadores, em vez de os desafiarem. A investigação também constatou que os robôs podem sofrer de preconceitos e recorrer à lisonja. As mesmas falhas podem tornar arriscado para os terapeutas consultarem chatbots em nome dos seus clientes. A tecnologia poderia, por exemplo, validar sem fundamento uma intuição ou levar o terapeuta pelo caminho errado.

Aguilera diz que tem experimentado ferramentas como o ChatGPT ao ensinar estagiários de saúde mental, por vezes introduzindo sintomas hipotéticos e pedindo ao chatbot de IA que faça um diagnóstico. A ferramenta apresenta muitas condições possíveis, mas a análise é bastante superficial, afirma. A American Counseling Association recomenda que a IA não seja usada para diagnóstico de saúde mental neste momento.

Um estudo publicado em 2024 sobre uma versão anterior do ChatGPT encontrou, de forma semelhante, que era demasiado vago e geral para ser realmente útil no diagnóstico ou na elaboração de planos de tratamento, e que estava fortemente inclinado a recomendar terapia cognitivo-comportamental, em detrimento de outros tipos de terapia que poderiam ser mais adequados.

Daniel Kimmel, psiquiatra e neurocientista da Universidade de Columbia, realizou experiências com o ChatGPT, fazendo-se passar por um cliente com problemas de relacionamento. Diz que descobriu que o chatbot era um bom imitador no que toca a respostas terapêuticas «comuns», como normalizar e validar, pedir informações adicionais ou destacar certas associações cognitivas ou emocionais.

No entanto, «não fez muita investigação», afirma. Não tentou «ligar coisas aparentemente, ou superficialmente, não relacionadas em algo coeso… para criar uma história, uma ideia, uma teoria».

«Eu seria cético em usar isto para pensar por si», diz. Pensar, afirma, deve ser o trabalho dos terapeutas.

Os terapeutas poderiam poupar tempo usando tecnologia suportada por IA, mas esse benefício deve ser ponderado face às necessidades dos pacientes, diz Morris: «Talvez esteja a poupar alguns minutos. Mas do que é que está a abdicar?»

Nossos tópicos