O primeiro teste clínico de terapia com IA generativa indica que ela pode ajudar na depressão
Inteligência Artificial

O primeiro teste clínico de terapia com IA generativa indica que ela pode ajudar na depressão

O modelo baseado em evidências apresentou resultados impressionantes, mas isso não valida a vaga de bots terapêuticos com IA que estão a invadir o mercado.

O primeiro ensaio clínico de um bot de terapia que utiliza IA generativa sugere que ele foi tão eficaz quanto a terapia humana para participantes com depressão, ansiedade ou risco de desenvolver distúrbios alimentares. Ainda assim, isso não representa uma validação para as dezenas de empresas que promovem esse tipo de tecnologia enquanto operam numa zona cinzenta do ponto de vista regulatório.

Uma equipa liderada por investigadores em psiquiatria e psicologia da Geisel School of Medicine, no Dartmouth College, desenvolveu a ferramenta, chamada Therabot, e os resultados foram publicados a 27 de março na NEJM AI, uma revista do New England Journal of Medicine. Muitas empresas tecnológicas têm criado ferramentas de IA voltadas para a terapia, prometendo que as pessoas podem conversar com um bot com mais frequência e a um custo inferior ao de um terapeuta humano — e que essa abordagem seria segura e eficaz.

Muitos psicólogos e psiquiatras partilham dessa visão, observando que menos de metade das pessoas com algum transtorno mental recebe terapia, e que as que recebem geralmente têm apenas 45 minutos por semana. Investigadores têm procurado desenvolver tecnologias que possibilitem o acesso à terapia a um número maior de pessoas, mas enfrentam dois grandes desafios.

O primeiro é que um bot terapêutico que diga algo inadequado pode causar danos reais. Por isso, muitos investigadores construíram bots com respostas pré-programadas: o software recorre a um banco limitado de frases previamente aprovadas (como no caso do Eliza, um programa de computador que simulava um psicoterapeuta, desenvolvido nos anos 1960). No entanto, isso torna as conversas menos envolventes e leva as pessoas a perderem o interesse.

O segundo problema é que as características de uma boa relação terapêutica — como objectivos partilhados e colaboração — são difíceis de replicar num software.

Em 2019, à medida que os primeiros modelos de linguagem de grande escala, como o GPT da OpenAI, começavam a surgir, os investigadores de Dartmouth acreditaram que a IA generativa poderia ajudar a ultrapassar esses obstáculos. Decidiram então construir um modelo de IA treinado para oferecer respostas baseadas em evidência científica. Inicialmente, tentaram construí-lo com base em conversas gerais sobre saúde mental retiradas de fóruns online. Posteriormente, recorreram a milhares de horas de transcrições de sessões reais com psicoterapeutas.

“Obtivemos muitos ‘uh-huhs’, ‘continue’ e depois ‘Os seus problemas vêm da sua relação com a sua mãe’”, disse Nick Jacobson, professor associado de ciência de dados biomédicos e psiquiatria em Dartmouth e autor sénior do estudo, numa entrevista. “Eram realmente clichés do que se imagina que seja a psicoterapia, em vez daquilo que realmente queremos.”

Insatisfeitos, começaram a montar os seus próprios conjuntos de dados personalizados com base em práticas sustentadas por evidência científica, que acabaram por ser incorporados no modelo. Muitos bots de terapia com IA disponíveis no mercado, em contraste, podem ser apenas variações mínimas de modelos base como o LLaMA, da Meta, treinados principalmente com conversas extraídas da internet. Isso representa um problema, especialmente em temas delicados como distúrbios alimentares.

“Se disser que quer perder peso”, afirma Jacobson, “eles vão apoiá-lo de imediato, mesmo que, muitas vezes, já tenha um peso baixo para começar”. Um terapeuta humano não faria isso.

Para testar o bot, os investigadores realizaram um ensaio clínico de oito semanas com 210 participantes que apresentavam sintomas de depressão ou transtorno de ansiedade generalizada, ou que estavam em alto risco de desenvolver distúrbios alimentares. Cerca de metade teve acesso ao Therabot, enquanto o grupo de controlo não teve. Os participantes respondiam a mensagens da IA e iniciavam conversas, com uma média de cerca de 10 mensagens por dia.

Os participantes com depressão apresentaram uma redução de 51% nos sintomas — o melhor resultado do estudo. Aqueles com ansiedade registaram uma redução de 31%, e os que estavam em risco de distúrbios alimentares mostraram uma redução de 19% nas preocupações com imagem corporal e peso. Essas medições foram feitas com base em autorrelatos por meio de questionários — um método que, embora não seja perfeito, continua a ser uma das melhores ferramentas disponíveis para os investigadores.

Estes resultados, afirma Jacobson, são comparáveis aos encontrados em ensaios clínicos randomizados de psicoterapia com 16 horas de tratamento realizado por terapeutas humanos — mas o ensaio com o Therabot alcançou esse efeito em cerca de metade do tempo. “Trabalho com terapias digitais há muito tempo e nunca vi níveis de envolvimento tão prolongados e sustentados como este”, diz ele.

Jean-Christophe Bélisle-Pipon, professor assistente de ética em saúde na Universidade Simon Fraser, que já escreveu sobre bots de terapia com IA, mas não participou da investigação, afirma que os resultados são impressionantes, mas alerta que, como qualquer outro ensaio clínico, este não representa necessariamente como o tratamento funcionaria no mundo real.

“Ainda estamos longe de um ‘sinal verde’ para a implementação clínica em larga escala”, escreveu ele por e-mail.

Uma das questões centrais é a supervisão que uma aplicação mais ampla poderia exigir. No início do ensaio, Jacobson conta que supervisionava pessoalmente todas as mensagens enviadas pelos participantes (que consentiram com esse arranjo) para monitorizar possíveis respostas problemáticas do bot. Se bots terapêuticos exigirem esse tipo de acompanhamento constante, dificilmente conseguirão escalar para atender grandes populações.

Quando questionado se os resultados validam a crescente indústria de sites de terapia com IA, Jacobson é direto:

“Na verdade, o oposto”, diz ele, alertando que a maioria dessas plataformas aparentemente não treina os seus modelos com base em práticas sustentadas por evidências, como a terapia cognitivo-comportamental, e provavelmente não conta com equipas de investigadores qualificados para supervisionar as interações com os utilizadores.

“Tenho muitas preocupações com o sector e com a velocidade com que estamos a avançar sem realmente avaliar tudo isso”, acrescenta.

Segundo Jacobson, quando sites de IA se promovem como prestadores de terapia em contexto clínico, isso significa que devem estar sob jurisdição regulatória da Food and Drug Administration (FDA). Até agora, a FDA não tomou medidas contra muitos desses serviços. Mas se o fizesse, Jacobson acredita que:

“A minha suspeita é que quase nenhum deles — provavelmente nenhum — teria capacidade para obter uma autorização de alegação”, ou seja, uma aprovação oficial que comprove os benefícios terapêuticos que anunciam.

Bélisle-Pipon destaca que, se esse tipo de terapia digital não for aprovado e integrado nos sistemas de saúde e seguros, o seu alcance será severamente limitado. Como consequência, pessoas que poderiam beneficiar-se com o seu uso podem acabar a procurar apoio emocional e terapia em formas de IA que não foram concebidas para esses fins.

De facto, uma investigação recente da OpenAI sugere que as interações com modelos de IA têm um impacto muito real no bem-estar emocional das pessoas.

“É altamente provável que muitas pessoas continuem a depender de chatbots mais acessíveis e não terapêuticos — como o ChatGPT ou o Character.AI — para necessidades do dia a dia, desde gerar ideias para receitas até gerir a sua saúde mental”, escreveu.

Nossos tópicos