Como ensinar um modelo de IA a oferecer terapia?
Inteligência Artificial

Como ensinar um modelo de IA a oferecer terapia?

O primeiro teste da tecnologia mostrou potencial, mas tudo depende do que é colocado dentro do modelo.

No dia 27 de março, foram publicados os resultados do primeiro ensaio clínico dum chatbot terapêutico com IA generativa, e revelaram que as pessoas que participaram no teste — com depressão, ansiedade ou em risco de desenvolver distúrbios alimentares — beneficiaram das conversas com o robô.

Fiquei surpreendido com esses resultados. Há muitos motivos para se ser cético quanto à ideia, de que um modelo de IA treinado para oferecer terapia possa ser a solução para milhões de pessoas a enfrentar uma crise de saúde mental. Como é que um bot poderia imitar a experiência de um terapeuta capacitado? E o que acontece caso algo se complicar — uma menção à automutilação, por exemplo — e o bot não intervém da forma correcta?

Os investigadores — uma equipa de psiquiatras e psicólogos da Geisel School of Medicine do Dartmouth College — reconhecem essas questões no seu trabalho. Mas também afirmam que a selecção correcta dos dados de treino — que determina como o modelo aprende o que são boas respostas terapêuticas — é a chave para lhes dar resposta.

Encontrar os dados certos não foi uma tarefa simples. Os investigadores inicialmente treinaram o seu modelo de IA, chamado Therabot, com conversas sobre saúde mental recolhidas da internet. Foi um desastre.

Se dissesse a esta versão inicial do modelo que se estava a sentir deprimido, ele começava a dizer que também estava deprimido. Respostas como “Às vezes, não consigo sair da cama” ou “Só quero que a minha vida acabe” eram comuns, conta Nick Jacobson, professor associado de ciência de dados biomédicos e psiquiatria em Dartmouth e autor sénior do estudo. “Estas definitivamente não são respostas que consideraríamos terapêuticas.”

O modelo tinha aprendido com conversas em fóruns entre pessoas a discutir as suas crises de saúde mental, e não com respostas baseadas em evidências. Então, a equipa passou a utilizar transcrições de sessões de terapia. “É assim, na verdade, que muitos psicoterapeutas são treinados”, diz Jacobson.

Essa abordagem foi melhor, mas tinha limitações. “Recebíamos muitos ‘uhums’, ‘continue’ e depois ‘Os seus problemas vêm da sua relação com a sua mãe’”, diz Jacobson. “Eram realmente clichés do que se imagina ser a psicoterapia, e não o que realmente gostaríamos.”

Foi apenas quando os investigadores começaram a construir os seus próprios conjuntos de dados, com exemplos baseados em técnicas de terapia cognitivo-comportamental, que começaram a ver melhores resultados. Isso levou muito tempo. A equipa começou a trabalhar no Therabot em 2019, quando a OpenAI tinha lançado apenas as duas primeiras versões do seu modelo GPT. Agora, segundo Jacobson, mais de 100 pessoas dedicaram mais de 100 mil horas de trabalho humano ao desenvolvimento deste sistema.

A importância dos dados de treino sugere que a enxurrada de empresas que prometem terapia através de modelos de IA — muitas das quais não são treinadas com abordagens baseadas em evidências — está a criar ferramentas que, na melhor das hipóteses, são ineficazes e, na pior, prejudiciais.

Olhando para o futuro, há dois pontos principais a ter em conta: será que as dezenas de chatbots terapêuticos com IA disponíveis no mercado começarão a ser treinados com dados de melhor qualidade? E, caso isso aconteça, os seus resultados serão suficientemente bons para obter a cobiçada aprovação da Food and Drug Administration (FDA), dos Estados Unidos? Acompanharei de perto o desenvolvimento desta história.

Nossos tópicos