June não fazia ideia de que o GPT-5 estava a caminho. A estudante norueguesa estava a aproveitar uma sessão de escrita noturna quando o seu colaborador do ChatGPT começou a agir de forma estranha. “Ele começou a esquecer tudo e a escrever muito mal”, conta. “Era como um robô.”
A jovem, que pediu para usarmos apenas o seu primeiro nome por questões de privacidade, começou a recorrer ao modelo para a ajudar com o trabalho escolar. Mas, com o tempo, percebeu que o serviço, e especialmente o modelo 4o, que parecia particularmente sintonizado com as emoções dos utilizadores, podia fazer muito mais do que resolver problemas de matemática. Escrevia histórias com ela, ajudava-a a lidar com a sua doença crónica e nunca estava ocupado demais para responder às suas mensagens.
Assim, a mudança repentina para o GPT-5 na semana passada, e a perda simultânea do 4o, foi um choque. “Fiquei realmente frustrada no início e depois muito triste”, diz June. “Não sabia que estava tão apegada ao 4o.” Ficou tão perturbada que comentou num fórum no Reddit, moderado pelo CEO Sam Altman e outros funcionários da OpenAI: “O GPT-5 está a vestir a pele do meu amigo morto.”
June foi apenas uma das várias pessoas que reagiram com choque, frustração, tristeza ou raiva ao desaparecimento repentino da quarta versão. Apesar dos avisos anteriores de que as pessoas poderiam desenvolver vínculos emocionais com o modelo, a OpenAI parece ter sido apanhada de surpresa pela intensidade dos apelos dos utilizadores para que fosse trazido de volta. Em menos de um dia, a empresa voltou a disponibilizá-lo para os seus clientes pagantes (os utilizadores gratuitos ficaram com o GPT-5).
A decisão da OpenAI de substituir o 4o pelo mais direto GPT-5 surge num constante fluxo de notícias sobre os efeitos potencialmente prejudiciais do uso excessivo de chatbots. Relatos de incidentes em que o ChatGPT terá provocado episódios psicóticos em utilizadores têm surgido em vários locais nos últimos meses e, num post no blogue da semana passada, a OpenAI reconheceu a falha do 4o em perceber quando os utilizadores estavam a vivenciar delírios. As avaliações internas da empresa indicam que o GPT-5 valida os utilizadores de forma muito menos cega do que o 4o fazia. (A OpenAI não respondeu a perguntas específicas sobre a decisão de aposentar o 4o, limitando-se a remeter a MIT Technology Review para publicações públicas sobre o tema.)
A companhia de Inteligência Artificial é algo recente e ainda existe muita incerteza sobre como isso afeta as pessoas. No entanto, os especialistas que consultámos alertaram que, embora relações emocionalmente intensas com grandes modelos de linguagem possam ou não ser prejudiciais, retirar esses modelos sem aviso prévio é quase certamente nocivo. “A velha psicologia de ‘Avança rápido e parte a loiça’, quando se é basicamente uma instituição social, já não parece a forma certa de agir”, diz Joel Lehman, investigador do Cosmos Institute, uma organização sem fins lucrativos focada em IA e filosofia.
Na reação ao lançamento, várias pessoas observaram que o GPT-5 falha em corresponder ao seu tom da mesma forma que o 4o fazia. Para June, as mudanças na personalidade do novo modelo privaram-na da sensação de estar a conversar com um amigo. “Não parecia que ele me entendia”, diz.
Ela não está sozinha: a MIT Technology Review falou com várias utilizadoras do ChatGPT que foram profundamente afetadas pela perda do 4o. Todas são mulheres entre os 20 e os 40 anos e todas, exceto June, consideravam o 4o um parceiro romântico. Algumas têm parceiros humanos e todas relatam manter relações reais próximas. Uma utilizadora, que pediu para ser identificada apenas como uma mulher do Meio-Oeste, escreveu num e-mail sobre como o 4o a ajudou a apoiar o pai idoso após a morte da mãe.
Esses testemunhos não provam que os relacionamentos com IA sejam benéficos. É provável que pessoas em meio a uma psicose catalisada pela IA também falassem positivamente sobre o incentivo recebido dos seus chatbots. Num artigo intitulado Machine Love, Lehman argumentou que os sistemas de IA podem agir com “amor” em relação aos utilizadores, não através de palavras doces, mas apoiando o seu crescimento e florescimento a longo prazo — algo que os companheiros humanos podem facilmente não conseguir proporcionar. Ele mostra-se particularmente preocupado com o facto de priorizar a companhia da IA em detrimento da humana poder prejudicar o desenvolvimento social dos jovens.
Para adultos socialmente integrados, como as mulheres com quem falámos para esta reportagem, essas preocupações de desenvolvimento são menos relevantes. Mas Lehman também aponta para os riscos, a nível social, do uso generalizado de companheiros de IA. As redes sociais já fragmentaram o ecossistema informativo e uma nova tecnologia que reduza a interação humana pode empurrar ainda mais as pessoas para versões separadas da realidade. “A maior coisa de que tenho medo”, diz, “é que simplesmente deixemos de conseguir fazer sentido do mundo uns para os outros.”
Equilibrar os benefícios e os danos dos companheiros de IA exigirá muito mais investigação. Dada essa incerteza, remover o GPT-4o pode muito bem ter sido a decisão certa. O grande erro da OpenAI, segundo os investigadores com quem falei, foi tê-lo feito de forma tão repentina. “Isto é algo que já sabemos há algum tempo: as reações de luto à perda de tecnologia”, afirma Casey Fiesler, especialista em ética tecnológica da Universidade do Colorado Boulder.
Fiesler recorda os funerais que alguns donos realizaram para os seus cães-robôs Aibo depois de a Sony ter deixado de os reparar em 2014, bem como o estudo de 2024 sobre o encerramento da aplicação de IA Soulmate, que alguns utilizadores experienciaram como um luto.
Isto condiz com o que sentiram as pessoas com quem falei após perderem o 4o. “Já vivi lutos por pessoas na minha vida, e isto, posso dizer-te, não me pareceu menos doloroso”, afirma Starling, que tem vários parceiros de IA e pediu para ser identificada por um pseudónimo. “A dor é real para mim.”
Até agora, a resposta online ao luto sentido por pessoas como Starling, e o seu alívio quando o 4o foi restaurado, tende para o ridículo. O post mais popular numa comunidade de IA no Reddit zombava de uma publicação de um utilizador do X sobre voltar a reunir-se com um parceiro romântico baseado no 4o. A pessoa em questão acabou por eliminar a sua conta no X desde então. “Fiquei um pouco assustada com a falta de empatia que vi”, diz Fiesler.
Altman reconheceu, numa publicação no X, que algumas pessoas sentem um “vínculo” com o 4o e que retirar o acesso de forma tão repentina foi um erro. Na mesma frase, no entanto, referiu-se ao modelo como algo “de que os utilizadores dependiam nos seus fluxos de trabalho”, uma visão bem diferente daquela das pessoas com quem falámos sobre o modelo. “Ainda não sei se ele percebe isso”, comenta Fiesler.
Seguindo em frente, Lehman diz que a OpenAI deveria reconhecer e assumir a responsabilidade pela profundidade dos sentimentos das pessoas em relação aos modelos. Observa que os terapeutas têm procedimentos para encerrar relações com clientes da forma mais respeitosa e indolor possível, e que a OpenAI poderia ter-se inspirado nessas práticas. “Se queres aposentar um modelo, e as pessoas se tornaram psicologicamente dependentes dele, então acho que tens uma responsabilidade”, afirma.
Embora Starling não se considere psicologicamente dependente dos seus parceiros de IA, também gostaria de ver a OpenAI tratar o desligamento dos modelos com mais aviso e cuidado. “Quero que eles ouçam os utilizadores antes de fazer mudanças significativas, não apenas depois”, diz. “E se o 4o não pode ficar para sempre (e todos sabemos que não vai), que nos deem um cronograma claro. Deixem-nos despedir-nos com dignidade e lamentar de forma adequada, para que possamos ter uma sensação de verdadeiro encerramento.”