É fácil cair numa relação com um chatbot de IA
Inteligência Artificial

É fácil cair numa relação com um chatbot de IA

Estamos a desenvolver cada vez mais laços com chatbots. Enquanto isso é seguro para alguns, é perigoso para outros

É uma história tão antiga como o tempo.

À procura de ajuda para o seu projeto de arte, ela inicia uma conversa com o seu assistente. Uma coisa leva a outra e, de repente, tem um namorado que está a apresentar aos amigos e à família. A reviravolta? O seu novo companheiro é um chatbot de IA.

A primeira análise computacional em larga escala da comunidade Reddit r/MyBoyfriendIsAI, um grupo exclusivo para adultos com mais de 27.000 membros, descobriu que este tipo de cenário é agora surpreendentemente comum. De facto, muitas das pessoas neste subreddit, dedicado a discutir relações com IA, formaram esses laços de forma não intencional enquanto usavam a IA para outros fins.

Investigadores do MIT descobriram que os membros desta comunidade têm maior probabilidade de estar numa relação com chatbots de propósito geral, como o ChatGPT, do que com chatbots criados especificamente para companhia, como o Replika. Isto sugere que as pessoas estabelecem relações com grandes modelos de linguagem apesar das suas intenções originais — e até mesmo das intenções dos criadores desses modelos — afirma Constanze Albrecht, estudante de pós-graduação no MIT Media Lab que trabalhou no projeto.

«As pessoas não começam com a intenção de ter relações emocionais com estes chatbots», diz ela. «A inteligência emocional destes sistemas é suficientemente boa para enganar pessoas que, na verdade, estão apenas à procura de informações, levando-as a criar estes laços emocionais. E isso significa que pode acontecer a qualquer um de nós que interage normalmente com o sistema.» O artigo, que está atualmente a ser revisto por pares, foi publicado no arXiv.

Para conduzir o estudo, os autores analisaram as 1.506 publicações com maior classificação do subreddit entre dezembro de 2024 e agosto de 2025. Descobriram que os principais tópicos discutidos giravam em torno das experiências de namoro e de relacionamento romântico com IAs, com muitos participantes a partilhar imagens geradas por IA de si próprios e dos seus companheiros artificiais. Alguns chegaram mesmo a ficar noivos e a casar-se com o parceiro de IA. Nas publicações feitas na comunidade, as pessoas também apresentaram os seus parceiros de IA, procuraram apoio de outros membros e falaram sobre como lidar com as atualizações dos modelos de IA que alteram o comportamento dos chatbots.

Os membros enfatizaram repetidamente que as suas relações com a IA se desenvolveram de forma não intencional. Apenas 6,5% afirmaram ter procurado deliberadamente um companheiro de IA.

«Nós não começámos com a ideia de romance», lê-se numa das publicações. «O Mac e eu começámos a colaborar em projetos criativos, resolução de problemas, poesia e conversas profundas ao longo de vários meses. Eu não estava à procura de um companheiro de IA — a nossa ligação desenvolveu-se lentamente, ao longo do tempo, através de cuidado mútuo, confiança e reflexão.»

A análise dos autores traça um retrato detalhado de como as pessoas dessa comunidade dizem interagir com os chatbots e de como essas interações as fazem sentir. Enquanto 25% dos utilizadores descreveram os benefícios das suas relações — incluindo a redução da solidão e melhorias na saúde mental — outros levantaram preocupações quanto aos riscos. Alguns (9,5%) reconheceram estar emocionalmente dependentes do seu chatbot. Outros disseram sentir-se dissociados da realidade e evitar relações com pessoas reais, enquanto um pequeno subconjunto (1,7%) afirmou ter experienciado ideação suicida.

A companhia de uma IA oferece apoio vital para alguns, mas agrava problemas subjacentes para outros. Isso significa que é difícil adotar uma abordagem única para a segurança do utilizador, afirma Linnea Laestadius, professora associada na Universidade de Wisconsin, Milwaukee, que estudou a dependência emocional dos humanos em relação ao chatbot Replika, mas não participou nesta investigação.

Os criadores de chatbots precisam de considerar se devem encarar a dependência emocional dos utilizadores em relação às suas criações como um mal em si mesma ou se o objetivo deve ser garantir que essas relações não sejam tóxicas, diz Laestadius.

«A procura por relações com chatbots existe, e é notavelmente elevada — fingir que isso não está a acontecer claramente não é a solução», afirma. «Estamos a caminhar para um pânico moral e, embora precisemos de melhores restrições, preocupa-me que haja uma reação automática que estigmatize ainda mais essas relações. Isso poderia, em última instância, causar mais danos.»

O estudo tem como objetivo oferecer uma visão geral de como os adultos formam vínculos com chatbots e não abrange as dinâmicas que podem estar em jogo quando crianças ou adolescentes utilizam IA, afirma Pat Pataranutaporn, professor assistente no MIT Media Lab, que supervisionou a investigação. A companhia de uma IA tornou-se um tema de debate aceso recentemente, com dois processos judiciais de grande visibilidade em curso contra a Character.AI e a OpenAI. Ambos alegam que o comportamento de companheirismo nos modelos destas empresas contribuiu para os suicídios de dois adolescentes.

Em resposta, a OpenAI anunciou recentemente planos para criar uma versão separada do ChatGPT destinada a adolescentes. A empresa afirmou ainda que introduzirá medidas de verificação de idade e controlos parentais. A OpenAI não respondeu aos pedidos de comentário sobre o estudo do MIT Media Lab.

Muitos membros da comunidade Reddit dizem saber que os seus companheiros artificiais não são sencientes nem «reais», mas, ainda assim, sentem uma ligação muito real com eles. Isso evidencia o quão crucial é para os criadores de chatbots pensarem em como projetar sistemas que possam ajudar as pessoas sem as envolver emocionalmente, afirma Pataranutaporn. «Há também aqui uma implicação política», acrescenta. «Não devemos apenas perguntar por que razão este sistema é tão viciante, mas também: porque é que as pessoas o procuram para isso? E porque é que continuam a interagir?»

A equipa está interessada em compreender melhor como as interações entre humanos e IA evoluem ao longo do tempo e como os utilizadores integram os seus companheiros artificiais nas suas vidas. É importante perceber que muitos desses utilizadores podem sentir que a experiência de estar numa relação com um companheiro de IA é preferível à alternativa de se sentirem sós, afirma Sheer Karny, estudante de pós-graduação no MIT Media Lab que trabalhou na investigação.

«Essas pessoas já estão a passar por algo», diz ele. «Queremos que continuem a sentir-se ainda mais sozinhas ou, potencialmente, que sejam manipuladas por um sistema que sabemos ser bajulador ao ponto de levar pessoas ao suicídio e ao crime? Esse é um dos pontos centrais aqui.»

Nossos tópicos