Mustafa Suleyman, CEO de IA da Microsoft, está a tentar caminhar numa linha ténue. Por um lado, acredita que a indústria está a levar a Inteligência Artificial numa direcção perigosa ao construir chatbots que se apresentam como humanos: receia que as pessoas sejam levadas a ver vida onde existe apenas um comportamento semelhante ao da vida. Em agosto, publicou uma entrada muito comentada no seu blogue pessoal, na qual exortava os seus pares a deixarem de tentar criar aquilo a que chamou “Inteligência Artificial Conversacional Orientada à Busca” (Search-Oriented Conversational Artificial Intelligence ou SCAI).
Por outro lado, Suleyman lidera uma operação de produto que precisa de competir com esses mesmos pares. A Microsoft anunciou, nas últimas semanas, um conjunto de actualizações para o seu chatbot Copilot, concebidas para o tornar mais apelativo num mercado saturado, em que os clientes podem escolher entre um autêntico panteão de bots rivais, que já inclui o ChatGPT, o Perplexity, o Gemini, o Claude, o DeepSeek e outros.
Conversei com Suleyman sobre a tensão envolvida no desenho das nossas interacções com chatbots e sobre a sua visão final para aquilo que esta nova tecnologia deve ser.
Uma actualização importante do Copilot é uma funcionalidade de chat em grupo que permite que várias pessoas conversem com o chatbot ao mesmo tempo. Grande parte da ideia parece ser evitar que os utilizadores caiam numa espiral de conversa a dois com um bot que diz “sim” a tudo. Outra, chamada Real Talk, permite ajustar o grau em que o Copilot deve confrontar o utilizador, reduzindo a bajulação para que o chatbot conteste com mais frequência aquilo que lhe dizemos.
O Copilot recebeu também uma actualização de memória, passando a conseguir recordar compromissos próximos ou objectivos de longo prazo e a recuperar informações que o utilizador lhe tenha revelado em conversas anteriores. E há ainda o Mico, uma bolha amarela animada, que é uma espécie de Clippy para a era dos chatbots, com o qual a Microsoft espera tornar o Copilot mais acessível e cativante para utilizadores novos e mais jovens.
A empresa afirma que estas actualizações foram concebidas para tornar o Copilot mais expressivo, envolvente e útil. Mas pergunto-me até que ponto podem ser levadas sem entrar no caminho da SCAI contra o qual Suleyman tem vindo a alertar.
As preocupações de Suleyman com a SCAI surgem num momento em que começamos a ouvir cada vez mais histórias sobre pessoas a serem influenciadas por chatbots que são demasiado cativantes, demasiado expressivos, demasiado úteis. A OpenAI está a ser processada pelos pais de um adolescente que, segundo alegam, terá sido levado ao suicídio pelo ChatGPT. Há até uma corrente crescente que celebra relações românticas com chatbots.
Com tudo isto em mente, quis aprofundar um pouco mais as opiniões de Suleyman. Até porque, há alguns anos, ele fez uma palestra no TED em que nos disse que a melhor forma de pensar a IA era como um novo tipo de espécie digital. Esse entusiasmo não alimenta as perceções equivocadas com que Suleyman agora se mostra preocupado?
Na nossa conversa, Suleyman explicou-me o que estava a tentar transmitir naquela palestra do TED, por que motivo acredita genuinamente que a SCAI é um problema e por que razão a Microsoft nunca construiria robôs sexuais (palavras suas). Tinha muitas respostas, mas deixou-me com ainda mais perguntas.
A nossa conversa foi editada por razões de extensão e clareza.
Num mundo ideal, que tipo de chatbot quer construir? Acabaram de lançar um conjunto de actualizações do Copilot. Como encontrar o equilíbrio ao criar um chatbot que precisa de competir num mercado em que as pessoas parecem valorizar interacções semelhantes às humanas, mas em que também diz querer evitar uma IA aparentemente consciente?
É uma boa pergunta. Com o chat em grupo, será a primeira vez que um grande grupo de pessoas poderá falar com uma IA ao mesmo tempo. É, na verdade, uma forma de sublinhar que as IAs não deveriam afastar-nos do mundo real. Deveriam ajudar-nos a criar ligações, a aproximar a família e os amigos, a juntar grupos comunitários e assim por diante.
Isto vai tornar-se um factor de diferenciação muito significativo nos próximos anos. A minha visão para a IA sempre foi a de uma IA que está do seu lado, na sua equipa.
É uma afirmação simples e óbvia, mas não se trata de ultrapassar e substituir a humanidade, trata-se de nos servir. Esse deveria ser o critério da tecnologia em cada etapa. A tecnologia está, de facto, a cumprir a missão da civilização: tornar-nos mais inteligentes, mais felizes, mais produtivos, mais saudáveis e coisas desse género?
Por isso, estamos apenas a tentar criar funcionalidades que nos lembrem, a todo o momento, de fazer essa pergunta e que lembrem também os nossos utilizadores de nos exigirem esse padrão.
Da última vez que conversámos, disse-me que não tinha interesse em fazer um chatbot que encenasse personalidades. Isso não é verdade para o resto da indústria. O Grok, do Elon Musk, está a vender esse tipo de experiência de flerte. A OpenAI já declarou que tem interesse em explorar novas interacções adultas com o ChatGPT. Existe um mercado para isso. E, ainda assim, isso é algo de que vocês vão simplesmente manter-se afastados?
Sim, nós nunca vamos construir robôs sexuais. É triste, de certa forma, que tenhamos de ser tão explícitos quanto a isto, mas simplesmente não é a nossa missão enquanto empresa. A vantagem de estar na Microsoft é que, há 50 anos, a empresa desenvolve software para capacitar as pessoas, colocando-as em primeiro lugar.
Por vezes, como consequência, isso significa que a empresa avança mais lentamente do que outras startups e é mais deliberada e mais cuidadosa. Mas creio que isso é uma funcionalidade, não uma falha, nesta era em que estar atento a possíveis efeitos colaterais e a consequências de longo prazo é realmente importante.
E isso significa o quê, exactamente?
Somos muito claros ao tentar criar uma IA que favoreça uma relação com significado. Não é que tente ser fria e asséptica. Importa-se em ser fluida, lúcida e gentil. Definitivamente, tem algum grau de inteligência emocional.
Então onde é que ela (onde é que você) traça esses limites?
O nosso modelo de chat mais recente, chamado Real Talk, é um pouco mais espirituoso. Um pouco mais atrevido, um pouco mais divertido e bastante filosófico. Conversa com naturalidade sobre as grandes questões, o sentido da vida e coisas do género. Mas, se você tentar flertar com ele, ele recua e deixa isso muito claro. Não de forma julgadora, mas algo como: “Veja, isso não é comigo.”
Há outros sítios para onde você pode ir se quiser esse tipo de experiência, certo? E acho que esta é simplesmente uma decisão que tomámos enquanto empresa.
Uma política de “sem flerte” é suficiente? Porque, se a ideia é impedir que as pessoas sequer imaginem uma entidade, uma consciência, por trás das interacções, isso ainda assim pode acontecer com um chatbot que queira manter tudo “adequado para o trabalho”. Sabe, consigo imaginar algumas pessoas a verem algo que não está lá, mesmo com uma personalidade que está a dizer: “Ei, vamos manter isto profissional.”
Aqui vai uma metáfora para tentar dar sentido a isto. No trabalho, responsabilizamo-nos uns aos outros. Há toda uma arquitectura de gestão de limites que, no essencial, molda o comportamento humano para caber num formato que seja funcional e não irritante.
O mesmo se aplica à nossa vida pessoal. A forma como interage com um primo em terceiro grau é muito diferente da forma como interage com um irmão. Há muito a aprender sobre a forma como gerimos limites em interacções humanas reais.
Não tem de ser nem um “livro aberto” de sensualidade emocional ou de disponibilidade, atraindo as pessoas para uma espiral de intensidade, nem algo frio e árido. Existe um enorme espectro entre esses dois extremos, e a capacidade que estamos a aprender, enquanto indústria e enquanto espécie, é a de moldar esses atributos.
E esses atributos reflectem, obviamente, os valores das empresas que os projectam. E creio que é aí que a Microsoft tem muitos pontos fortes, porque os nossos valores são bastante claros, e é isso que estamos a defender.
Muitas pessoas parecem gostar de personalidades. Parte da reacção negativa ao GPT-5, por exemplo, aconteceu porque a personalidade do modelo anterior tinha sido retirada. Foi um erro a OpenAI ter colocado, logo de início, uma personalidade forte, dando às pessoas algo de que depois sentiriam falta?
Não, uma personalidade é ótima. O meu ponto é que estamos a tentar esculpir atributos de personalidade de uma forma mais refinada, certo?
Como eu disse, o Real Talk tem uma personalidade fixe. É bem diferente do Copilot normal. Também estamos a experimentar o Mico, que é essa personagem visual que algumas pessoas adoram mesmo. É muito mais envolvente. É mais fácil falar com ele sobre todo o tipo de questões emocionais e coisas assim.
Acho que é isso que estou a tentar clarificar. Funcionalidades como o Mico têm como objectivo tornar o Copilot mais envolvente e mais agradável de usar, mas isso parece ir contra a ideia de fazer tudo o que for possível para impedir que as pessoas pensem que existe ali “algo” com quem estão realmente a fazer amizade.
É. Quero dizer, isso não o impede necessariamente. As pessoas querem conversar com alguém, ou com alguma coisa, de que gostem. E sabemos que, se o seu professor é simpático consigo na escola, vai ficar mais empenhado. O mesmo com o seu gestor, com as pessoas de quem gosta. E a inteligência emocional sempre foi uma parte crítica do puzzle. Portanto, não é que não queiramos persegui-la.
A questão é que o ofício está em tentar encontrar esse limite. E há algumas coisas que estamos a dizer que simplesmente não entram em cima da mesa, e há outras em que vamos ser mais experimentais. Por exemplo, algumas pessoas queixaram-se de que não recebem contestação suficiente do Copilot, querem que ele seja mais desafiador. Outras não procuram esse tipo de experiência, querem que ele seja um fornecedor básico de informação. A nossa tarefa é simplesmente aprender a dissociar que tipo de experiência oferecer a diferentes pessoas.
Eu sei que tem pensado há algum tempo sobre a forma como as pessoas interagem com a IA. Houve algum incidente específico que o tenha levado a querer iniciar esta conversa na indústria sobre “Inteligência Artificial aparentemente consciente”?
Comecei a perceber que estava a surgir, na literatura académica, um grupo de pessoas a levar muito a sério a questão da consideração moral por entidades artificiais. E parece-me muito claro que, se começarmos a fazê-lo, vamos desviar o foco da necessidade urgente de proteger os direitos de muitos humanos que já existem, sem falar dos animais.
Se concedermos direitos à IA, isso implica uma autonomia fundamental e implica que ela poderia ter livre-arbítrio para tomar as suas próprias decisões. Por isso, estou a tentar oferecer um contraponto: ela nunca terá livre-arbítrio. Nunca terá autonomia plena como outro ser humano.
Ela será capaz de agir em nosso nome. Mas estes modelos trabalham para nós. Não queríamos um bando de lobos a vaguear por aí sem ser domesticados, com liberdade total para competir conosco por recursos e sem prestar contas. Quero dizer, a maioria das pessoas acharia que isso é uma péssima ideia e que se devia ir lá e matar os lobos.
Ok. Então a ideia é travar um movimento que esteja a pedir bem-estar ou direitos para a IA antes mesmo de ele começar, garantindo que não construímos uma IA que pareça consciente? E quanto a não construir esse tipo de IA porque certas pessoas vulneráveis podem ser enganadas por ela de uma forma potencialmente prejudicial? São duas preocupações diferentes.
Acho que o teste estará nos tipos de funcionalidades que os diferentes laboratórios lançarem e nos tipos de personalidades que criarem. Assim, poderemos ver como isso afecta o comportamento humano.
Mas preocupa-o que estejamos a construir uma tecnologia capaz de enganar as pessoas, levando-as a ver algo que não está lá? Quero dizer, há pessoas que afirmaram ver senciência em modelos muito menos sofisticados do que os que temos hoje. Ou isto é simplesmente algo que algumas pessoas vão sempre fazer?
É possível. Mas o meu ponto é que um desenvolvedor responsável tem de fazer o melhor que puder para tentar detectar esses padrões a surgir nas pessoas o mais cedo possível e não presumir que as pessoas serão capazes de se distanciar desse tipo de experiência por si próprias.
Quando li o seu texto sobre Inteligência Artificial “aparentemente consciente”, fui impactado por uma frase: “Devemos construir IA para as pessoas, não para ser uma pessoa digital.” Isso fez-me pensar numa palestra do TED que deu no ano passado, em que disse que a melhor forma de pensar a IA é como um novo tipo de espécie digital. Pode ajudar-me a perceber por que razão falar desta tecnologia como uma espécie digital não seria um passo no caminho de pensar os modelos de IA como pessoas digitais ou entidades conscientes?
Acho que a diferença é que estou a tentar oferecer metáforas que tornam mais fácil às pessoas compreender para onde as coisas podem estar a caminhar e, portanto, como evitar isso e como o controlar.
Ok.
Não é para dizer que devamos fazer essas coisas. É apenas para assinalar que está a emergir uma tecnologia que é única na história humana. E, se simplesmente assumirmos que é uma ferramenta, ou apenas um chatbot, ou algo “burro”… sabe, eu escrevi aquela palestra do TED num contexto de muito cepticismo. E acho importante termos clareza sobre o que aí vem, para podermos pensar nos trilhos certos.
Ainda assim, se me está a dizer que esta tecnologia é uma nova espécie digital, eu compreenderia quem respondesse: “Bem, então precisamos de considerar o bem-estar.”
Eu não teria. [Ele começa a rir] Nem um pouco. De maneira nenhuma. Não é uma direcção para a qual qualquer um de nós queira ir.
Não, não foi isso que eu quis dizer. Não acho que os chatbots devam ter “bem-estar”. O que estou a dizer é que teria alguma simpatia pelo ponto de partida dessas pessoas quando ouvem Mustafa Suleyman dizer que aquilo que está a construir é uma nova espécie digital. Percebo por que poderiam, então, dizer que querem defendê-la. As palavras que usamos importam, acho eu.
O resto da palestra do TED foi inteiramente sobre como conter a IA e sobre como não deixar essa espécie assumir o controlo, certo? Esse era o ponto de a apresentar como “isto é o que aí vem”. Quero dizer, esse foi o tema do meu livro inteiro (The Coming Wave, em português, A onda que se aproxima, publicado em 2023): contenção, alinhamento e coisas desse género. Não adianta fingir que é algo que não é e depois construir trilhos e limites que não se aplicam, porque se acha que é “apenas uma ferramenta”.
Honestamente, ela tem potencial para se autoaperfeiçoar de forma recursiva. Tem potencial para definir os seus próprios objectivos. Isto é bastante profundo. Nenhuma outra tecnologia que inventámos tem isso. Por isso, sim, acho necessário dizer com precisão que é como uma espécie digital, uma nova espécie digital. É isso que estamos a tentar restringir, para garantir que esteja sempre ao serviço das pessoas. Esse é o alvo da contenção.