No final de fevereiro, enquanto participava da conferência sobre direitos digitais RightsCon, em Taiwan, acompanhei em tempo real o momento em que organizações da sociedade civil de todo o mundo, incluindo dos Estados Unidos, enfrentavam a perda de um dos principais financiadores do trabalho global em direitos digitais: o governo norte-americano.
Como escrevi anteriormente, o desmantelamento chocante e acelerado do governo dos EUA pela administração Trump (e a sua viragem para aquilo que alguns politólogos de renome descrevem como “autoritarismo competitivo”) também afecta o funcionamento e as políticas das empresas tecnológicas norte-americanas — muitas das quais, naturalmente, têm utilizadores muito para além das fronteiras dos EUA. Participantes na RightsCon afirmaram já estar a notar mudanças na disponibilidade dessas empresas para se envolverem com comunidades menores — especialmente aquelas que não falam inglês — e para investirem nelas.
Como resultado, alguns decisores políticos e líderes empresariais — especialmente na Europa — estão a repensar a sua dependência da tecnologia proveniente dos Estados Unidos e a questionar-se se conseguiriam desenvolver, rapidamente, alternativas locais e mais eficazes. Isto é particularmente evidente no caso da Inteligência Artificial.
Um dos exemplos mais claros dessa tendência encontra-se nas redes sociais. Yasmin Curzi, investigadora de pós-doutoramento no Karsh Institute of Democracy da Universidade da Virginia e professora licenciada da Fundação Getulio Vargas Direito Rio, que estuda políticas tecnológicas nacionais, resumiu da seguinte forma: “Desde o segundo governo Trump, deixámos de poder contar com [as plataformas de redes sociais norte-americanas], nem sequer para o mínimo indispensável.”
Os sistemas de moderação de conteúdo nas redes sociais — que já recorrem à automatização e estão também a experimentar o uso de modelos de linguagem de grande escala (LLMs) para sinalizar publicações problemáticas — têm falhado na detecção de violência de género em países tão distintos como a Índia, a África do Sul e o Brasil. Se as plataformas passarem a depender ainda mais dos LLMs para a moderação de conteúdos, este problema tenderá a agravar-se, afirma Marlena Wisniak, advogada de direitos humanos especializada em governação de IA no Centro Europeu de Direito para Organizações Sem Fins Lucrativos. “Os LLMs já são mal moderados, e esses mesmos LLMs mal moderados estão a ser utilizados para moderar outros conteúdos”, disse-me ela. “É tão circular, e os erros continuam a repetir-se e a amplificar-se.”
Parte do problema reside no facto de estes sistemas serem treinados principalmente com dados provenientes do mundo anglófono (sobretudo o inglês americano), o que leva a um desempenho inferior em línguas e contextos locais.
Mesmo os modelos de linguagem multilingues, que deveriam ser capazes de processar vários idiomas em simultâneo, continuam a apresentar um desempenho fraco em línguas não ocidentais. Por exemplo, uma avaliação das respostas do ChatGPT a perguntas sobre saúde revelou que os resultados foram significativamente piores em chinês e hindi — línguas menos representadas nos conjuntos de dados norte-americanos — do que em inglês e espanhol.
Para muitos participantes da RightsCon, isto valida os apelos por abordagens mais comunitárias no desenvolvimento da inteligência artificial — tanto no contexto das redes sociais como fora dele. Estas abordagens podem incluir pequenos modelos de linguagem, chatbots e conjuntos de dados concebidos para utilizações específicas, adaptados a idiomas e contextos culturais particulares. Estes sistemas poderiam ser treinados para reconhecer gírias e insultos, interpretar palavras ou expressões escritas com misturas de idiomas (e até de alfabetos), e identificar “linguagem ressignificada” (termos ofensivos que passaram a ser adotados de forma positiva pelos grupos anteriormente visados). Todos estes aspectos tendem a ser ignorados ou classificados incorrectamente por modelos de linguagem e sistemas automatizados treinados maioritariamente com base no inglês anglo-americano.
A fundadora da startup Shhor AI, por exemplo, conduziu um painel na RightsCon para apresentar a sua nova API de moderação de conteúdo dirigida às línguas vernáculas da Índia.
Muitas soluções semelhantes estão em desenvolvimento há vários anos — e já cobrimos várias delas, incluindo uma iniciativa voluntária promovida pela Mozilla para recolher dados de treino em idiomas para além do inglês, bem como startups promissoras como a Lelapa AI, que está a desenvolver inteligência artificial para línguas africanas. No início deste ano, aliás, incluímos os pequenos modelos de linguagem na nossa lista das 10 principais tecnologias inovadoras de 2025.
Ainda assim, este momento parece ligeiramente diferente. A segunda administração Trump, que tem influência directa sobre as acções e políticas das empresas tecnológicas norte-americanas, é obviamente um factor central. Mas há outros elementos em jogo também.
Primeiro, as pesquisas e os avanços recentes no desenvolvimento de modelos de linguagem chegaram a um ponto em que o tamanho do conjunto de dados deixou de ser um factor determinante de desempenho — o que significa que mais pessoas os podem criar. Na verdade, “modelos de linguagem mais pequenos podem ser concorrentes ao nível dos modelos multilingues em idiomas específicos com poucos recursos”, afirma Aliya Bhatia, investigadora visitante no Center for Democracy & Technology, que estuda moderação automatizada de conteúdo.
Além disso, há o cenário global. A competição em torno da IA foi um dos principais temas da recente Cimeira de IA de Paris, realizada na semana anterior à RightsCon. Desde então, uma série de anúncios tem destacado iniciativas de “IA soberana”, que visam dar a um país (ou organização) controlo total sobre todos os aspectos do desenvolvimento de inteligência artificial.
A soberania em IA é apenas uma parte do desejo mais amplo por uma “soberania tecnológica”, que também tem vindo a ganhar força, impulsionada por preocupações mais alargadas com a privacidade e a segurança dos dados transferidos para os Estados Unidos. A União Europeia nomeou, em Novembro passado, o seu primeiro comissário para a soberania tecnológica, segurança e democracia, e tem vindo a trabalhar em planos para criar uma “Euro Stack”, ou “infraestrutura pública digital”.
A definição desse conceito ainda está em construção, mas pode incluir os sistemas de energia, água, chips, serviços de cloud, softwares, dados e IA necessários para sustentar a sociedade moderna e a inovação futura. Todos esses elementos são, em grande parte, actualmente fornecidos por empresas tecnológicas dos EUA. Os esforços europeus inspiram-se parcialmente no “India Stack”, a infraestrutura digital da Índia que inclui o sistema de identidade biométrica Aadhaar. Na semana passada, inclusive, parlamentares neerlandeses aprovaram diversas moções para desvincular o país dos fornecedores tecnológicos americanos.