Algoritmos opacos destinados a analisar a produtividade dos trabalhadores têm-se espalhado rapidamente pelos nossos locais de trabalho, conforme detalhado num novo artigo essencial de Rebecca Ackermann, publicado na MIT Technology Review.
Desde a pandemia, muitas empresas adoptaram softwares para analisar pressionamentos de teclas ou detectar quanto tempo os trabalhadores estão a passar nos seus computadores. A tendência é impulsionada pela suspeita de que os trabalhadores remotos são menos produtivos, embora isso não seja amplamente apoiado por pesquisas económicas. Ainda assim, essa crença está por detrás dos esforços de Elon Musk, DOGE e do Escritório de Gestão de Pessoal para reverter o trabalho remoto para os funcionários federais dos EUA.
O foco nos trabalhadores remotos, no entanto, deixa de fora outra parte importante da história: a tomada de decisão algorítmica em indústrias onde as pessoas não trabalham em casa. Trabalhadores de plataformas como motoristas de transporte por aplicativo podem ser removidos das suas plataformas por um algoritmo, sem possibilidade de recurso. Sistemas de produtividade em armazéns da Amazon impunham um ritmo de trabalho que as equipas internas da empresa descobriram que levaria a mais acidentes, mas a empresa implementou-os na mesma, de acordo com um relatório do Congresso de 2024.
Ackermann afirma que essas ferramentas algorítmicas têm menos a ver com eficiência e mais com controlo, o qual os trabalhadores têm cada vez menos. Existem poucas leis que exigem que as empresas ofereçam transparência sobre quais dados estão a ser usados nos seus modelos de produtividade e como as decisões são tomadas. “Os defensores dizem que os esforços individuais para resistir ou evitar a vigilância eletrónica não são suficientes”, ela escreve. “A tecnologia é muito disseminada e os riscos são altos.”
As ferramentas de produtividade não apenas monitorizam o trabalho, escreve Ackermann. Elas remodelam a relação entre os trabalhadores e os detentores do poder. Grupos laborais estão a reagir a essa mudança de poder, procurando tornar os algoritmos que alimentam as decisões de gestão mais transparentes.
O artigo completo contém muitos detalhes que me surpreenderam sobre o alcance crescente das ferramentas de produtividade e os meios muito limitados que os trabalhadores têm para perceber o que entra nesses modelos. À medida que a procura por eficiência ganha influência política nos EUA, as atitudes e tecnologias que transformaram o setor privado podem agora estar a estender-se ao setor público. Trabalhadores federais já se estão a preparar para essa mudança, de acordo com uma nova reportagem da Wired. Para algumas pistas sobre o que isso pode significar, leia o artigo completo de Rebecca Ackermann.
Agora leia o restante de The Algorithm
Deeper Learning
A Microsoft anunciou na semana passada que fez progressos significativos na sua busca de 20 anos para criar bits quânticos topológicos, ou qubits – uma abordagem especial para construir computadores quânticos que poderia torná-los mais estáveis e mais fáceis de escalar.
Por que é isto importante: Computadores quânticos prometem realizar cálculos mais rapidamente do que qualquer computador convencional que os humanos poderiam construir, o que pode significar a descoberta mais rápida de novos medicamentos e avanços científicos. O problema é que os qubits – a unidade de informação na computação quântica, em vez dos típicos 1s e 0s – são muito, muito delicados. O novo tipo de qubit da Microsoft deve tornar mais fácil a manutenção de estados quânticos frágeis, mas cientistas fora do projeto dizem que ainda há um longo caminho até que a tecnologia possa ser comprovada como funcional. E além disso, alguns especialistas estão a questionar se os rápidos avanços na aplicação de IA a problemas científicos poderão tornar desnecessário o uso de computadores quânticos.
Bits and Bytes
O modelo de IA da X parece ter censurado brevemente menções desfavoráveis a Trump e Musk
Elon Musk há muito que alega que modelos de IA suprimem discursos conservadores. Em resposta, ele prometeu que o modelo de IA da sua empresa xAI, Grok, seria “maximamente em busca da verdade” (embora, como já destacámos anteriormente, inventar coisas seja justamente o que a IA faz). No último fim de semana, utilizadores notaram que, ao perguntar ao Grok quem é o maior espalhador de desinformação, o modelo informou que foi explicitamente instruído a não mencionar Donald Trump ou Elon Musk. Um líder de engenharia da xAI disse que um funcionário não identificado fez essa alteração, mas ela já foi revertida. (TechCrunch)
Figure demonstrou robôs humanóides que podem trabalhar juntos para guardar as suas compras
Robôs humanóides normalmente não são muito bons a trabalhar uns com os outros. Mas a empresa de robótica Figure mostrou dois robôs humanóides a ajudarem-se mutuamente a guardar as compras, outro sinal de que os modelos de IA geral para robótica estão a ajudá-los a aprender mais rápido do que nunca. No entanto, já escrevemos sobre como vídeos com robôs humanóides podem ser enganadores, por isso, leve estes desenvolvimentos com cautela.
Em chamadas com os seus investidores, a OpenAI sinalizou que está a enfraquecer os seus laços com a Microsoft — o seu maior investidor — e a associar-se mais de perto com a Softbank. Esta última está agora a trabalhar no projeto Stargate, um esforço de 500 mil milhões de dólares para construir centros de dados que suportarão a maior parte do poder de computação necessário para os ambiciosos planos de IA da OpenAI. (The Information)
A Humane está a descontinuar o AI Pin e a vender os seus restos à HP
Um grande debate na área da IA é se a tecnologia precisará de hardware próprio. Em vez de apenas conversarmos com a IA nos nossos telemóveis, precisaremos de algum tipo de dispositivo dedicado para interagir? A Humane obteve investimentos de Sam Altman e outros para construir exatamente isso, sob a forma de um crachá usado ao peito. Mas, após críticas negativas e vendas lentas, na semana passada a empresa anunciou que iria encerrar.
Escolas estão a substituir conselheiros por chatbots
Distritos escolares, enfrentando uma escassez de conselheiros, estão a implementar “companheiros de bem-estar” alimentados por IA para que os alunos possam conversar. Mas especialistas alertaram para os perigos de confiar nesses recursos e afirmam que as empresas que os desenvolvem muitas vezes distorcem as suas capacidades e eficácia. (The Wall Street Journal)
O que a desestruturação da liderança dos EUA em investigação científica pode significar
Funcionários federais falaram à MIT Technology Review sobre os esforços do DOGE e de outros para reduzir o financiamento à investigação científica. Afirmam que isso pode causar danos duradouros, talvez irreparáveis, em tudo, desde a qualidade dos cuidados de saúde até ao acesso público às tecnologias de consumo da próxima geração. (MIT Technology Review)
O seu cliente mais importante pode ser a IA
As pessoas estão a confiar cada vez mais em modelos de IA, como o ChatGPT, para obter recomendações, o que significa que as marcas estão a perceber que precisam de descobrir como melhorar o seu posicionamento, tal como fazem com os resultados dos motores de busca tradicionais. Fazer isso é um desafio, já que os criadores dos modelos de IA oferecem poucas informações sobre como são formadas essas recomendações.