Computação

Não estamos preparados para o fim da lei de Moore

Alimentou a prosperidade dos últimos 50 anos. Mas o seu fim está mais próximo.

A previsão de Gordon Moore de 1965 de que o número de componentes num circuito integrado duplicaria todos os anos até atingir 65.000 em 1975, é a maior previsão tecnológica do último meio século. Quando se comprovou como uma verdade naquele ano, Moore reviu o que viria a ser conhecido como a Lei de Moore para afirmar que os transístores num chip se duplicam a cada dois anos.

Desde então, a sua previsão tem sido utilizada para medir a trajetória da tecnologia e, de várias maneiras, do próprio progresso.

O argumento de Moore foi baseado numa questão económica. Os circuitos integrados, com vários transístores e outros dispositivos eletrónicos interconectados com linhas de metal de alumínio num pequeno quadrado de pastilha de silício, tinham sido inventados alguns anos antes por Robert Noyce, da Fairchild Semiconductor. Moore, diretor de I&D da empresa, percebeu, como escreveu em 1965, que, com esses novos circuitos integrados, “o custo por componente é quase inversamente proporcional ao número de componentes”. Foi uma ideia interessante – em teoria, quanto mais transístores se adicionassem, cada um deles ficaria mais barato. Moore também viu que havia muito espaço para avanços na engenharia para aumentar o número de transístores que se poderia colocar de forma económica e confiável num chip.

Em breve, esses chips mais baratos e mais poderosos se tornariam o que os economistas gostam de chamar de tecnologia de uso geral (em inglês, General Purpose Technology, GPT) – tão fundamental que gera todo o tipo de outras inovações e avanços em vários setores. Alguns anos antes, os principais economistas reconheceram que a tecnologia da informação em circuitos integrados estava envolvida num terço do crescimento da produtividade nos EUA desde 1974. Quase todas as tecnologias de que gostamos, desde smartphones a computadores baratos e GPS, são um reflexo direto da previsão de Moore. Também alimentou os avanços atuais em inteligência artificial (IA) e medicina genética, dando às técnicas de machine learning a capacidade de analisar grandes quantidades de dados para encontrar as respostas.

Mas de que forma é que uma previsão simples, baseada na extrapolação de um gráfico do número de transístores por ano – um gráfico que na época tinha apenas alguns pontos de dados – chegou a definir meio século de progresso? Em parte, pelo menos, porque a indústria de semicondutores decidiu assim.

Moore escreveu que “colocar mais componentes em circuitos integrados”, título de seu artigo de 1965, “levaria a maravilhas como por exemplo computadores domésticos – ou pelo menos terminais conectados a um computador central – controlos automáticos para automóveis e equipamentos pessoais de comunicação portátil”. Em outras palavras, o seu roteiro consistia em colocar cada vez mais transístores em chips para que isso nos levasse à terra prometida. E nas décadas seguintes, essa indústria em expansão, o governo e exércitos de pesquisadores académicos e industriais investiram tempo e dinheiro na defesa da Lei de Moore, criando uma profecia auto realizável que mantinha o progresso no caminho com uma precisão extraordinária. Embora o ritmo desse avanço tenha caído nos últimos anos, os chips mais modernos hoje têm quase 50 mil milhões de transístores.

Todos os anos, desde 2001, a MIT Technology Review escolhe as 10 tecnologias inovadoras mais importantes do ano. É uma lista de tecnologias que, quase sem exceção, só são possíveis devido aos avanços computacionais descritos pela Lei de Moore.

Para alguns dos itens deste ano na lista, a sua ligação é óbvia: dispositivos de consumo, incluindo relógios e telefones, com IA integrada; atribuição de mudanças climáticas por meio de modelagem computacional aprimorada e dados coletados de sistemas globais de monitorização atmosférica; e satélites baratos e pequenos. Outros avanços da lista, incluindo a supremacia quântica, moléculas descobertas usando IA, e até tratamentos antienvelhecimento e medicamentos hiperpersonalizados, existem graças, em grande parte, ao poder computacional disponível aos investigadores.

Mas o que acontecerá quando a lei de Moore inevitavelmente acabar? Ou se, como alguns suspeitam, que ela já tenha morrido, e que já estamos a funcionar com o fumo do maior mecanismo de tecnologia de nosso tempo?

Descanse em paz

“Acabou. Este ano ficou muito claro”, diz Charles Leiserson, cientista da computação do MIT e pioneiro da computação paralela, em que vários cálculos são realizados simultaneamente. A mais nova fábrica da Intel, projetada para fabricar chips com tamanho mínimo de 10 nanômetros, sofreu grandes atrasos e só começou a entregá-los em 2019, cinco anos após o lançamento dos chips de 14 nanômetros da geração anterior. A lei de Moore, refere Leiserson, sempre esteve relacionada a taxa de progresso e “não estamos mais nessa taxa”. Inúmeros outros importantes cientistas de computação também declararam a morte da Lei de Moore nos últimos anos. No início de 2019, o CEO da grande fabricante de chips NVIDIA concordou.

Na verdade, tem sido mais um declínio gradual do que uma morte súbita. Ao longo das décadas, alguns, às vezes incluindo até o próprio Moore, expressaram medo da possibilidade de perceberem que o fim estava próximo, uma vez que fabricar transístores cada vez menores era cada vez mais difícil. Em 1999, um investigador da Intel temia que o objetivo do setor de reduzir os transístores para abaixo de 100 nanômetros até 2005 enfrentasse problemas físicos fundamentais com “nenhuma solução conhecida”, como os efeitos quânticos dos eletrões que vagam onde não deveriam.

Durante anos, a indústria de chips conseguiu escapar desses obstáculos físicos. Novos projetos de transístores foram apresentados para agrupar melhor os eletrões. Foram inventados novos métodos litográficos que usavam radiação ultravioleta extrema quando os comprimentos de onda da luz visível eram espessos demais para esculpir com precisão as características de silicone de apenas algumas dezenas de nanômetros. Mas o progresso tornou-se cada vez mais caro. Economistas de Stanford e do MIT calcularam que o esforço de pesquisa para sustentar a Lei de Moore aumentou em um fator de 18 desde 1971.

Da mesma forma, as fábricas dos chips mais avançados estão se a tornar demasiadamente caras. O custo de uma fábrica está a aumentar em torno de 13% ao ano e deve chegar a 13,5 mil milhões de euros (16 mil milhões de dólares) ou mais até 2022. Não é por acaso que o número de empresas com planos de fabricar a próxima geração de chips foi reduzido para apenas três, de oito em 2010 e 25 em 2002.

Encontrar sucessores para os chips de silicone de hoje levará anos de pesquisa. Se está preocupado com o que substituirá a Lei de Moore, é hora de entrar em pânico.

No entanto, a Intel – um desses três fabricantes de chips – não espera um funeral para a Lei de Moore tão cedo. Jim Keller, que assumiu o cargo de diretor de engenharia de silicone da Intel em 2018, é o homem com o trabalho de mantê-la viva. Lidera uma equipa de cerca de 8.000 engenheiros de hardware e designers de chips da Intel. Quando entrou na empresa, diz Keller, muitos estavam antecipando o fim da Lei de Moore. Se eles estavam certos, recorda-se de ter pensado: “Seria um desastre” e talvez ele tivesse feito “uma escolha profissional muito errada”.

Mas Keller encontrou amplas oportunidades técnicas para avanços. Ele ressalta que provavelmente existem mais de uma centena de variáveis ​​envolvidas na manutenção da Lei de Moore, cada uma das quais oferece benefícios diferentes e enfrenta seus próprios limites. Isso significa que existem muitas maneiras de duplicar o número de dispositivos num chip – inovações como arquiteturas 3D e novos projetos de transístor.

Atualmente, Keller parece otimista. Afirma que tem ouvido falar sobre o fim da lei de Moore desde que começou sua carreira. Depois de um tempo, “decidiu não se preocupar com isso”. Considera que a Intel está num bom caminho para os próximos 10 anos e fará as contas com satisfação: 65 mil milhões (número de transístores) vezes 32 (se a densidade de chips dobrar a cada dois anos) igual a 2 trilhiões de transístores. “Trata-se de uma melhoria de 30 vezes no desempenho “, explica ele, acrescentando que, se os programadores de software forem bons, em 10 anos poderemos ter chips 100 vezes mais rápidos do que hoje.

Ainda assim, mesmo que a Intel e outros fabricantes de chips consigam lançar mais algumas gerações de microchips ainda mais avançados, fica claro que os dias em que podia contar com os chips mais rápidos e mais baratos a cada dois anos estão acabados. No entanto, isso não significa o fim do progresso computacional.

Hora de entrar em pânico

Neil Thompson é economista, mas o seu escritório está no CSAIL, o amplo centro de computação e inteligência artificial do MIT, cercado por cientistas da robótica e cientistas da computação, incluindo o seu colaborador Leiserson. Num novo artigo, mostra um amplo propósito para aperfeiçoar o desempenho computacional por meio de melhores softwares, algoritmos e arquitetura de chip especializada.

Uma das estratégias passa por reduzir o chamado software inchado (ou bloatware) para aproveitar ao máximo os chips existentes. Quando os chips sempre podiam ser usados ​​para ficar mais rápidos e mais poderosos, os programadores não precisavam se preocupar muito em escrever códigos mais eficientes. Também não costumavam tirar o máximo proveito das alterações na arquitetura de hardware, como os múltiplos núcleos ou processadores, existentes nos chips usados ​​atualmente.

Thompson e colegas demonstraram que podiam obter um cálculo computacionalmente intensivo, que era 47 vezes mais rápido apenas mudando de Python, uma popular linguagem de programação para propósitos diversos, para C, que é mais eficiente. Isso ocorre porque, embora a linguagem C exija mais trabalho por parte do programador, também reduz bastante o número necessário de operações, permitindo que um programa seja executado muito mais rapidamente. Adaptar ainda mais o código para tirar o máximo proveito de um chip com 18 núcleos de processamento acelerou ainda mais as coisas. Em apenas 0,41 segundos, os investigadores alcançaram o mesmo resultado em sete horas com o código Python.

Tal soa como uma boa notícia para o progresso contínuo, mas Thompson preocupa-se também sinalizando o declínio dos computadores como uma tecnologia de uso geral. Em vez de “melhorar a vida de todos”, como a Lei de Moore fez, ao oferecer chips cada vez mais rápidos e baratos, disponíveis universalmente, os avanços no software e na arquitetura especializada agora vão começar a visar seletivamente problemas específicos e oportunidades de negócios, favorecendo aqueles com dinheiro e recursos suficientes.

De facto, a mudança para chips projetados para aplicações específicas, particularmente em IA, está bem encaminhada. O deep learning e outras aplicações de IA dependem cada vez mais de unidades de processamento gráfico (em inglês, Graphics Processing Unit, GPUs) adaptadas dos jogos, que podem lidar com operações paralelas, enquanto empresas como Google, Microsoft e Baidu estão projetando chips de IA para suas próprias necessidades particulares. A IA, especificamente o deep learning, precisa de muito poder computacional, e os chips especializados podem acelerar muito seu desempenho, explica Thompson.

Mas o problema é que os chips especializados são menos versáteis que os processadores tradicionais. Thompson está preocupado com o fato de os chips para a computação geral estarem a estagnar-se e a desacelerar “o ritmo geral da melhoria do computador”, como escreveu no seu último estudo, The Decline of Computers as a General Purpose Technology (em português, “O Declínio dos Computadores como Tecnologia de Uso Geral”).

Em algum momento, diz Erica Fuchs, professora de engenharia e políticas públicas da Carnegie Mellon, aqueles desenvolvendo IA e outros aplicativos terão de parar de confiar nas reduções de custo e no aumento de desempenho que a Lei de Moore oferece. “Talvez em 10 ou 30 anos – ninguém realmente sabe quando – precisaremos de um dispositivo com esse poder computacional adicional”, diz ela.

O problema, diz Fuchs, é que os sucessores dos chips de uso geral de hoje são desconhecidos e levarão anos de pesquisa e desenvolvimento básicos para criar. Se está preocupado com o que substituirá a Lei de Moore, a docente sugere: “o momento de entrar em pânico é agora”. Fuchs considera que existem “pessoas realmente inteligentes em IA que desconhecem as limitações de hardware que os avanços a longo prazo na computação enfrentam”. Além disso, explica que, como os chips específicos de aplicativos estão provando ser muito lucrativos, há pouco incentivo para investir em novos dispositivos lógicos e formas de computação.

Procura-se: Um plano Marshall para chips

Em 2018, Fuchs e os seus colegas da CMU, Hassan Khan e David Hounshell, escreveram um artigo sobre a história da lei de Moore identificando as mudanças responsáveis ​​pela atual falta de colaboração entre a indústria e o governo que promoveram o progresso nas décadas anteriores. Afirmam que “a fragmentação das trajetórias tecnológicas e a lucratividade privada de curto prazo de muitos desses novos fragmentadores” significam que devemos aumentar muito o investimento público para encontrar as próximas grandes tecnologias de computação.

Se os economistas estão certos, e grande parte do crescimento nos anos 90 e início dos anos 2000 foi resultado de microchips – e se, como alguns sugerem, o lento crescimento da produtividade iniciado em meados dos anos 2000 reflete a desaceleração do progresso computacional – então, diz Thompson, “podemos deduzir que enormes quantias de dinheiro devem ser investidas para encontrar a tecnologia sucessora. Nós não estamos a fazer isso. E é uma falha de política pública”.

No entanto, não há garantia de que esses investimentos sejam recompensados. A computação quântica, os transístores de nanotubos de carbono e até a spintrónica são possibilidades atraentes – mas nenhuma é uma substituição óbvia à promessa que Gordon Moore viu pela primeira vez num circuito integrado simples. Precisamos agora de investimentos em pesquisa para descobrir. Porque uma previsão é quase certa de se tornar realidade: sempre vamos querer mais poder de computação.

Artigo de David Rotman, Editor – MIT Technology Review EUA (adaptado)

Nossos tópicos