O que virá a seguir em chips
Negócios e Economia

O que virá a seguir em chips

Como as Big Techs, as startups, os dispositivos de IA e as guerras comerciais vão transformar a forma como os chips são fabricados e as tecnologias que utilizam.

Graças ao boom da Inteligência Artificial, o mundo dos chips está à beira de uma enorme transformação. Há uma procura crescente por chips que possam treinar modelos de IA mais rapidamente e que possam ser usados em dispositivos como smartphones e satélites, permitindo-nos utilizar esses modelos sem revelar dados privados. Governos, gigantes da tecnologia e startups estão a competir para garantir a sua fatia no crescente mercado de semicondutores.

Aqui estão quatro tendências a observar no próximo ano, que definirão como serão os chips do futuro, quem os fabricará e quais novas tecnologias serão desbloqueadas.

Leis CHIPS ao redor do mundo

Nos arredores de Phoenix, dois dos maiores fabricantes de chips do mundo, TSMC e Intel, estão a correr para construir campi no deserto, na esperança de que se tornem os centros da indústria americana de fabricação de chips. Um ponto comum nestes esforços é o financiamento: em março, o Presidente Joe Biden anunciou 8,5 mil milhões de dólares em fundos federais diretos e 11 mil milhões de dólares em empréstimos para as expansões da Intel em todo o país. Semanas depois, foram anunciados mais 6,6 mil milhões de dólares para a TSMC.

Os subsídios são apenas uma parte dos fundos americanos que estão a ser investidos na indústria de chips através da Lei CHIPS e Ciência de 280 mil milhões de dólares, assinada em 2022. Este financiamento significa que qualquer empresa com uma presença no ecossistema dos semicondutores está a analisar como reestruturar as suas cadeias de abastecimento para beneficiar destes fundos. Embora grande parte do dinheiro vise impulsionar a fabricação de chips nos EUA, há espaço para outros actores se candidatarem, desde fabricantes de equipamentos até startups de materiais especializados.

Mas os EUA não são o único país a tentar internalizar parte da cadeia de fornecimento de fabricação de chips. O Japão está a gastar 13 mil milhões de dólares no seu próprio equivalente à Lei CHIPS, a Europa gastará mais de 47 mil milhões de dólares e, no início deste ano, a Índia anunciou um esforço de 15 mil milhões de dólares para construir fábricas de chips locais. As raízes desta tendência remontam a 2014, diz Chris Miller, professor na Universidade Tufts e autor de “Chip War: The Fight for the

World’s Most Critical Technology”. Foi quando a China começou a oferecer subsídios massivos aos seus fabricantes de chips.

“Isto criou uma dinâmica em que outros governos concluíram que não tinham escolha senão oferecer incentivos ou ver as empresas transferirem a fabricação para a China”, diz ele. Essa ameaça, juntamente com o aumento da IA, levou os governos ocidentais a financiar alternativas. No próximo ano, isso pode ter um efeito bola de neve, com ainda mais países a iniciarem os seus próprios programas por receio de ficarem para trás.

Miller afirma que o financiamento provavelmente não levará ao surgimento de novos concorrentes de chips ou reestruturará fundamentalmente quem são os maiores players de chips. Em vez disso, incentivará principalmente os players dominantes, como a TSMC, a estabelecer raízes em múltiplos países. Mas apenas o financiamento não será suficiente para fazer isso rapidamente—a tentativa da TSMC de construir fábricas no Arizona tem sido atolada por prazos não cumpridos e disputas laborais, e a Intel também falhou em cumprir os seus prazos prometidos. E não está claro se, sempre que as fábricas entrarem em operação, os seus equipamentos e força de trabalho serão capazes de atingir o mesmo nível de fabricação avançada de chips que as empresas mantêm no exterior.

“A cadeia de fornecimento só mudará lentamente, ao longo de anos e décadas”, diz Miller. “Mas está a mudar.”

Mais IA na periferia

Atualmente, a maioria das nossas interações com modelos de IA, como o ChatGPT, são feitas através da nuvem. Isso significa que, quando pede ao GPT para escolher um traje (ou para ser seu namorado), o seu pedido é enviado para os servidores da OpenAI, onde o modelo processa e tira conclusões (conhecido como “inferência”) antes de

uma resposta ser enviada de volta para si. Confiar na nuvem tem algumas desvantagens: requer acesso à internet, por exemplo, e também significa que alguns dos seus dados são partilhados com o fabricante do modelo.

É por isso que há muito interesse e investimento em computação periférica para IA, onde o processo de interagir com o modelo de IA acontece diretamente no seu dispositivo, como um laptop ou smartphone. Com a indústria a trabalhar cada vez mais para um futuro em que os modelos de IA saibam muito sobre nós (Sam Altman descreveu a sua aplicação de IA ideal como uma que sabe “absolutamente tudo sobre a minha vida inteira, cada e-mail, cada conversa que já tive”), há uma procura por chips “periféricos” mais rápidos que possam executar modelos sem partilhar dados privados. Esses chips enfrentam diferentes restrições em comparação com os dos centros de dados: normalmente precisam ser menores, mais baratos e mais eficientes em termos de energia.

O Departamento de Defesa dos EUA está a financiar muitas pesquisas em computação periférica rápida e privada. Em março, a sua ala de pesquisa, a Defense Advanced Research Projects Agency (DARPA), anunciou uma parceria com a fabricante de chips EnCharge AI para criar um chip de computação periférica ultra-poderoso usado para inferência de IA. A EnCharge AI está a trabalhar para fazer um chip que permita maior privacidade, mas que também possa operar com muito pouca energia. Isso torná-lo-á adequado para aplicações militares, como satélites e equipamentos de vigilância fora da rede. A empresa espera enviar os chips em 2025.

Os modelos de IA sempre dependerão da nuvem para algumas aplicações, mas o novo investimento e interesse em melhorar a computação periférica pode trazer chips mais rápidos, e, portanto, mais IA, para os nossos dispositivos do dia a dia. Se os chips periféricos se tornarem pequenos e baratos o suficiente, é provável que vejamos ainda mais dispositivos “inteligentes” movidos por IA nas nossas casas e locais de trabalho. Hoje, os modelos de IA estão principalmente confinados aos centros de dados.

“Muitos dos desafios que vemos no centro de dados serão superados”, diz Naveen Verma, cofundador da EnCharge AI. “Espero ver um grande foco na periferia. Acho que será crucial para levar a IA à escala.”

Gigantes da tecnologia entram na fabricação de chips

Em indústrias que vão desde a moda rápida até o cuidado com o jardim, as empresas estão a gastar quantias exorbitantes em custos de computação para criar e treinar modelos de IA para os seus negócios. Exemplos incluem modelos que os funcionários podem usar para digitalizar e resumir documentos, bem como tecnologias voltadas para o público, como agentes virtuais que podem orientá-lo sobre como reparar o seu frigorífico avariado. Isso significa que a procura por computação em nuvem para treinar esses modelos está a disparar.

As empresas que fornecem a maior parte desse poder de computação são Amazon, Microsoft e Google. Há anos que esses gigantes da tecnologia sonham aumentar as suas margens de lucro fazendo chips para os seus centros de dados internamente, em vez de comprar de empresas como a Nvidia, um gigante com quase monopólio sobre os chips de treinamento de IA mais avançados e um valor maior do que o PIB de 183 países.

A Amazon começou o seu esforço em 2015, adquirindo a startup Annapurna Labs. O Google seguiu em 2018 com os seus próprios chips chamados TPUs. A Microsoft lançou os seus primeiros chips de IA em novembro e a Meta revelou uma nova versão dos seus próprios chips de treinamento de IA em abril.

Essa tendência pode inclinar a balança contra a Nvidia. Mas a Nvidia não é apenas vista como rival pelos grandes da tecnologia: independentemente dos seus próprios esforços internos, os gigantes da nuvem ainda precisam dos chips da Nvidia para os seus centros de dados. Isso deve-se em parte ao facto de que os seus próprios esforços de fabricação de chips não conseguem suprir todas as suas necessidades, mas também porque os seus clientes esperam poder usar os chips mais avançados da Nvidia.

“Isto é realmente sobre dar aos clientes a escolha”, diz Rani Borkar, que lidera os esforços de hardware na Microsoft Azure. Ela diz que não consegue imaginar um futuro em que a Microsoft forneça todos os chips para os seus serviços em nuvem: “Continuaremos as nossas fortes parcerias e implantaremos chips de todos os parceiros de silício com os quais trabalhamos.”

À medida que os gigantes da computação em nuvem tentam roubar uma parte do mercado dos fabricantes de chips, a Nvidia também está a tentar o inverso. No ano passado, a empresa iniciou o seu próprio serviço em nuvem para que os clientes possam evitar a Amazon, o Google ou a Microsoft e obter tempo de computação diretamente nos chips da Nvidia. À medida que esta dramática luta por participação de mercado se desenrola, o próximo ano será sobre se os clientes veem os chips das grandes tecnologias como equivalentes aos chips mais avançados da Nvidia ou mais como seus pequenos primos.

Nvidia enfrenta as startups

Apesar do domínio da Nvidia, há uma onda de investimentos a fluir para startups que visam superá-la em certos segmentos do mercado de chips do futuro. Essas startups prometem treinamento de IA mais rápido, mas têm ideias diferentes sobre qual tecnologia de computação chamativa as levará lá, desde o quantum até a fotónica e a computação reversível.

Mas Murat Onen, o fundador de 28 anos de uma dessas startups de chips, a Eva, que ele fundou a partir do seu trabalho de doutoramento no MIT, é franco sobre o que é iniciar uma empresa de chips neste momento.

“O rei da colina é a Nvidia, e esse é o mundo em que vivemos”, diz ele.

Muitas dessas empresas, como a SambaNova, Cerebras e Graphcore, estão a tentar mudar a arquitetura subjacente dos chips. Imagine um chip acelerador de IA como tendo que constantemente mover dados de um lado para o outro entre diferentes áreas: uma informação é armazenada na zona de memória, mas precisa ser movida para a zona de processamento, onde um cálculo é feito, e depois ser armazenada de volta na zona de memória para ser guardada. Tudo isso leva tempo e energia.

Tornar esse processo mais eficiente proporcionaria treinamento de IA mais rápido e barato para os clientes, mas apenas se o fabricante de chips tiver software suficientemente bom para permitir que a empresa de treinamento de IA faça a transição sem problemas para o novo chip. Se a transição de software for muito complicada, os fabricantes de modelos, como a OpenAI, a Anthropic e a Mistral, provavelmente permanecerão com os fabricantes de chips de renome. Isso significa que as empresas que adotam essa abordagem, como a SambaNova, passam muito do seu tempo não apenas no design de chips, mas também no design de software.

Onen está a propor mudanças num nível mais profundo. Em vez de transistores tradicionais, que têm proporcionado maior eficiência ao longo das décadas ficando cada vez menores, ele está a usar um novo componente chamado transistor com porta de prótons que, segundo ele, a Eva projetou especificamente para as necessidades matemáticas do treinamento de IA. Ele permite que os dispositivos armazenem e processem dados no mesmo lugar, economizando tempo e energia de computação. A ideia de usar tal componente para inferência de IA remonta à década de 1960, mas os investigadores nunca conseguiram descobrir como usá-lo para treinamento de IA, em parte por causa de um bloqueio de materiais—requer um material que possa, entre outras qualidades, controlar com precisão a condutividade à temperatura ambiente.

Um dia no laboratório, “através da optimização desses números e tendo muita sorte, conseguimos o material que queríamos”, diz Onen. “De repente, o dispositivo não é mais um projeto de feira de ciências.” Isso levantou a possibilidade de usar tal componente em escala. Depois de meses a trabalhar para confirmar que os dados estavam corretos, ele fundou a Eva, e o trabalho foi publicado na Science.

Mas num setor onde tantos fundadores prometeram—e falharam—derrubar o domínio dos principais fabricantes de chips, Onen admite francamente que levará anos até saber se o design funcionará como previsto e se os fabricantes concordarão em produzi-lo. Liderar uma empresa através dessa incerteza, diz ele, requer flexibilidade e um apetite por ceticismo dos outros.

“Acho que às vezes as pessoas se sentem muito apegadas às suas ideias e depois sentem-se inseguras de que, se isso desaparecer, não haverá mais nada”, diz ele. “Não acho que me sinta assim. Ainda estou à procura de pessoas para nos desafiarem e dizerem que isto está errado.”

Nossos tópicos