Em dezembro de 1947, três físicos dos Laboratórios Bell Telephone, John Bardeen, William Shockley e Walter Brattain, construíram um dispositivo eletrónico compacto usando fios finos de ouro e um pedaço de germânio, um material conhecido como semicondutor. A sua invenção, posteriormente chamada de transístor (pelo qual receberam o Prémio Nobel em 1956), podia amplificar e comutar sinais elétricos, assinalando uma grande mudança face às volumosas e frágeis válvulas de vácuo que até então alimentavam a eletrónica.
Os seus inventores não estavam à procura de um produto específico. Estavam a colocar questões fundamentais sobre o comportamento dos eletrões em semicondutores, experimentando com estados de superfície e a mobilidade desses eletrões em cristais de germânio. Após meses de tentativas e refinamentos, combinaram perceções teóricas da mecânica quântica com experimentação prática em física do estado sólido, um trabalho que muitos poderiam ter desvalorizado como excessivamente básico, académico ou pouco rentável.
Os seus esforços culminaram num momento que hoje marca o início da era da informação. Os transístores raramente recebem o devido reconhecimento, mas são a base de todos os smartphones, computadores, satélites, aparelhos de ressonância magnética, sistemas de GPS e plataformas de inteligência artificial que usamos atualmente. Com a sua capacidade de modular (e orientar) a corrente elétrica a velocidades impressionantes, os transístores tornam possível a computação e a eletrónica modernas e as do futuro.
Esta descoberta não surgiu de um plano de negócios nem de uma proposta de produto. Resultou de investigação aberta, impulsionada pela curiosidade, e de um desenvolvimento habilitante, apoiado por uma instituição que viu valor em explorar o desconhecido. Foram necessários anos de tentativa e erro, colaborações interdisciplinares e a convicção profunda de que compreender a natureza, mesmo sem uma recompensa garantida, valia a pena.
Após a primeira demonstração bem-sucedida no final de 1947, a invenção do transístor permaneceu confidencial enquanto os Laboratórios Bell registavam pedidos de patente e prosseguiam o desenvolvimento. Foi anunciada publicamente numa conferência de imprensa em 30 de junho de 1948, na cidade de Nova Iorque. A explicação científica seguiu-se num artigo seminal publicado na revista Physical Review.
Como funcionam? No seu cerne, os transístores são feitos de semicondutores, materiais como o germânio e, mais tarde, o silício, que podem conduzir ou resistir à eletricidade consoante manipulações subtis na sua estrutura e carga. Num transístor típico, uma pequena tensão aplicada a uma parte do dispositivo (a porta, gate) permite ou bloqueia a corrente elétrica que flui através de outra parte (o canal, channel). É este mecanismo simples de controlo, multiplicado por milhares de milhões, que permite que o seu telemóvel execute aplicações, o seu portátil processe imagens e o seu motor de busca devolva respostas em milissegundos.
Embora os primeiros dispositivos utilizassem germânio, os investigadores rapidamente descobriram que o silício, mais estável termicamente, resistente à humidade e muito mais abundante, era mais adequado para a produção industrial. No final da década de 1950, a transição para o silício já estava em curso, tornando possível o desenvolvimento de circuitos integrados e, eventualmente, dos microprocessadores que alimentam o mundo digital de hoje.
Um chip moderno, do tamanho de uma unha humana, contém hoje dezenas de milhares de milhões de transístores de silício, cada um medido em nanómetros, menores do que muitos vírus. Estes minúsculos interruptores ligam e desligam milhares de milhões de vezes por segundo, controlando o fluxo de sinais elétricos envolvidos em computação, armazenamento de dados, processamento de áudio e vídeo e Inteligência Artificial. Formam a infraestrutura fundamental por trás de quase todos os dispositivos digitais em uso atualmente.
A indústria global de semicondutores vale hoje mais de 500 mil milhões de dólares. Dispositivos que começaram como protótipos experimentais num laboratório de física sustentam agora economias, segurança nacional, saúde, educação e comunicação global. Mas a história de origem do transístor transporta uma lição mais profunda, uma lição que corremos o risco de esquecer.
Grande parte do conhecimento fundamental que impulsionou a tecnologia dos transístores veio de investigação universitária financiada pelo governo federal dos EUA. Quase um quarto da investigação sobre transístores nos Laboratórios Bell na década de 1950 foi apoiada pelo governo federal. Grande parte do restante foi subsidiada pela receita do monopólio da AT&T sobre o sistema telefónico dos EUA, que alimentava o investimento em I&D industrial.
Inspirado pelo relatório de 1945, “Science: The Endless Frontier”, escrito por Vannevar Bush a pedido do presidente Truman, o governo dos EUA iniciou uma tradição duradoura de investir em investigação básica. Esses investimentos trouxeram retornos consistentes em muitos domínios científicos, da energia nuclear aos lasers, e das tecnologias médicas à Inteligência Artificial. Formadas em investigação fundamental, gerações de estudantes saíram dos laboratórios universitários com o conhecimento e as competências necessários para levar a tecnologia existente para além das suas capacidades conhecidas.
E, ainda assim, o financiamento da ciência básica, e da educação de quem a pode seguir, está sob pressão crescente. O novo orçamento federal proposto pela Casa Branca inclui cortes profundos no Departamento de Energia e na National Science Foundation (NSF), embora o Congresso se possa afastar dessas recomendações. Já os National Institutes of Health (Institutos Nacionais de Saúde, NIH) cancelaram ou suspenderam mais de 1,9 mil milhões de dólares em bolsas, enquanto os programas de educação CTEM da NSF sofreram mais de 700 milhões de dólares em encerramentos.
Estas perdas forçaram algumas universidades a congelar as admissões de estudantes de pós-graduação, a cancelar estágios e a reduzir oportunidades de investigação de verão, tornando mais difícil para os jovens seguirem carreiras científicas e de engenharia. Numa era dominada por métricas de curto prazo e retornos rápidos, pode ser difícil justificar investigação cujas aplicações podem não se materializar durante décadas. Mas são precisamente estes tipos de esforços que devemos apoiar se quisermos garantir o nosso futuro tecnológico.
Pense em John McCarthy, o matemático e cientista informático que cunhou o termo “inteligência artificial”. No final da década de 1950, enquanto estava no MIT, liderou um dos primeiros grupos de IA e desenvolveu o Lisp, uma linguagem de programação ainda hoje utilizada em computação científica e aplicações de IA. Na época, a IA prática parecia distante. Mas esse trabalho fundamental inicial lançou as bases para o mundo movido por IA que temos atualmente.
Após o entusiasmo inicial dos anos 1950 aos anos 1970, o interesse por redes neurais — uma das principais arquiteturas de IA de hoje, inspirada no cérebro humano — declinou durante os chamados “invernos da IA” do final dos anos 1990 e início dos anos 2000. Dados limitados, poder computacional inadequado e lacunas teóricas dificultavam o avanço da área. Ainda assim, investigadores como Geoffrey Hinton e John Hopfield perseveraram. Hopfield, hoje laureado com o Nobel da Física em 2024, apresentou pela primeira vez o seu modelo inovador de rede neural em 1982, num artigo publicado nos Anais da Academia Nacional de Ciências dos Estados Unidos. O seu trabalho revelou as profundas ligações entre computação coletiva e o comportamento de sistemas magnéticos desordenados. Juntamente com os trabalhos de colegas, incluindo Hinton, que recebeu o Nobel no mesmo ano, essa investigação fundamental lançou as bases para a explosão das tecnologias de aprendizagem profunda (deep learning) que vemos hoje.
Uma das razões pelas quais as redes neurais prosperam atualmente é a unidade de processamento gráfico, ou GPU, originalmente concebida para jogos, mas hoje essencial para operações intensivas em matrizes na IA. Estes chips dependem, por sua vez, de décadas de investigação fundamental em ciência dos materiais e física do estado sólido: materiais com alta constante dielétrica, ligas de silício sob tensão e outros avanços que tornaram possível produzir os transístores mais eficientes. Estamos agora a entrar noutra fronteira, explorando memristores, materiais de mudança de fase e bidimensionais, e dispositivos spintrónicos.
Se está a ler isto num telemóvel ou num portátil, está a segurar o resultado de uma aposta que alguém fez, um dia, movido pela curiosidade. Essa mesma curiosidade continua viva em universidades e laboratórios de investigação, em trabalhos muitas vezes pouco glamorosos, por vezes obscuros, que silenciosamente lançam as bases de revoluções que se irão infiltrar em alguns dos aspetos mais essenciais das nossas vidas daqui a 50 anos. Na principal revista de física onde sou editor, os meus colaboradores e eu vemos o trabalho meticuloso e a dedicação por detrás de cada artigo com que lidamos. A nossa economia moderna, com gigantes como a NVIDIA, a Microsoft, a Apple, a Amazon e a Alphabet, seria inimaginável sem o humilde transístor e sem a paixão pelo conhecimento que alimenta a curiosidade incansável de cientistas como aqueles que o tornaram possível.
O próximo transístor pode nem sequer assemelhar-se a um interruptor. Pode emergir de novos tipos de materiais (como quânticos, híbridos orgânico-inorgânicos ou hierárquicos) ou de ferramentas que ainda nem imaginamos. Mas precisará dos mesmos ingredientes: conhecimento fundamental sólido, recursos e liberdade para perseguir questões em aberto movidas pela curiosidade, colaboração e, sobretudo, o apoio financeiro de quem acredita que o risco vale a pena.