Hoje, microchips de silício estão presentes em todos
os aspectos da computação digital. Mas seu domínio nunca foi uma conclusão óbvia. Ao longo da década de 1950, engenheiros elétricos e outros pesquisadores
exploraram muitas alternativas para construir os computadores digitais.
Uma delas instigou a imaginação da Agência Nacional de
Segurança (NSA) dos EUA: um supercomputador
supercondutor. Tal máquina poderia tirar proveito dos materiais supercondutores
que ao serem refrigerados não exibem qualquer resistência elétrica. Essa
propriedade extraordinária traz a promessa de computadores que poderiam processar
números e códigos mais rápidos do que os sistemas baseados em transistores e
consumiria muito menos energia.
Por seis décadas, a
partir de meados de 1950 até hoje, a NSA tem repetidamente
perseguido esse sonho, em parceria com pesquisadores industriais e acadêmicos. A
agência patrocinou projetos significativos para construir um computador
supercondutor. Porém, o esforço foi abandonado em face do ritmo acelerado da
Lei de Moore e o aumento surpreendente no desempenho e redução no custo de
microchips de silício.
Agora a Lei de Moore está
balbuciando, e os fabricantes de supercomputadores do mundo todo estão
enfrentando uma crise energética. Simuladores de armas nucleares, criptógrafos
e outros, almejam os supercomputadores em exoescala capazes de rodar 1.000
petaflops - 1 milhão de trilhões de operações de ponto flutuante por segundo - ou
mais. O supercomputador mais rápido do mundo está na China e possui capacidade de 34 petaflops e consome
cerca de 18 megawatts de energia. Isso é aproximadamente a quantidade de
eletricidade usada instantaneamente por 14.000 famílias dos EUA. Projeções
variam dependendo do tipo de arquitetura do computador usado, mas uma máquina em
exoescala construída com os melhores microchips de silício de hoje, podem requerer centenas de megawatts.
A busca pela exoescala
pode levar ao computador supercondutor. E a IARPA (Intelligence AdvancedResearch Projects Activity), está fazendo o máximo que pode. Com novas formas
de lógica e memória supercondutora em desenvolvimento, a IARPA lançou um programa ambicioso para
criar as peças fundamentais de um supercomputador supercondutor. Nos próximos
anos, o esforço pode mostrar se a tecnologia realmente irá bater o silício.
O sonho da NSA foi inspirado
pelo engenheiro elétrico Dudley Buck. Quando se mudou para o MIT em 1950, Buck
permaneceu como um consultor militar, mantendo a Agência de Segurança das Forças
Armadas, que rapidamente se tornou a NSA, a par dos novos desenvolvimentos de
computação em Cambridge.
Na década
de 1950, Dudley Buck imaginou computadores rápidos e eficientes em termos
energéticos. Estes o levaram ao seu comutador supercondutor, o criotron.
Buck logo relatou em
seu próprio trabalho uma nova chave supercondutora, ele batizou de criotron. O
dispositivo funciona por comutação de um material entre o seu estado normal e o estado supercondutor. Certo número de elementos metálicos supercondutores e
ligas chegam a esse estado quando são resfriados abaixo de uma temperatura crítica
próxima do zero absoluto. Uma vez que o material se torna supercondutor, um campo
magnético suficientemente forte pode trazer o material de volta ao seu estado
normal.
Neste processo, Buck
viu um disjuntor digital. Ele enrolou um minúsculo fio "controle"
em torno de um fio "porta", e mergulhou o par em hélio líquido.
Quando a corrente fluiu através do controle, o campo magnético criou uma porta
em seu estado de resistência normal. Quando a corrente de controle foi desligada,
a porta tornou-se supercondutora novamente.
Buck pensou que os criotrons
poderiam ser usados para moldar computadores rápidos e energeticamente
eficientes. A NSA financiou o seu trabalho em circuitos
de memória criotron, bem como um projeto mais
amplo sobre circuitos criotron digitais da IBM.
Engenheiros continuaram
o desenvolvimento dos circuitos criotrons na década de 1960, apesar da morte
súbita e prematura de Buck em 1959. Mas as baixíssimas temperaturas do hélio líquido
e o tempo necessário para os materiais transitarem entre os estados
supercondutor-normal limitaram as velocidades de chaveamento. A NSA,
eventualmente, cessou o financiamento, e muitos pesquisadores trocaram a
eletrônica supercondutora pela do silício.
Em 1962, o físico
britânico Brian Josephson fez uma previsão sobre o tunelamento
quântico em supercondutores. No tunelamento, os elétrons passam através de uma
barreira isolante, promovidos por um impulso de tensão; o fluxo de elétrons
ocorre com alguma resistência. Mas Josephson previu que se a barreira isolante
entre dois supercondutores é fina o suficiente, uma supercorrente de elétrons pode
fluir por ela sem resistência, como se a barreira não estivesse lá. Isso ficou
conhecido como o efeito Josephson, e uma chave baseada no efeito foi obtida.
Pesquisadores da IBM
desenvolveram uma versão dessa opção em meados da década de 1960. A parte ativa
do dispositivo era uma linha de supercondutores metálicos, separados por uma
fina camada de óxido. A supercorrente tunelava através da barreira, mas só até
certo ponto; se a corrente atingisse um dado valor, o dispositivo passava ao
estado normal. O limite era ajustado por um campo magnético gerado pelo fluxo
de corrente em uma linha de controle supercondutora vizinha. Se o dispositivo
operasse perto do limite da corrente, uma pequena corrente no controle poderia
mudar o limite. Ao contrário do criotron de Buck, os materiais deste
dispositivo sempre se mantinham supercondutores, tornando a chave eletrônica muito
mais rápida.
Em 1973 a IBM estava
trabalhando na construção de um supercomputador supercondutor baseado em
junções Josephson. A unidade básica de seus circuitos foi um loop supercondutor
com junções Josephson, conhecido como ‘dispositivo supercondutor de
interferência quântica’, ou SQUID. A NSA cobria uma fração substancial dos
custos.
Corrente em um loop supercondutor contendo uma junção Josephson, uma barreira não supercondutora gera um campo magnético com um pequeno valor, quantificado.
O programa do supercomputador supercondutor da IBM
funcionou por mais de 10 anos, a um custo de cerca de US$ 250 milhões de
dólares. As junções Josephson são principalmente feitas de liga de chumbo e
óxido de chumbo. No final do projeto, os engenheiros ligaram a uma barreira de
óxido de nióbio, imprensado entre uma liga de chumbo e uma película de nióbio,
um arranjo que produziu dispositivos mais confiáveis. Mas enquanto o projeto fazia
grandes progressos, os executivos da empresa não estavam convencidos de que um
eventual supercomputador baseado na tecnologia poderia competir com os
microchips avançados de silício. Em 1983, a IBM encerrou o programa sem
nunca ter construído um computador baseado nas junções Josephson.
Image: IBM. Circuitos Josephson de 1970.
Inspirado no projeto
da IBM, o ministério industrial do Japão lançou um esforço do computador
supercondutor em 1981. A parceria da pesquisa durou oito anos e produziu um
verdadeiro computador que funcionava com junções Josephson. Era uma máquina pequena,
de 4 bits, com apenas 1000 bits de RAM, mas poderia até rodar um programa. Porém, o
projeto também foi abandonado na mesma perspectiva da IBM.
Foto: AIST. Um
computador completo: O ETL-JC1, um computador supercondutor desenvolvido no Japão, incluía quatro chips de circuitos integrados baseados em junções
Josephson, para a lógica
e para a memória.
Novos desenvolvimentos
surgiram fora destes programas. Em 1983, pesquisadores da Bell Telephone
Laboratories construíram junções Josephson de nióbio separadas por finas camadas
de óxido de alumínio. Os novos comutadores supercondutores eram
extraordinariamente seguros e podiam ser fabricados utilizando um processo
simplificado da mesma maneira que os microchips de silício.
Em 1985, pesquisadores
da Universidade Estadual de Moscou propuseram
um novo tipo de lógica supercondutora. Originalmente apelidado de resistiva,
então renomeada lógica "rápida" de um único fluxo quântico, ou RSFQ (“rapid” single-flux-quantum logic), tirou
proveito do fato de que uma junção Josephson pode emitir minúsculos pulsos de
tensão. Integrado ao longo do tempo, eles assumem valores quantizados,
múltiplos inteiros de um valor minúsculo chamado de fluxo quântico, medido em microvolts.
Imagem: Hypres. Fluxo magnético
ejetado de um circuito supercondutor através de uma junção Josephson pode
assumir a forma de minúsculos pulsos
tensão. A presença ou ausência de um
impulso, em um determinado período de tempo, pode
ser usado para realizar cálculos.
Ao usar tais pulsos,
cada um com duração de um picossegundo, a RSFQ prometeu aumentar as velocidades
para valores superiores a 100 gigahertz. Além disso, uma junção Josephson gasta
energia na faixa de apenas um milionésimo de um picojoule, consideravelmente
menos do que consumido por transistores de silício.
As junções Josephson do
Bell Labs e a RSFQ da Universidade Estadual de Moscou reacenderam o interesse na
eletrônica supercondutora. Em 1997, os EUA lançaram o projeto Hybrid Technology Multi-Threaded (HTMT),
que foi apoiado pela NSA e outras agências. O objetivo da HTMT era bater o nível
de supercomputação convencional do silício, usando circuitos integrados RSFQ e outras
tecnologias.
Foto: Judy Conlon/NASA. O projeto Hybrid Technology Multi-Threaded utilizou
uma nova forma de lógica supercondutora chamada RSFQ (“rapid” single-flux-quantum logic). O membro da equipe Dmitry Zinoviev é mostrado segurando uma garrafa de
hélio líquido.
Era um programa
ambicioso que enfrentou uma série de desafios. Os próprios circuitos RSFQ limitavam
o potencial de eficiência da computação. Para alcançar uma velocidade elevada, a
RSFQ usa resistências para proporcionar polarizações elétricas às junções
Josephson, a fim de mantê-las perto do limite da comutação. Em um experimento
com circuitos RSFQ de vários milhares de junções Josephson polarizáveis, a
dissipação de energia estática foi insignificante. Mas em um supercomputador de
escala petaflop, possivelmente com muitos bilhões de tais dispositivos, haveria
significativo consumo de energia.
O projeto HTMT
terminou em 2000. Oito anos mais tarde, um supercomputador convencional da IBM
foi apontado como o
primeiro a alcançar o funcionamento em petaflop. Ele continha cerca de
20.000 microprocessadores de silício e consumiu 2,3 megawatts.
Para muitos pesquisadores que
trabalham com a eletrônica supercondutora, o período por volta do ano 2000
marcou uma mudança: a computação quântica. Esta nova direção foi inspirada pelo
trabalho do matemático Peter Shor,
que sugeriu que um computador quântico pode ser uma poderosa ferramenta criptoanalítica,
capaz de decifrar rapidamente comunicações criptografadas. Em seguida, os
projetos em computação quântica e circuitos digitais supercondutores estavam
sendo patrocinados pela NSA e a DARPA.
Ninguém sabia como
construir um computador quântico, mas muitas pessoas tinham ideias. Na IBM e em
outros lugares, engenheiros e cientistas se voltaram para os principais pilares
do supercondutor eletrônico, os SQUIDs e as junções Josephson. Um SQUID exibe
efeitos quânticos sob operação normal, e foi bastante simples configurá-lo para
funcionar como um bit quântico, ou qubit.
Um dos centros deste
trabalho foi o laboratório de ciências
físicas da NSA. Construído perto da Universidade de Maryland, o laboratório
é um espaço onde a NSA e pesquisadores externos podem colaborar em trabalhos
relevantes para a insaciável sede da agência pelo poder da computação.
No início dos anos de 2010,
Marc Manheimer foi chefe da computação quântica no laboratório. Como ele
recordou recentemente em uma entrevista, ele viu uma necessidade premente de
circuitos digitais convencionais que poderiam cercar fisicamente bits
quânticos, a fim de controlá-los e corrigir erros em escalas de tempo muito
curtos. A maneira mais fácil de fazer isso, ele pensou, seria com elementos supercondutores,
que poderiam operar com níveis de tensão e corrente semelhantes àqueles que
controlariam os circuitos contendo qubits. Links ópticos poderiam ser usados
para conectar este sistema híbrido com o mundo exterior e a computadores
convencionais de silício.
Manheimer afirma ainda
que se tornou ciente do crescente problema do poder de computação do silício de
alta performance, bem como os grandes bancos de servidores em centros de dados
comerciais. “Quanto mais perto eu olhei para a lógica supercondutora”,
diz ele, “ficou claro que tinha valor para a supercomputação”.
Manheimer propôs um
novo ataque direto no supercomputador supercondutor. Inicialmente ele estava
cético. “Há uma história de fracasso”, disse ele.
Mas, no início de 2013, tinha convencido a IARPA a financiar um programa chamado
Cryogenic Computing
Complexity (C3).
A primeira fase do C3 foi a criação e
avaliação de circuitos lógicos supercondutores e sistemas de memória, a serem
fabricados no MIT
Lincoln Laboratory - o mesmo laboratório onde Dudley Buck trabalhou.
Em 2011, Quentin Herr da
Northrop Grumman
relatou uma alternativa interessante, uma forma diferente da lógica quântica
chamada lógica quântica recíproca. Um circuito RQL consome 1/100.000 da energia
do melhor circuito equivalente CMOS (complementary metal-oxide-semiconductor) e muito menos energia do que um circuito
RSFQ equivalente.
Uma lógica de semelhante
eficiência energética chamada ERSFQ
foi desenvolvida pela fabricante de eletrônicos supercondutores Hypres. A Hypres
está trabalhando com a IBM, que continuou o seu trabalho fundamental de dispositivo
supercondutor, mesmo depois de cancelar seu projeto de supercomputador.
A Hypres também está colaborando com uma equipe
do C3 liderada pelo laboratório Raytheon BBN
Technologies, que tem sido ativo na pesquisa de computação quântica por
vários anos. Lá, o físico Thomas Ohki e seus colegas vêm trabalhando em um
sistema de memória criogênica que utiliza lógica supercondutora de baixo consumo
para controlar, ler, e escrever em alta densidade, na magnetoresistiva RAM. Esse
tipo de memória é outra mudança da computação supercondutora. Células de
memória RSFQ são muito grandes. Memórias nanomagnéticas mais
compactos, originalmente desenvolvidas para ajudar a estender a Lei de Moore,
podem funcionar bem em baixas temperaturas.
O circuito
supercondutor mais avançado do mundo usa dispositivos baseados em nióbio.
Embora tais dispositivos operem em torno de 4 Kelvin acima do zero absoluto,
Manheimer diz que refrigerar é uma questão trivial.
Uma grande questão tem
sido a quantidade de energia necessária para o resfriamento, que eleva o
orçamento de um computador supercondutor. Mas os defensores sugerem que não deve
ser muito. Eles dizem que “a
potência dissipada em um computador supercondutor é tão pequena que permanece
100 vezes mais eficiente do que um computador de silício”.
O foco agora do C3 está
nos componentes fundamentais. Essa primeira fase, que irá até 2017, pretende
demonstrar os componentes centrais de um sistema de computador: um conjunto de
circuitos lógicos de 64 bits capaz de rodar a uma taxa de 10 GHz e uma rede de memória
criogênica com capacidade de 250 megabytes. Se esse esforço for bem sucedido,
uma segunda fase de dois anos irá integrar esses componentes em um computador
criogênico de tamanho ainda não especificado. Se o protótipo for considerado
promissor, Manheimer estima que deve ser possível criar um verdadeiro
computador supercondutor em 5 a 10 anos.
Tal sistema seria
muito menor do que os supercomputadores baseados em CMOS e requerem muito menos
energia. Manheimer projeta
que um supercomputador supercondutor produzido em seguida ao C3 pode rodar
a 100 petaflops e consumir 200 quilowatts, incluindo o sistema de refrigeração.
Seria 1/20 do tamanho do Titã, atualmente o supercomputador mais rápido nos
Estados Unidos, mas oferece mais de cinco vezes o desempenho por 1/40 do consumo.
Fonte: IEEE Transactions on
Applied Superconductivity, vol. 23, # 1701610; Marc Manheimer. Performance exige poder.
Os supercomputadores mais poderosos de
hoje consomem múltiplos megawatts (vermelho), sem incluir o arrefecimento. Computadores supercondutores com sistemas de refrigeração
incluídos, são projetados para reduzir
drasticamente esses requisitos de
energia (azul).
Um supercomputador com
esses recursos, obviamente, representaria um salto enorme. Mas o destino do
supercomputador supercondutor depende fortemente do que acontece com o silício.
Enquanto um computador em exoescala feito com os atuais chips de silício pode
não ser prático, grande esforço e bilhões de dólares estão sendo gastos em
continuar a encolher os transistores de silício, bem como no desenvolvimento de
ligações ópticas e de empilhamento 3-D. Tais tecnologias podem fazer uma grande
diferença. Em julho de 2015, o presidente Barack Obama anunciou a National
Strategic Computing Initiative e pediu a criação de um supercomputador em
exoescala. O trabalho da IARPA sobre alternativas ao silício é parte dessa
iniciativa. Para meados da década de 2020 especula-se que seja construída a
primeira máquina em exoescala à base de silício. Se essa meta for cumprida, a
chegada de um supercomputador supercondutor provavelmente seria adiada mais uma
vez.
Mas é muito cedo para
contar com a computação supercondutora. Em comparação com o enorme investimento
contínuo no silício ao longo das décadas, a computação supercondutora teve
apoio escasso e intermitente. No entanto, mesmo com esta dieta de subsistência,
físicos e engenheiros têm produzido uma sequencia impressionante de avanços. O
apoio do programa C3, juntamente com a maior atenção da comunidade de
computação, poderia levar a tecnologia adiante de forma significativa. Se tudo
correr bem, os computadores supercondutores podem finalmente vir do frio.