Aplicações da Supercondutividade - O skate voador da Lexus

Mostrando postagens com marcador computador quântico. Mostrar todas as postagens
Mostrando postagens com marcador computador quântico. Mostrar todas as postagens

quarta-feira, 28 de março de 2018

Google apresenta processador quântico de 72 qubits


Redação do Site Inovação Tecnológica -  07/03/2018

À esquerda, o protótipo do Bristlecone. À direita, um esquema do processador onde cada X representa um qubit, com as conexões aos qubits mais próximos. [Imagem: Google Labs]


Engenheiros do Quantum AI Lab, o laboratório do Google responsável pelas pesquisas em computação quântica e outras tecnologias avançadas, apresentaram seu mais novo processador quântico. O processador, batizado de Bristlecone, tem 72 qubits do tipo supercondutor.
A empresa afirma que o objetivo deste protótipo é funcionar como plataforma de testes para melhorar as taxas de correção de erros, um dos grandes desafios da computação quântica, e a escalabilidade, ou seja, a engenharia necessária para ir acrescentando bits quânticos adicionais.
Na verdade, o Bristlecone já é um escalonamento de uma versão anterior de 9 qubits. Essa versão anterior apresentou taxas de erro consideradas baixas: 1% na leitura dos valores gravados, 0,1% na confiabilidade das portas de um qubit e, mais importante em termos práticos, 0,6% nas portas de dois qubits.
O consenso entre os pesquisadores da área é que a chamada "supremacia quântica", o ponto a partir do qual os processadores quânticos podem superar os processadores eletrônicos clássicos, será alcançada com um processador quântico de pelo menos 49 qubits que apresente uma taxa de erro máxima de 0,5%.
Como servirá como plataforma de testes, a empresa ainda não anunciou as taxas de erro do Bristlecone. De qualquer forma, a opção por aumentar largamente o número de qubits, sem se limitar aos 49 qubits que a teoria aponta como fronteira para a supremacia quântica, como fez a Intel recentemente, dá aos projetistas um campo mais amplo para experimentações e testes.
“Nós escolhemos um dispositivo deste tamanho para podermos demonstrar a supremacia quântica no futuro, para investigar a correção de erros de primeira e segunda ordens usando código de superfície, e para facilitar o desenvolvimento de algoritmos quânticos em um hardware real,” anunciou o Google.
Código de superfície é uma técnica de programação de processadores quânticos que usa códigos estabilizadores compostos de qubits dispostos em duas dimensões, reduzindo significativamente as taxas de erro. Uma técnica alternativa, embora similar, é o chamado código de cores.
“Pode-se pensar, por analogia, no código de superfície como um guardanapo com duas partes ásperas e duas lisas, e o código de cores como se dobrássemos esse guardanapo ao longo de sua diagonal. Como no guardanapo dobrado existem coisas novas que agora estão próximas, é possível fazer mais portas lógicas 'transversalmente'. Isso é bom porque evita a propagação de erros e é relativamente fácil. No entanto, o código de cor precisa de mais qubits para interagir em cada estabilizador, o que acaba levando a um limiar de ruído mais baixo. Assim, pode-se dizer que, embora muito similares, cada código tem suas vantagens e desvantagens,” explicou o professor Fernando Pastawski, do Instituto de Tecnologia da Califórnia.

Relação teórica entre a taxa de correção de erros e o número de qubits. A área em vermelho destaca o objetivo da equipe do Google. [Imagem: Google Labs]


“Queremos alcançar um desempenho semelhante às melhores taxas de erro do processador de 9 qubits, mas agora em todos os 72 qubits do Bristlecone. Acreditamos que o Bristlecone pode então se tornar uma prova de princípio convincente para a construção de computadores quânticos em grande escala. Operar um dispositivo como o Bristlecone com baixas taxas de erro requer uma harmonia entre uma porção de tecnologias, do software e da eletrônica de controle ao próprio processador. Fazer isso direito requer uma engenharia de sistemas cuidadosa em várias iterações. Estamos cautelosamente otimistas de que a supremacia quântica pode ser alcançada com o Bristlecone,” disse a equipe do Google em nota.



quarta-feira, 14 de setembro de 2016

Computação quântica sem qubits usa fótons tirados do nada

Redação do Site Inovação Tecnológica -  09/09/2016


Ilustração artística de três fótons emaranhados tirados do vácuo quântico - eles são usados como substitutos para os qubits. [Imagem: Antti Paraoanu]


Rodopios
Se você ainda não se acostumou à ideia do vácuo quântico e sua capacidade de fazer a matéria surgir do nada, um novo conceito para o uso prático dessa propriedade, de fato muito estranha, pode fazer sua cabeça rodar de vez.
A ideia, que é essencialmente uma abordagem alternativa e muito mais radical para a computação quântica, consiste em usar as partículas que emergem do vácuo quântico para fazer cálculos.
Ou seja, você não errará muito se disser que é uma "computação que emerge do nada", ou, como se trata de uma computação que utiliza fótons virtuais tornados reais, uma computação com "cores que surgem da escuridão".

Produção de fótons a partir do vácuo
Um grupo de físicos da Universidade de Aalto, na Finlândia, demonstrou experimentalmente que os fótons que emergem do vácuo quântico podem ser usados para codificar informações e fazer cálculos, substituindo os qubits por um novo tipo de computação quântica, diferente dos sistemas ópticos mais comumente desenvolvidos até agora.
A equipe usou sensores magnéticos extremamente sensíveis, chamados SQUIDs (sigla em inglês para Dispositivos Supercondutores de Interferência Quântica), para criar um ressonador, um dispositivo que oscila naturalmente em frequências definidas.
Esse ressonador supercondutor foi posto para funcionar a uma temperatura próxima do zero absoluto, quando cessa virtualmente qualquer movimento térmico. Visto de outro modo, este estado corresponde à mais completa escuridão, já que não está presente nenhum fóton - aqui nos referindo a uma partícula real da radiação eletromagnética, como a luz visível ou micro-ondas.
E é aí, nesse estado conhecido como vácuo quântico, que se observam flutuações que trazem à existência fótons virtuais, ou partículas que surgem, se recombinam e desaparecem em períodos de tempo muito curtos.

Esquema do dispositivo usado pela equipe para gerar fótons a partir da escuridão e usá-los para fazer cálculos. [Imagem: Pasi Lahteenmaki et al. - 10.1038/ncomms12548]

Computação sem bits
Os pesquisadores finlandeses conseguiram converter esses fótons virtuais emergindo do vácuo quântico em fótons reais de radiação de micro-ondas, que podem ser produzidos com diferentes frequências, ou cores, usando o ressonador. Em outras palavras, assim como os experimentos anteriores haviam mostrado que o vácuo quântico é mais do que a total ausência de matéria, visto desse modo pode-se dizer que a escuridão também é mais do que a mera ausência de luz.
A grande novidade é que os fótons de micro-ondas já nascem entrelaçados, ou seja, com uma conexão íntima entre eles. E o entrelaçamento é uma das propriedades mais exploradas pela computação quântica.
Como essas correlações entre os fótons podem ser geradas de forma controlada pelo ressonador, o sistema na verdade dispensa os qubits tradicionais, lançando uma nova abordagem para a computação quântica.
“Isso tudo sugere a possibilidade de utilizar as diferentes frequências para a computação quântica. Os fótons de diferentes frequências vão desempenhar um papel semelhante ao dos registradores nos computadores clássicos, e operações de portas lógicas poderão ser realizadas entre eles,” explicou o professor Sorin Paraoanu.
“Utilizando os sinais de micro-ondas multifrequenciais, podemos adotar uma abordagem alternativa [para a computação quântica] que cria portas lógicas como sequências de medições quânticas. Além disso, se usarmos os fótons criados no nosso ressonador, os bits quânticos físicos, ou qubits, tornam-se desnecessários,” acrescentou Pertti Hakonen, outro membro da equipe.


Bibliografia:
Coherence and correlations from vacuum fluctuations in a microwave superconducting cavity. Pasi Lahteenmaki, Gheorghe Sorin Paraoanu, Juha Hassel, Pertti J. Hakonen. Nature Communications, Vol.: 7, Article number: 12548
DOI: 10.1038/ncomms12548



sexta-feira, 4 de março de 2016

Será que a NSA finalmente construiu seu computador espião? (Will the NSA Finally Build Its Superconducting Spy Computer?)




Hoje, microchips de silício estão presentes em todos os aspectos da computação digital. Mas seu domínio nunca foi uma conclusão óbvia. Ao longo da década de 1950, engenheiros elétricos e outros pesquisadores exploraram muitas alternativas para construir os computadores digitais.
Uma delas instigou a imaginação da Agência Nacional de Segurança (NSA) dos EUA: um supercomputador supercondutor. Tal máquina poderia tirar proveito dos materiais supercondutores que ao serem refrigerados não exibem qualquer resistência elétrica. Essa propriedade extraordinária traz a promessa de computadores que poderiam processar números e códigos mais rápidos do que os sistemas baseados em transistores e consumiria muito menos energia.
     Por seis décadas, a partir de meados de 1950 até hoje, a NSA tem repetidamente perseguido esse sonho, em parceria com pesquisadores industriais e acadêmicos. A agência patrocinou projetos significativos para construir um computador supercondutor. Porém, o esforço foi abandonado em face do ritmo acelerado da Lei de Moore e o aumento surpreendente no desempenho e redução no custo de microchips de silício.
     Agora a Lei de Moore está balbuciando, e os fabricantes de supercomputadores do mundo todo estão enfrentando uma crise energética. Simuladores de armas nucleares, criptógrafos e outros, almejam os supercomputadores em exoescala capazes de rodar 1.000 petaflops - 1 milhão de trilhões de operações de ponto flutuante por segundo - ou mais. O supercomputador mais rápido do mundo está na China e possui capacidade de 34 petaflops e consome cerca de 18 megawatts de energia. Isso é aproximadamente a quantidade de eletricidade usada instantaneamente por 14.000 famílias dos EUA. Projeções variam dependendo do tipo de arquitetura do computador usado, mas uma máquina em exoescala construída com os melhores microchips de silício de hoje, podem requerer centenas de megawatts.
     A busca pela exoescala pode levar ao computador supercondutor. E a IARPA (Intelligence AdvancedResearch Projects Activity), está fazendo o máximo que pode. Com novas formas de lógica e memória supercondutora em desenvolvimento, a IARPA lançou um programa ambicioso para criar as peças fundamentais de um supercomputador supercondutor. Nos próximos anos, o esforço pode mostrar se a tecnologia realmente irá bater o silício.
     O sonho da NSA foi inspirado pelo engenheiro elétrico Dudley Buck. Quando se mudou para o MIT em 1950, Buck permaneceu como um consultor militar, mantendo a Agência de Segurança das Forças Armadas, que rapidamente se tornou a NSA, a par dos novos desenvolvimentos de computação em Cambridge.


Na década de 1950, Dudley Buck imaginou computadores rápidos e eficientes em termos energéticos. Estes o levaram ao seu comutador supercondutor, o criotron.


     Buck logo relatou em seu próprio trabalho uma nova chave supercondutora, ele batizou de criotron. O dispositivo funciona por comutação de um material entre o seu estado normal e o estado supercondutor. Certo número de elementos metálicos supercondutores e ligas chegam a esse estado quando são resfriados abaixo de uma temperatura crítica próxima do zero absoluto. Uma vez que o material se torna supercondutor, um campo magnético suficientemente forte pode trazer o material de volta ao seu estado normal.
     Neste processo, Buck viu um disjuntor digital. Ele enrolou um minúsculo fio "controle" em torno de um fio "porta", e mergulhou o par em hélio líquido. Quando a corrente fluiu através do controle, o campo magnético criou uma porta em seu estado de resistência normal. Quando a corrente de controle foi desligada, a porta tornou-se supercondutora novamente.
     Buck pensou que os criotrons poderiam ser usados para moldar computadores rápidos e energeticamente eficientes. A NSA financiou o seu trabalho em circuitos de memória criotron, bem como um projeto mais amplo sobre circuitos criotron digitais da IBM.
     Engenheiros continuaram o desenvolvimento dos circuitos criotrons na década de 1960, apesar da morte súbita e prematura de Buck em 1959. Mas as baixíssimas temperaturas do hélio líquido e o tempo necessário para os materiais transitarem entre os estados supercondutor-normal limitaram as velocidades de chaveamento. A NSA, eventualmente, cessou o financiamento, e muitos pesquisadores trocaram a eletrônica supercondutora pela do silício.
     Em 1962, o físico britânico Brian Josephson fez uma previsão sobre o tunelamento quântico em supercondutores. No tunelamento, os elétrons passam através de uma barreira isolante, promovidos por um impulso de tensão; o fluxo de elétrons ocorre com alguma resistência. Mas Josephson previu que se a barreira isolante entre dois supercondutores é fina o suficiente, uma supercorrente de elétrons pode fluir por ela sem resistência, como se a barreira não estivesse lá. Isso ficou conhecido como o efeito Josephson, e uma chave baseada no efeito foi obtida.
     Pesquisadores da IBM desenvolveram uma versão dessa opção em meados da década de 1960. A parte ativa do dispositivo era uma linha de supercondutores metálicos, separados por uma fina camada de óxido. A supercorrente tunelava através da barreira, mas só até certo ponto; se a corrente atingisse um dado valor, o dispositivo passava ao estado normal. O limite era ajustado por um campo magnético gerado pelo fluxo de corrente em uma linha de controle supercondutora vizinha. Se o dispositivo operasse perto do limite da corrente, uma pequena corrente no controle poderia mudar o limite. Ao contrário do criotron de Buck, os materiais deste dispositivo sempre se mantinham supercondutores, tornando a chave eletrônica muito mais rápida.
     Em 1973 a IBM estava trabalhando na construção de um supercomputador supercondutor baseado em junções Josephson. A unidade básica de seus circuitos foi um loop supercondutor com junções Josephson, conhecido como ‘dispositivo supercondutor de interferência quântica’, ou SQUID. A NSA cobria uma fração substancial dos custos.


Corrente em um loop supercondutor contendo uma junção Josephson, uma barreira não supercondutora gera um campo magnético com um pequeno valor, quantificado.


O programa do supercomputador supercondutor da IBM funcionou por mais de 10 anos, a um custo de cerca de US$ 250 milhões de dólares. As junções Josephson são principalmente feitas de liga de chumbo e óxido de chumbo. No final do projeto, os engenheiros ligaram a uma barreira de óxido de nióbio, imprensado entre uma liga de chumbo e uma película de nióbio, um arranjo que produziu dispositivos mais confiáveis. Mas enquanto o projeto fazia grandes progressos, os executivos da empresa não estavam convencidos de que um eventual supercomputador baseado na tecnologia poderia competir com os microchips avançados de silício. Em 1983, a IBM encerrou o programa sem nunca ter construído um computador baseado nas junções Josephson.



Image: IBM. Circuitos Josephson de 1970.


     Inspirado no projeto da IBM, o ministério industrial do Japão lançou um esforço do computador supercondutor em 1981. A parceria da pesquisa durou oito anos e produziu um verdadeiro computador que funcionava com junções Josephson. Era uma máquina pequena, de 4 bits, com apenas 1000 bits de RAM, mas poderia até rodar um programa. Porém, o projeto também foi abandonado na mesma perspectiva da IBM.



Foto: AIST. Um computador completo: O ETL-JC1, um computador supercondutor desenvolvido no Japão, incluía quatro chips de circuitos integrados baseados em junções Josephson, para a lógica e para a memória.



     Novos desenvolvimentos surgiram fora destes programas. Em 1983, pesquisadores da Bell Telephone Laboratories construíram junções Josephson de nióbio separadas por finas camadas de óxido de alumínio. Os novos comutadores supercondutores eram extraordinariamente seguros e podiam ser fabricados utilizando um processo simplificado da mesma maneira que os microchips de silício.
     Em 1985, pesquisadores da Universidade Estadual de Moscou propuseram um novo tipo de lógica supercondutora. Originalmente apelidado de resistiva, então renomeada lógica "rápida" de um único fluxo quântico, ou RSFQ (“rapid” single-flux-quantum logic), tirou proveito do fato de que uma junção Josephson pode emitir minúsculos pulsos de tensão. Integrado ao longo do tempo, eles assumem valores quantizados, múltiplos inteiros de um valor minúsculo chamado de fluxo quântico, medido em microvolts.



Imagem: Hypres. Fluxo magnético ejetado de um circuito supercondutor através de uma junção Josephson pode assumir a forma de minúsculos pulsos tensão. A presença ou ausência de um impulso, em um determinado período de tempo, pode ser usado para realizar cálculos.


     Ao usar tais pulsos, cada um com duração de um picossegundo, a RSFQ prometeu aumentar as velocidades para valores superiores a 100 gigahertz. Além disso, uma junção Josephson gasta energia na faixa de apenas um milionésimo de um picojoule, consideravelmente menos do que consumido por transistores de silício.
     As junções Josephson do Bell Labs e a RSFQ da Universidade Estadual de Moscou reacenderam o interesse na eletrônica supercondutora. Em 1997, os EUA lançaram o projeto Hybrid Technology Multi-Threaded (HTMT), que foi apoiado pela NSA e outras agências. O objetivo da HTMT era bater o nível de supercomputação convencional do silício, usando circuitos integrados RSFQ e outras tecnologias.




Foto: Judy Conlon/NASA. O projeto Hybrid Technology Multi-Threaded utilizou uma nova forma de lógica supercondutora chamada RSFQ (“rapid” single-flux-quantum logic). O membro da equipe Dmitry Zinoviev é mostrado segurando uma garrafa de hélio líquido.


     Era um programa ambicioso que enfrentou uma série de desafios. Os próprios circuitos RSFQ limitavam o potencial de eficiência da computação. Para alcançar uma velocidade elevada, a RSFQ usa resistências para proporcionar polarizações elétricas às junções Josephson, a fim de mantê-las perto do limite da comutação. Em um experimento com circuitos RSFQ de vários milhares de junções Josephson polarizáveis, a dissipação de energia estática foi insignificante. Mas em um supercomputador de escala petaflop, possivelmente com muitos bilhões de tais dispositivos, haveria significativo consumo de energia.
     O projeto HTMT terminou em 2000. Oito anos mais tarde, um supercomputador convencional da IBM foi apontado como o primeiro a alcançar o funcionamento em petaflop. Ele continha cerca de 20.000 microprocessadores de silício e consumiu 2,3 ​​megawatts.
     Para muitos pesquisadores que trabalham com a eletrônica supercondutora, o período por volta do ano 2000 marcou uma mudança: a computação quântica. Esta nova direção foi inspirada pelo trabalho do matemático Peter Shor, que sugeriu que um computador quântico pode ser uma poderosa ferramenta criptoanalítica, capaz de decifrar rapidamente comunicações criptografadas. Em seguida, os projetos em computação quântica e circuitos digitais supercondutores estavam sendo patrocinados pela NSA e a DARPA.
     Ninguém sabia como construir um computador quântico, mas muitas pessoas tinham ideias. Na IBM e em outros lugares, engenheiros e cientistas se voltaram para os principais pilares do supercondutor eletrônico, os SQUIDs e as junções Josephson. Um SQUID exibe efeitos quânticos sob operação normal, e foi bastante simples configurá-lo para funcionar como um bit quântico, ou qubit.
     Um dos centros deste trabalho foi o laboratório de ciências físicas da NSA. Construído perto da Universidade de Maryland, o laboratório é um espaço onde a NSA e pesquisadores externos podem colaborar em trabalhos relevantes para a insaciável sede da agência pelo poder da computação.
     No início dos anos de 2010, Marc Manheimer foi chefe da computação quântica no laboratório. Como ele recordou recentemente em uma entrevista, ele viu uma necessidade premente de circuitos digitais convencionais que poderiam cercar fisicamente bits quânticos, a fim de controlá-los e corrigir erros em escalas de tempo muito curtos. A maneira mais fácil de fazer isso, ele pensou, seria com elementos supercondutores, que poderiam operar com níveis de tensão e corrente semelhantes àqueles que controlariam os circuitos contendo qubits. Links ópticos poderiam ser usados para conectar este sistema híbrido com o mundo exterior e a computadores convencionais de silício.
     Manheimer afirma ainda que se tornou ciente do crescente problema do poder de computação do silício de alta performance, bem como os grandes bancos de servidores em centros de dados comerciais. “Quanto mais perto eu olhei para a lógica supercondutora”, diz ele, “ficou claro que tinha valor para a supercomputação”.
     Manheimer propôs um novo ataque direto no supercomputador supercondutor. Inicialmente ele estava cético. “Há uma história de fracasso”, disse ele. Mas, no início de 2013, tinha convencido a IARPA a financiar um programa chamado Cryogenic Computing Complexity (C3).
      A primeira fase do C3 foi a criação e avaliação de circuitos lógicos supercondutores e sistemas de memória, a serem fabricados no MIT Lincoln Laboratory - o mesmo laboratório onde Dudley Buck trabalhou.
     Em 2011, Quentin Herr da Northrop Grumman relatou uma alternativa interessante, uma forma diferente da lógica quântica chamada lógica quântica recíproca. Um circuito RQL consome 1/100.000 da energia do melhor circuito equivalente CMOS (complementary metal-oxide-semiconductor) e muito menos energia do que um circuito RSFQ equivalente.
     Uma lógica de semelhante eficiência energética chamada ERSFQ foi desenvolvida pela fabricante de eletrônicos supercondutores Hypres. A Hypres está trabalhando com a IBM, que continuou o seu trabalho fundamental de dispositivo supercondutor, mesmo depois de cancelar seu projeto de supercomputador.
     A Hypres também está colaborando com uma equipe do C3 liderada pelo laboratório Raytheon BBN Technologies, que tem sido ativo na pesquisa de computação quântica por vários anos. Lá, o físico Thomas Ohki e seus colegas vêm trabalhando em um sistema de memória criogênica que utiliza lógica supercondutora de baixo consumo para controlar, ler, e escrever em alta densidade, na magnetoresistiva RAM. Esse tipo de memória é outra mudança da computação supercondutora. Células de memória RSFQ são muito grandes. Memórias nanomagnéticas mais compactos, originalmente desenvolvidas para ajudar a estender a Lei de Moore, podem funcionar bem em baixas temperaturas.
     O circuito supercondutor mais avançado do mundo usa dispositivos baseados em nióbio. Embora tais dispositivos operem em torno de 4 Kelvin acima do zero absoluto, Manheimer diz que refrigerar é uma questão trivial.
     Uma grande questão tem sido a quantidade de energia necessária para o resfriamento, que eleva o orçamento de um computador supercondutor. Mas os defensores sugerem que não deve ser muito. Eles dizem que “a potência dissipada em um computador supercondutor é tão pequena que permanece 100 vezes mais eficiente do que um computador de silício”.
     O foco agora do C3 está nos componentes fundamentais. Essa primeira fase, que irá até 2017, pretende demonstrar os componentes centrais de um sistema de computador: um conjunto de circuitos lógicos de 64 bits capaz de rodar a uma taxa de 10 GHz e uma rede de memória criogênica com capacidade de 250 megabytes. Se esse esforço for bem sucedido, uma segunda fase de dois anos irá integrar esses componentes em um computador criogênico de tamanho ainda não especificado. Se o protótipo for considerado promissor, Manheimer estima que deve ser possível criar um verdadeiro computador supercondutor em 5 a 10 anos.
     Tal sistema seria muito menor do que os supercomputadores baseados em CMOS e requerem muito menos energia. Manheimer projeta que um supercomputador supercondutor produzido em seguida ao C3 pode rodar a 100 petaflops e consumir 200 quilowatts, incluindo o sistema de refrigeração. Seria 1/20 do tamanho do Titã, atualmente o supercomputador mais rápido nos Estados Unidos, mas oferece mais de cinco vezes o desempenho por 1/40 do consumo.



Fonte: IEEE Transactions on Applied Superconductivity, vol. 23, # 1701610; Marc Manheimer. Performance exige poder. Os supercomputadores mais poderosos de hoje consomem múltiplos megawatts (vermelho), sem incluir o arrefecimento. Computadores supercondutores com sistemas de refrigeração incluídos, são projetados para reduzir drasticamente esses requisitos de energia (azul).



     Um supercomputador com esses recursos, obviamente, representaria um salto enorme. Mas o destino do supercomputador supercondutor depende fortemente do que acontece com o silício. Enquanto um computador em exoescala feito com os atuais chips de silício pode não ser prático, grande esforço e bilhões de dólares estão sendo gastos em continuar a encolher os transistores de silício, bem como no desenvolvimento de ligações ópticas e de empilhamento 3-D. Tais tecnologias podem fazer uma grande diferença. Em julho de 2015, o presidente Barack Obama anunciou a National Strategic Computing Initiative e pediu a criação de um supercomputador em exoescala. O trabalho da IARPA sobre alternativas ao silício é parte dessa iniciativa. Para meados da década de 2020 especula-se que seja construída a primeira máquina em exoescala à base de silício. Se essa meta for cumprida, a chegada de um supercomputador supercondutor provavelmente seria adiada mais uma vez.
     Mas é muito cedo para contar com a computação supercondutora. Em comparação com o enorme investimento contínuo no silício ao longo das décadas, a computação supercondutora teve apoio escasso e intermitente. No entanto, mesmo com esta dieta de subsistência, físicos e engenheiros têm produzido uma sequencia impressionante de avanços. O apoio do programa C3, juntamente com a maior atenção da comunidade de computação, poderia levar a tecnologia adiante de forma significativa. Se tudo correr bem, os computadores supercondutores podem finalmente vir do frio.




quarta-feira, 17 de fevereiro de 2016

Calor transportado por 1 metro esfria chips a distância




Redação do Site Inovação Tecnológica -  15/02/2016

Ilustração artística do calor quanticamente limitado transportado por longas distâncias usando fótons de micro-ondas. [Imagem: Heikka Valja]


Transporte de calor
Em um avanço marcante em física, pesquisadores da Universidade de Aalto, na Finlândia, conseguiram transportar o calor com eficiência máxima a uma distância 10.000 vezes maior do que a que já havia sido conseguida.
Isso significa que o aparato de dissipação de calor pode ficar distante do local onde o calor é gerado - o dissipador e o exaustor podem ficar longe do processador, por exemplo.
Além disso, a técnica permitirá a utilização de metais comuns juntamente com supercondutores, tudo no mesmo chip, o que dará um novo impulso à construção de processadores quânticos, nos quais o calor é sinônimo de "ruído", que faz os qubits perderem seus dados. E inúmeras outras aplicações são possíveis.
“A longa distância alcançada pelos nossos experimentos pode, por exemplo, levar à construção de motores de calor mesoscópicos de eficiência total, com promissoras aplicações práticas,” disse o professor Mikko Mottonen, cuja equipe já havia tirado proveito de técnicas especiais de resfriamento para criar nós quânticos.


Transmissão de calor a distância
Nos experimentos, o calor foi transmitido com eficiência a uma distância de até 1 metro, uma enormidade para todas as aplicações quânticas e longe o suficiente para permitir aplicações em macroescala.
“Para os processadores de computador, um metro é uma distância extremamente longa. Ninguém pensa em construir um processador tão grande,” disse Mikko Mottonen.
O que é inovador no trabalho é a utilização de fótons - partículas de luz - para transferir calor. Nada exatamente radical, já que são fótons que trazem o calor do Sol para a Terra, mas, até hoje, a tecnologia vinha utilizando elétrons.
“Nós conseguimos esta melhoria de quatro ordens de grandeza na distância utilizando fótons de micro-ondas viajando em linhas de transmissão supercondutoras. Assim, parece que a condução de calor quanticamente limitado não tem distâncias máximas fundamentais. Este trabalho estabelece a integração de componentes de metal normal no quadro do circuito de eletrodinâmica quântica, que está na base do computador quântico supercondutor,” escreveu a equipe.


Bibliografia:
Quantum-limited heat conduction over macroscopic distances. Matti Partanen, Kuan Yen Tan, Joonas Govenius, Russell E. Lake, Miika K. Makela, Tuomo Tanttu, Mikko Mottonen. Nature Physics. Vol.: Published online. DOI: 10.1038/nphys3642. http://arxiv.org/abs/1510.03981


domingo, 28 de junho de 2015

D-Wave Systems atinge marca de processamento de 1000 bits quânticos




A D-Wave Systems anunciou nesta semana que ultrapassou a marca de processamento de 1000 qubits (bits quânticos) com um novo chip que tem o dobro do tamanho do último criado pela própria empresa. Com isso, o processador considera 21000 possibilidades simultaneamente, o que minimiza as 2512 possibilidades que estavam disponíveis com o D-Wave Two. Para efeito de comparação, o número de possibilidades que o chip pode considerar é maior do que o número de partículas de todo o universo visível.
       Em termos práticos, a conquista tecnológica da D-Wave Systems permitirá que um computador quântico possa resolver problemas computacionais mais complexos do que qualquer outro. Isso porque o qubit, que é uma unidade de informação com propriedades quânticas, trata os dados de maneira diferente do bit comum. Em vez de considerar as informações de forma isolada, como fazem os computadores tradicionais, ele as integra para criar novas dimensões para o processamento.
       “Quebrar a barreira dos 1000 qubits marca o resultado de anos de pesquisa e desenvolvimento de nossos cientistas, engenheiros e fabricantes”, afirmou Vern Brownell, CEO da D-Wave. “Esse é um passo essencial para trazer a promessa da computação quântica para lidar com problemas mais desafiadores que as organizações possam enfrentar, sejam eles técnicos, comerciais, científicos ou de segurança nacional”.
       Os novos processadores, que compreendem mais de 128.000 junções Josephson em 6 camadas de metal num processo de 0,25 µm, são os supercondutores de circuitos integrados mais complexos já produzidos com sucesso.  Para que funcionem, esses chips precisam estar 40% mais refrigerados do que os outros processadores quânticos – que já requeriam estar próximos do zero absoluto. Com esse novo processo de fabricação, a D-Wave conseguiu também reduzir o barulho dos componentes em 50%.
       “Para a indústria de computação de alto desempenho, a promessa da computação quântica é muito emocionante. Ela oferece o potencial para resolver problemas importantes que não podem ser resolvidos hoje ou tomariam uma quantidade razoável de tempo para isso”, disse Earl Joseph, vice-presidente da IDC ao HPC.
       Baseada em Palo Alto, na Califórnia, a D-Wave é a maior fabricante de componentes de computação quântica do momento e presta serviços para a NASA e Google.




domingo, 17 de maio de 2015

Primeiro bit quântico supercondutor do Reino Unido (UK's first superconducting quantum bit foundry)




Teresa Hoenigl-Decrinis com um sistema avançado de deposição de filmes finos. Acima da esquerda para a direita: várias demonstrações da natureza quântica de um dos qubits.


O professor Oleg Astafiev e sua equipe projetaram, construíram e operaram o primeiro dispositivo de qubit supercondutor do Reino Unido.
       Bits quânticos ou qubits são os blocos básicos para um computador que trabalha de acordo com as regras da física quântica. Capaz de executar programas e tarefas que nossos computadores atuais não podem fazer, os computadores quânticos são o próximo grande passo no futuro da computação.
Dispositivos supercondutores são uma das mais avançadas tecnologias em estudo a nível mundial para implementar os computadores quânticos. As aplicações potenciais destes materiais vão muito além do campo da computação quântica e incluem avanços na medicina e na exploração do espaço.
       O professor Astafiev e sua equipe obtiveram avanços importantes na qualidade de nanofabricação e desenvolveram um dispositivo de vários qubits acoplados a uma linha de transmissão de microondas. As imagens mostram vários aspectos da natureza quântica do dispositivo e a análise detalhada dos dados comprova a elevada qualidade do processo de concepção e fabricação.
       Segundo Astafiev, “Vamos estudar dispositivos mais complexos e os fenômenos mais interessantes em dispositivos quânticos macroscópicos e fotônica de microondas quântica”.




terça-feira, 12 de maio de 2015

IBM apresenta um chip de computação quântica (IBM Shows Off a Quantum Computing Chip)



Quando resfriado a uma fração acima do zero absoluto, os quatro elementos escuros no centro do circuito no meio desta imagem podem representar dados digitais usando efeitos da mecânica quântica.


Um novo chip supercondutor desenvolvido pela IBM demonstra um importante passo necessário para o desenvolvimento dos computadores quânticos. Se desenvolvido com sucesso, os computadores quânticos poderiam efetivamente tomar atalhos através de muitos cálculos que são difíceis para os computadores de hoje.
O novo chip da IBM é o primeiro a integrar os dispositivos básicos necessários para construir um computador quântico, conhecido como qubits, em uma rede 2D. Pesquisadores acham que uma das melhores rotas para fazer um computador quântico prático implicaria a criação de redes de centenas ou milhares de qubits que trabalham em conjunto.
Os circuitos do chip da IBM são feitos a partir de metais que se tornam supercondutor quando resfriados a temperaturas extremamente baixas. O chip da IBM contém apenas a rede mais simples possível, quatro qubits em uma matriz dois-por-dois. Anteriormente os pesquisadores tinham mostrado que eles só poderiam operar qubits juntos quando dispostos em uma linha. Ao contrário de bits binários convencionais, um qubit pode inserir um ‘estado de superposição’ onde é efetivamente 0 e 1, ao mesmo tempo. Quando qubits nesse estado trabalham juntos, eles podem cortar através de cálculos complexos de maneiras impossíveis para hardwares convencionais. Google, NASA, Microsoft, IBM, e o governo dos EUA estão trabalhando na tecnologia.
Existem maneiras diferentes de fazer qubits, os circuitos supercondutores usados ​​pela IBM e Google são um dos mais promissores. No entanto, todos os qubits sofrem do fato de que os efeitos quânticos que utilizam para representar os dados são muito susceptíveis a interferência. Muito trabalho atual está focada em mostrar que pequenos grupos de qubits podem detectar quando erros ocorrem para que eles possam ser contornados ou corrigidos.
No início deste ano, pesquisadores da Universidade da Califórnia em Santa Barbara e do Google anunciaram a construção de um chip com nove qubits supercondutores dispostos em uma linha (clique aqui). Alguns dos qubits do sistema podem detectar quando companheiros no dispositivo sofrem um tipo de erro chamado bit-flip, onde um qubit representando um 0 muda para 1 ou vice-versa.
No entanto, qubits também sofrem de um segundo tipo de erro conhecido como flip de fase, em que o estado de superposição de um qubit fica distorcido. Qubits só podem detectar outros qubits se eles estão trabalhando em conjunto numa matriz 2D, diz Jay Gambetta, líder do grupo de pesquisa de computação quântica da IBM.
Um artigo publicado detalha como o chip da IBM com quatro qubits dispostos em um quadrado pode detectar ambos os bits-flips e os de fase. Um par de qubits é checado através do outro par. Um par faz a verificação dos bits-flips e outro verifica os flips de fase. “Este é um trampolim para demonstrar um quadrado maior”, diz Gambetta. “Outros desafios emergem quando o quadrado fica maior, mas parece muito otimista para as próximas etapas.”
Gambetta diz que sua equipe teve que projetar cuidadosamente o seu novo chip para superar problemas de interferências causados por colocar quatro qubits tão próximos. Eles já estão fazendo experiências com um chip que tem uma grade de oito qubits em um retângulo de dois-por-quatro. Raymond Laflamme, diretor do Instituto para a Computação Quântica da Universidade de Waterloo, no Canadá, descreve os resultados da IBM como “um marco importante [em direção aos] processadores quânticos de confiança”. Combater os erros é um dos problemas mais importantes do campo. “A computação quântica promete ter muitas aplicações alucinantes, mas é prejudicada pela fragilidade da informação quântica”.
Resolver esse problema exige ir um passo além dos resultados mais recentes da IBM, e corrigir os erros qubit bem como detectá-los. Isso só pode ser demonstrado em uma grade maior de qubits, diz Laflamme. No entanto, nem todos os pesquisadores de computação quântica pensam em qubits como aqueles que estão sendo construídos na IBM, Google e em outros lugares. Pesquisadores da Microsoft e Bell Labs estão trabalhando para criar um design completamente diferente do qubit que deve ser menos propenso a erros.




Entre em contato

Nome

E-mail *

Mensagem *

Supercondutividade ao seu alcance (clique na imagem)

Supercondutividade ao seu alcance (clique na imagem)
Nosso canal no YouTube!

Elementos supercondutores (clique na imagem)

Elementos supercondutores (clique na imagem)
Supercondutores à pressão ambiente e sobre altas pressões

Evolução da temperatura crítica (clique na imagem)

Heike Kamerlingh Onnes’s Discovery of Superconductivity

Heike Kamerlingh Onnes’s  Discovery of Superconductivity
Clique na imagem para acessar o artigo da Scientific American!

Room-Temperature Superconductivity

Room-Temperature  Superconductivity
Livro gratuito, clique na imagem para acessar!

O trem flutuante brasileiro!