Aplicações da Supercondutividade - O skate voador da Lexus

Mostrando postagens com marcador computador quântico. Mostrar todas as postagens
Mostrando postagens com marcador computador quântico. Mostrar todas as postagens

sexta-feira, 27 de março de 2015

Corrigindo erros quânticos em circuitos supercondutores (Correcting quantum errors in superconducting circuits)



http://www.nature.com/nature/journal/v519/n7541/full/nature14270.html
a) O código de repetição é uma variante unidimensional (1D) do código de superfície, e é capaz de proteger contra erros (bit-flip). O código é implementado usando um padrão alternado de dados e medição de qubits. b) Micrografia óptica do dispositivo quântico supercondutor, que consiste em nove qubits transmon” com controle e medição individual. c) O algoritmo do código de repetição utiliza repetidas operações de medidas e de emaranhamento que detectam bit-flips, utilizando o esquema de paridade no lado direito. Usando o output a partir dos qubits medidos durante a repetição do código para detecção de erro, o estado inicial pode ser recuperado removendo erros físicos no software. Texto e imagem: Nature


         Os computadores quânticos do futuro serão construídos a partir de um grande número de bits quânticos (qubits), que deverão estar em certos estados quânticos. No entanto, esses estados são extremamente frágeis e facilmente destruídos por “erros de bits” vindos do ruído externo no ambiente, e os físicos ainda não conseguiram criar qubits robustos o suficiente para serem usados em uma máquina prática. Pesquisadores da Universidade da Califórnia em Santa Barbara e da Google construíram um sistema de nove qubits em um circuito supercondutor que é robusto a esses erros e as suas experiências mostram que a correção de erro quântico poderia agora ser realisticamente possível em um dispositivo.

        Os pesquisadores, liderados por John Martinis, construíram um circuito quântico supercondutor que consiste em nove qubits. Cada qubit é um pequeno circuito constituído por um condensador e um indutor não-linear (chamado cruzamento Josephson), que atua como um átomo artificial. Os materiais que compõem o conjunto são uma película de alumínio depositada em um substrato de safira.

        “Nosso sistema de nove qubits pode proteger-se de erros de bits que inevitavelmente surgem do ruído e flutuações do ambiente em que os qubits estão incorporados”, explica o membro da equipe de Julian Kelly. “Mostramos também que ‘mais é melhor’: nove qubits protege o sistema melhor do que cinco qubits, um requisito fundamental quando vai para mais qubits em um computador quântico real do futuro”.


Estados quânticos são frágeis

        Os computadores quânticos vão funcionar com base no princípio de que uma partícula quântica pode estar em uma superposição de dois estados ao mesmo tempo – ‘spin up’ e ‘spin down’ no caso de um elétron, por exemplo. Os dois estados representam um ‘1’ e ‘0’, de modo que N partículas - os qubits - podem ser combinados, ou ‘emaranhados’, para representar valores 2N simultaneamente. Isso levaria ao processamento paralelo de informação em grande escala, o que não é possível com os computadores convencionais.

        Tais máquinas quânticas teriam um desempenho muito melhor em determinadas tarefas, como a aprendizagem de máquina ou simulação de moléculas complexas, por exemplo, porque suas velocidades de processamento devem crescer exponencialmente com o número de qubits de informação envolvidos. Na prática, porém, os físicos têm se esforçado para criar até mesmo o computador quântico mais simples, porque a fragilidade desses estados quânticos significa que eles são facilmente destruídos e são difíceis de controlar.


Paridade de medição

        “Na mecânica quântica, não podemos medir um qubit sem destruir a superposição e emaranhamento que faz com que a mecânica quântica funcione”, diz o membro da equipa Rami Barends, “mas podemos medir algo chamado paridade, que forma a base da correção de erro quântico”.

        Os pesquisadores exploraram esse fato e repetidamente mediram a paridade entre ‘dados’ de qubits adjacentes, fazendo uso de qubits de ‘medição’. “Cada ciclo, estes qubits de medição interagem com seus qubits de dados circundantes, através de portas lógicas quânticas e então podemos medi-los”, diz Kelly. “Quando ocorre um erro, a paridade muda de acordo e o qubit de medição relata um resultado diferente. Ao acompanhar esses resultados, podemos descobrir quando e onde ocorreu um erro de bit”.


Identificação e correção de erros

        Um número maior de qubits fornece mais informações para identificar e corrigir os erros, acrescenta Austin Fowler, membro da equipe. “Erros podem ocorrer a qualquer momento e em todos os tipos de qubits: qubits de dados, qubits de medição, durante a operação da porta e até mesmo durante a medida. Descobrimos que um dispositivo de cinco qubits é robusto para qualquer tipo de erro de bit que ocorre em qualquer lugar durante um algoritmo, mas um dispositivo de nove qubits é melhor porque é robusto para qualquer combinação de dois erros de bit”.

        Embora ainda muito longe de aplicações no mundo real, os pesquisadores dizem que um dispositivo de ‘auto-correção’ como o deles poderia ser uma ótima plataforma para testar algumas das ideias por trás da correção de erros - como proteger um estado quântico contra os famosos erros de phase-flip. “Nós também estamos agora ocupados em melhorar a qualidade dos nossos qubits e os materiais que usamos para fazê-los”, diz Kelly.

John Martinis e vários outros especialistas descrevem os benefícios e desafios da computação quântica em um podcast que apareceu pela primeira vez no site physicsworld.com: “A computação quântica: Desafios, triunfos e aplicações”.







sexta-feira, 27 de fevereiro de 2015

Dispositivo de memória híbrida para computador supercondutor (Hybrid memory device for superconducting computing)

        Uma equipe de cientistas do NIST desenvolveu e demonstrou uma nova tecnologia de memória em nanoescala para computadores que usam supercondutores que poderia acelerar o advento de uma tão aguardada alternativa de baixo consumo de energia para data centers convencionais.
        Nos últimos anos, a gigantesca crescente demanda de dados de computação em nuvem, o uso da Internet, suporte a dispositivos móveis e outras aplicações, levaram a criação de recursos de computação centralizada em centenas de milhares de sites em todo o mundo.
        Essas instalações funcionam 24 horas por dia e empregam matrizes de servidores baseados em semicondutores que exigem quantidades substanciais de energia elétrica e geram grande quantidade de calor - que por sua vez exige ainda mais energia para remover.
       
 Mesmo que as necessidades de energia para todos os centros de dados norte-americanos sejam satisfeitas, as limitações inerentes dos semicondutores define o limite para a futura capacidade de processamento onde o volume de informação digital aumenta exponencialmente.
Uma tecnologia promissora é a computação que utiliza supercondutores, a qual oferece a perspectiva de trnasportar informações sem perdas através de canais de resistência zero. Em vez de usar transistores semicondutores para comutar sinais eletrônicos, estes sistemas usam componentes minúsculas chamadas junções Josephson (JJ). Estes operam perto do zero absoluto (de 4 K a 10 K), dissipam quantidades minúsculas de energia (menos de 10-19 joule por operação), e pode ser alternado entre os estados em centenas de bilhões de vezes por segundo (freqüências de gigahertz), em comparação com poucos gigahertz de computadores que utilizam semicondutores.
Até o momento, muitas tecnologias-chave como circuitos lógicos, interconexões de componentes e memória criogênica, necessárias para um computador que use supercondutores, ainda não foram desenvolvidas. Mas o Intelligence Advanced Research Projects Activity (IARPA) determinou que, graças ao recente progresso da pesquisa, as ‘bases para um grande avanço’ estão agora em vigor, e lançou um programa para investigar a viabilidade prática da computação que usa supercondutores.
Cientistas do NIST foram contratados para desenvolver as metrologias e avaliação dos métodos necessários para o programa IARPA. Mas, muito antes do início do programa um dos obstáculos mais difíceis para a computação que usa supercondutores já vinha sendo focado: a falta de um sistema de memória que pode trabalhar na temperatura criogênica e a uma velocidade impressionante dos interruptores JJ enquanto também requer energia operacional mínima.
Um módulo de memória da equipe do NIST é uma junção Josephson modificada com dimensões na escala de 100 nanômetros. Entre os dois eletrodos da junção supercondutora, os cientistas fabricaram uma barreira de multi-camada que consiste em dois materiais magnéticos diferentes, separados por um metal não magnético.
A relação entre as polaridades das duas camadas magnéticas - que podem ser alinhadas paralela ou anti-paralelamente - determina a magnitude da supercorrente na junção Josephson, e pode ser igual ou diferente de zero da tensão através da junção. Esse efeito é baseado na competição intrincada entre supercondutividade e magnetismo que foi inequivocamente demonstrada no trabalho da equipe do NIST. Esses dois estados de corrente ou tensão pode representar 0 ou 1 - valores binários para memória do computador supercondutor. O tamanho do dispositivo pode ser reduzido, como será necessário para alta capacidade de memória, sem perder a capacidade de diferenciar o estado.
As propriedades magnéticas da barreira podem ser controladas apenas através de correntes elétricas em vez do campo magnético. Isto é conseguido através de um processo chamado de transferência de torque de spin: uma corrente normal, com uma distribuição uniforme de spin, passa através da camada magnética fixa, que atua como um filtro de tal modo que os elétrons que emergem são polarizados por rotação. O momento angular associado a esse estado de spin é então transferido para a camada livre, mudando o seu alinhamento magnético. O processo é reversível. Este efeito tem sido amplamente estudado para memórias magnéticas à temperatura ambiente, mas geralmente para memórias baseadas na mudança de resistência (magnetorresistência).
Ambas operações, ler e escrever, são escaláveis ​​para nanodispositivos. Ler pode ser realizada por sondagem ad força da supercondutividade com uma energia minúscula. A energia de gravação pode ser melhorada com a engenharia do material magnético e redução do tamanho do dispositivo; o limite final é dado pela energia magnética que também é minúscula. Combinado com nonvolatility (sem necessidade de refrigeração) e velocidade, este híbrido supercondutor-magnético promete uma tecnologia alternativa para memórias de semicondutores.
Outros grupos têm desenvolvido dispositivos híbridos supercondutores-magnéticos de vários tipos. Mas o módulo do NIST é o primeiro a utilizar efeitos spintrônicos, que são particularmente difíceis de caracterizar em nanoescala. O híbrido do NIST pode ser facilmente integrado com os sistemas supercondutores, e os pesquisadores estão analisando os comportamentos de diferentes configurações e materiais de barreira sob várias condições para o uso na memória e outras funções.
“A combinação de baixa perda de lógica supercondutora não volátil, a memória magnética híbrida pode revolucionar a computação e armazenamento de dados dentro de uma década”, diz Ron Goldfarb, líder do Magnetics Group e membro de apoio da equipe do NIST. “O recente trabalho do NIST demonstrando comutação spintrônica de dispositivos híbridos de memória magnética-supercondutora foi uma prova vital de princípio. Outros grupos estão trabalhando em diferentes implementações. Devido à sua experiência de medição e imparcialidade, a NIST será responsável por testes para IARPA.
Olhando para o futuro, Goldfarb diz: “O desenvolvimento de novos tipos de processadores de computador para além dos limites dos semicondutores é uma área emergente de pesquisa interdisciplinar. Isso inclui novos tipos de lógica computacional, memória principal, memória de cache e de armazenamento em massa para supercomputadores, processadores de imagem e centros de dados. A partir de uma perspectiva de medidas, há uma necessidade de testar o protótipo e aferir a confiabilidade, reprodutibilidade, dissipação de energia e desempenho de alta velocidade desses componentes, dispositivos, circuitos, e os seus materiais constituintes”.






sábado, 13 de setembro de 2014

Computação quântica já existe! (e usa supercondutores)


Google comercializa computador quântico


Para realizar computação quântica confiável, o sistema da D-Wave opera em temperaturas próximas do zero absoluto. [Fonte da imagem: ZDNet]


O Instituto de Física Teórica Kavli da Universidade da Califórnia em Santa Barbara (UBC) está se unindo ao Google para promover a comercialização de computadores quânticos baseados em supercondutores.
A empresa D-Wave parecia um tiro no escuro quando lançada em 1999. Um ramo da University of British Columbia (UBC), a empresa pretendia comercializar o que na década de 1990 era um campo relativamente controverso e teórico - a computação quântica. A computação quântica é a arte de manipular entidades atômicas e explorar peculiaridades da física conhecida como “efeitos quânticos” para armazenar informações de forma mais densa e obter respostas instantaneamente de algoritmos complexos. A computação quântica é um desafio dos dois lados. Primeiro você precisa desenvolver um hardware capaz de explorar os tipos desejados de manipulação quântica. Segundo, você precisa programar o hardware com um algoritmo quântico derivado de um algoritmo clássico, como o algoritmo Page Rank de busca do Google.
Na década de 1990, nem o hardware nem o desenvolvimento de algoritmos quânticos era avançado o suficiente para ser considerado comercialmente viável. Mas a D-Wave jogou os dados e lançou uma startup na esperança de que poderia mudar isso no lado do hardware. Trabalhando em estreita colaboração com a UBC, com a Universidade de Toronto, com o laboratório de propulsão a jato da NASA e várias outras instituições de pesquisa americanas e canadenses, a D-Wave conseguiu atingir o improvável – construiu um hardware de computação quântica com potencial comercial.
Em 2007, ele executou sua primeira demonstração pública no sistema “Orion” de 16 qubits (qubit = bit quântico), que tinha uma parte especial de hardware chamado de “processador supercondutor quântico adiabático”. O processador quântico foi mais do que um co-processador no sentido de que ele não foi projetado para computação de propósitos gerais, mas para rodar algoritmos quânticos especializados carregados pelo hardware convencional.
Soluções foram geradas a partir de um processo complexo conhecido como 'recozimento quântico' (quantum annealing). Mais especificamente, o sistema da D-Wave opera através do entrelaçamento quântico - uma espécie de ligação psíquica (metaforicamente falando) entre elétrons em que espelham seus estados uns nos outros (mais especificamente, espelham uns nos outros os spins sobre seus respectivos núcleos atômicos). Para obter resultados ​​quânticos confiáveis, o sistema é resfriado a uma temperatura tão fria quanto ou mais que o espaço sideral.
Inicialmente, a alegação da D-Wave possuir o primeiro computador quântico funcional foi controversa. Contudo, os céticos foram incapazes de refutar suas reivindicações. Apoiadores como a NASA publicaram evidências dando suporte à sua possível validade.


O primeiro projeto revelado publicamente da D-Wave foi o processador “Orion” de 16 qubits


Desde o início, aplicações para a pesquisa eram evidentes. Junto com a resolução dos enigmas de Sudoku e um problema de escalonamento, um dos três demos iniciais em 2007 envolveu a busca de moléculas conhecidas em um banco de dados. Determinados algoritmos de busca de gráfico são problemas NP-completos; portanto, é impossível em um sentido convencional gerar uma solução exata na maioria dos casos.


A D-Wave iniciou a produção comercial com o processador “Orion” de 16-qubit


O objetivo é desenvolver a heurística para fornecer uma boa aproximação com base nas necessidades. Um dos objetivos centrais da D-Wave foi desenvolver um hardware comercial para obter soluções aproximadas de problemas NP-completos muito mais rápido do que é possível com hardware convencional.




Em maio de 2011, a D-Wave anunciou a disponibilidade de um processador de 128 qubit apelidado de “Rainier” (codinome: Chimera). O sistema completo tinha um preço de US$ 10 milhões de dólares. Este sistema tem uma temperatura operacional de 13,8 milikelvin (mK). A temperatura média que ocorre naturalmente no espaço sideral é de aproximadamente 2,7 K - quase 200 vezes maior do que a temperatura no interior do computador quântico.


D-Wave lançou em 2012 processadores quânticos de 128 qubits


Apesar do custo, o sistema recebeu várias compras. Os clientes incluem Universidade de Harvard, a Lockheed Martin Corp. (LMT) e a Universidade de Cornell. Enquanto o sistema mostrou resultados questionáveis ​​em termos de aceleração, ao menos desmistificou o ceticismo fornecendo indícios de que o complexo equipamento funcionou como descrito.

O computador quântico One D-Wave vendido por US$ 10 milhões de dólares


Mais tarde naquele ano, a D-Wave apresentou o Vesúvio (D-Wave Two) com 512-qubit. O design do D-Wave Two foi um salto crucial, uma vez que finalmente começou a eclipsar os computadores tradicionais em velocidade. Em alguns casos, o D-Wave Two foi centenas de vezes mais rápido quando comparado o melhor algoritmo quântico com o algoritmo clássico mais apto em hardware tradicional.

 Google e D-Wave: enredados por uma causa comum

O envolvimento da Google com a D-Wave remonta há mais de meia década. Em 2009, uma das primeiras demonstrações de protótipos iniciais da D-Wave envolveu um algoritmo quântico de busca de imagem da Google. Em maio de 2013, o Google e a D-Wave aprofundaram a parceria anunciando a abertura do  laboratório Google Quantum Artificial Intelligence. O laboratório foi co-patrocinado pela NASA e pela Universities Space Research Association (USRA). Ele mostrou que em vários indicadores, o D-Wave poderia oferecer uma aceleração de 3 a 5 ordens de magnitude maior do que dos algoritmos e hardwares convencionais.
Google usou suas caixas da D-Wave para otimizar partes do seu sistema operacional Android. Enquanto eles se recusaram a revelar certos detalhes, o Google disse que as otimizações alcançadas com o hardware quântico foram muito além do que era possível com o seu hardware convencional. Uma caixa da D-Wave poderia fazer o trabalho de otimização, em alguns casos, de todo um grande centro de dados.
        Em maio, o laboratório ofereceu uma validação crucial da tecnologia D-Wave, usando uma técnica chamada espectroscopia de tunelamento de qubit. Eles observaram uma forte evidência de entrelaçamento quântico durante uma parte chave do processo. Esta validação foi muito importante, já que algumas perguntas permaneciam se a máquina da D-Wave verdadeiramente realizava o quantum annealing. Enquanto descrições da física quântica forneceram o melhor ajuste para métricas observadas anteriormente, estudos indicam que os modelos clássicos demonstraram um comportamento semelhante. O novo trabalho do Google et al., mostrou de forma inequívoca que os mecanismos quânticos estavam trabalhando dentro das misteriosas caixas da D-Wave.

Sangue novo!

A parceria anunciada recentemente com a UCSB traz a bordo um dos maiores especialistas do mundo em supercondutores, o físico John Martinis. Professor Martinis ganhou o prêmio de Londres - um prêmio de investigação de ponta - para aplicações de supercondutores na computação quântica. Sua especialidade está no controle quântico - sistemas químicos que permitem manipulação de estados quânticos - e processamento de informação quântica - projetar algoritmos quânticos especializados (software) para analisar conjuntos de dados complexos.


O grupo do professor Martinis: Austin Fowler, Rami Barends, Professor John Martinis e Julian Kelly


Hartmut Neven, diretor de engenharia do Google relata:
Com um grupo de hardware integrado, a equipe agora será capaz de implementar e testar novos designs para otimização quântica e processadores de inferência baseados em recentes conhecimentos teóricos, bem como em nosso aprendizado a partir da arquitetura quantum annealing da D-Wave. Vamos continuar colaborando com os cientistas da D-Wave e experimentar a máquina "Vesúvio" na NASA, que será atualizada para 1000 qubit do processador "Washington".

A D-Wave revelou no ano passado que a sua concepção de qubit consiste de alças supercondutoras compostas de nióbio, com uma camada isolante de óxido de alumínio na junção. Os loops supercondutores são conhecidos como junções Josephson, em homenagem ao físico britânico Brian David Josephson que ganhou um prêmio Nobel de Física por descrever, em 1962, o comportamento deste tipo de circuito.


Circuitos supercondutores de nióbio e óxido de alumínio podem ser construídos em um substrato de silício para projetos de eletrônica quântica. [Fonte da imagem: IEEE Spectrum]


A fase e a carga do supercondutor utilizado são fundamentais para quanto tempo os qubits podem ser mantidos e que níveis de emaranhamento podem ser alcançados durante o quantum annealing. Nióbio é o supercondutor líder usado nestas junções, que também são conhecidas como junções túnel (STJ). Não há substituto para o nióbio que é o supercondutor elementar de mais alta temperatura crítica (9,26 K). Investigações sugerem que o tecnécio sob alta pressão pode alcançar 11,2 K, porém mais trabalho precisa ser feito para analisar a viabilidade da utilização de um material em uma STJ.


Nióbio elementar na forma de liga é azul e é encontrado em depósitos cristalinos. [Fonte da imagem: Wikimedia Commons]


Entretanto, professor Martinis pode focar seus conhecimentos na otimização da geometria da junção e nas técnicas de deposição para produzi-la de forma consistente e acessível. Ele deve também trabalhar para produzir um tipo especial de geometria na junção Josephson - uma junção em forma de cruz que ele chama de “XMON”. Em abril, sua equipe publicou um artigo na Nature sobre ‘xmons’ de qualidade perto de comerciais. Xmons mostram emaranhamento superior a outras geometrias da junção, mas (como afirma o artigo) está apenas começando a se aproximar da disponibilidade comercial.

Professor Martini desenvolveu uma junção Josephson melhorada que tem uma geometria em forma de cruz. Ele a chama de um qubit “XMON”. [Fonte da imagem: UCSB]


A recompensa para o Google irá, em curto prazo, ser realizada por meio de algoritmos de otimização de software que caçam pelas ineficiências em um código base. Em longo prazo, o Google pode ser capaz de abaixar os preços desses sistemas quânticos o suficiente para torná-los utilizáveis ​​como um backend de busca para o seu motor de imagens, proporcionando uma busca muito mais veloz e inteligente.


Entre em contato

Nome

E-mail *

Mensagem *

Supercondutividade ao seu alcance (clique na imagem)

Supercondutividade ao seu alcance (clique na imagem)
Nosso canal no YouTube!

Elementos supercondutores (clique na imagem)

Elementos supercondutores (clique na imagem)
Supercondutores à pressão ambiente e sobre altas pressões

Evolução da temperatura crítica (clique na imagem)

Heike Kamerlingh Onnes’s Discovery of Superconductivity

Heike Kamerlingh Onnes’s  Discovery of Superconductivity
Clique na imagem para acessar o artigo da Scientific American!

Room-Temperature Superconductivity

Room-Temperature  Superconductivity
Livro gratuito, clique na imagem para acessar!

O trem flutuante brasileiro!