Aplicações da Supercondutividade - O skate voador da Lexus

domingo, 28 de setembro de 2014

Matéria de Vórtices em Supercondutores









Excelente seminário do professor Clécio Clemente do Departamento de Física da UFPE. São apresentados conceitos básicos da supercondutividade, da dinâmica de vórtices e resultados de pesquisa desenvolvida sobre a matéria de vórtices.
        Para mais informações sobre o professor Clécio Clemente, acesse: http://www.ufpe.br/df/index.php?option=com_content&view=article&id=295%3Aclecio-clemente-de-souza-silva&catid=31&Itemid=220




quarta-feira, 24 de setembro de 2014

Trem flutuante entra em fase de testes operacionais no próximo dia 1º


PAULO MAURÍCIO COSTA

Rio - O primeiro trem de levitação magnética fabricado no país, o Maglev-Cobra, desenvolvimento pela Coppe, da UFRJ, começará a fase de testes operacionais no próximo dia 1º. Um time de pesquisadores estrangeiros chegará ao Rio no próximo domingo para participar de uma conferência e conhecer o veículo flutuante no trajeto em que ele vai funcionar, os 200 metros compreendidos entre dois centros tecnológicos da Cidade Universitária, na Ilha do Fundão.


O protótipo do veículo da Coppe que se move sem tocar nos trilhos. Foto:  Divulgação

A composição de quatro módulos (1,5 metro cada um), movido a energia elétrica, não emite dióxido de carbono nem quaisquer ruídos e terá capacidade para 30 passageiros — em princípio, os frequentadores do campus universitário. O projeto contempla ainda a instalação de painéis de energia solar capazes de gerar energia suficiente para alimentar o veículo. Durante a primeira etapa de testes e ajustes da máquina, a velocidade do trem será limitada a 20 quilômetros por hora (km/h). Entretanto, segundo os pesquisadores, o veículo poderá alcançar mais de 100 km/h, dependendo da via.
Além dos benefícios ambientais, a tecnologia de flutuação magnética tem vantagens econômicas. Um quilômetro de construção de um trilho do trem de levitação magnética custará um terço do valor necessário para cada quilômetro construído de metrô. Hoje, um quilômetro de metrô subterrâneo custa de R$ 300 a R$ 400 milhões, segundo o professor da PUC Fernando MacDowell, especialista em sistemas metroviários. As obras das estações na Cidade Universitária começaram em abril do ano passado.
Desenvolvido no Laboratório de Aplicações de Supercondutores (Lasup) da Coppe, sob a coordenação do professor Richard Stephan, o Maglev será finalizado em 2015, segundo a instituição. O Maglev-Cobra, de acordo com Stephan, está hoje no nível sete de uma escala de evolução tecnológica até dez utilizada pela Nasa, a Agência Espacial dos Estados Unidos. “Ao atingir a etapa seguinte, o projeto estará pronto para a industrialização”, afirmou Stephan.
O teste do maglev brasileiro, com os especialistas a bordo, vai fechar a 22ª Conferência Internacional sobre Sistemas de Levitação Magnética. Entre os participantes estão Lin Guobin, responsável pelo projeto do maglev chinês, e Kay Hameyer, diretor do Instituto de Máquinas Elétricas da Alemanha. Segundo a Coppe, chineses e alemães compartilham com o Brasil a liderança das pesquisas sobre a levitação magnética aplicada à mobilidade urbana.




domingo, 21 de setembro de 2014

O primeiro metamaterial supercondutor




Metamateriais são materiais que não ocorrem espontaneamente na natureza. O exemplo mais comum é o índice de refração negativo: na natureza, cada material conhecido tem um índice de refração positivo (sempre desvia a luz de uma determinada forma) - enquanto metamateriais pode curvar a luz na direção oposta.
Estes materiais têm levado a algumas aplicações interessantes, como mantos de invisibilidade. Agora, pesquisadores da Universidade de Baltimore, da Universidade de Maryland e do Laboratório de Pesquisa Naval fizeram a mesma coisa com supercondutores: elevaram sua temperatura crítica. Esta abordagem empírica, deliberada é muito diferente da pesquisa de costume, que é principalmente superou em conjecturas educado. [Experimental demonstration of superconducting critical temperature increase in electromagnetic metamaterials].
        Em teoria, este é um passo muito grande para a criação de um dos materiais mais poderosos, valiosos e indescritíveis do mundo: um supercondutor à temperatura ambiente. Enquanto supercondutores são usados extensivamente em ciência e medicina, o fato de que eles precisam ser mantidos em temperaturas criogênicas (abaixo -150C) os tornam muito caros e complicados. Muito trabalho está sendo feito na chamada “supercondutividade de alta temperatura”, mas o melhor valor obtido gira em torno de -140 ºC para o HgBa2Ca2Cu3Ox (HBCCO).
Na prática, os pesquisadores ainda têm um longo caminho a percorrer: sua abordagem com metamaterial foi capaz de elevar a temperatura crítica de estanho de 0,15 Kelvin. Ainda assim, no campo da mecânica quântica, onde quase nada se sabe sobre por que ou como existe supercondutividade, é uma grande notícia. Sabe-se muito pouco sobre supercondutores de alta temperatura - nós pensamos que as “camadas” destes compostos complexos agem como o equivalente de elétrons de guias de onda ópticos, conduzindo os elétrons através do material com resistência zero. Esta nova pesquisa pode nos ajudar a compreender estes supercondutores de alta temperatura um pouco melhor, e talvez também para ajustá-los para mover a temperatura crítica cada vez mais próxima à temperatura ambiente.
        Se nós somos capazes de controlar supercondutores - e há todas as razões para acreditar que podemos - então podemos esperar mudanças em muitas facetas da vida. Supercondutores em linhas de energia poderiam economizar bilhões de dólares em perdas de transmissão - ou permitir a construção de super  redes. Poderíamos substituir todo o sistema de transporte com os trens maglev super-rápidos... e isso é só o começo!




Levitando sapos: uma defesa da ciência das sextas-feiras à noite





Alvaro Bianchi (Este artigo foi escrito durante sextas-feiras à noite)


http://www.ru.nl/hfml/research/levitation/diamagnetic/




O conhecido Ig Nobel Prize é um evento sério. Em 2013 cientistas chineses foram premiados por um estudo sobre os efeitos da audição de óperas em ratos submetidos a transplante de coração (UCHIYAMA et al., 2012); franceses e americanos por terem comprovado experimentalmente que homens bêbados acreditam que são atraentes (BÈGUE et al., 2012); uma equipe italiana por descobrir que pessoas podem correr sobre a superfície de um lago, se as pessoas e o lago estiverem na lua (MINETTI et al., 2012); e cientistas tailandeses por desenvolverem técnicas para o tratamento de casos de pênis amputados, as quais eram altamente recomendadas, exceto nos casos nos quais o pênis tivesse sido parcialmente comido por um pato (BHANGANADA et al., 1983). O que estas pesquisas tem em comum é o fato de terem sido publicadas em algumas das mais importantes revistas acadêmicas do mundo.
Para os cientistas o Ig Nobel Prize é uma oportunidade imperdível para exercerem a autorreflexão necessária para a produção do conhecimento. Sua revista Annals of Improbable Research sumariza investigações das mais inusitadas, muitas vezes promovidas por importantes centros de pesquisa; a cerimônia de premiação atrai cientistas consagrados ao Sanders Theatre da Harvard University; e ela é transmitida ao vivo pela National Public Radio. O prêmio é entregue por ganhadores do Nobel e os vencedores expõem os resultados de suas pesquisa no prestigiado MIT. Os que não conseguem reconhecimento devido a suas descobertas científicas ainda tem a chance, como Albert Einstein, de fazer parte da galeria The Luxuriant Flowing Hair Club for Scientists (LFHCfS), do qual fazem parte cientistas que tem ou acreditam ter  “uma luxuriante cabeleira”.
        Quem pensa que o Ig Nobel não é sério precisa mudar seu jeito de ver a ciência. Em 2000, Andre Geim e Sir Michael Berry, arrebataram o Prêmio Ig Nobel de Física com uma inusitada pesquisa a respeito da levitação de sapos utilizando magnetos, fato que lhes deu notoriedade. O feito foi anunciado na revista European Journal of Physics, de 1997 e explicado pra um público mais amplo na Physics Today de 1998, na qual era demonstrada a levitação sapos, insetos e de uma bolha d`água.
        Mas por que sapos e não objetos mais “científicos” como grafite, tubos plásticos ou mesmo um lápis? Segundo o Nijmegen High Field Magnet Laboratory, os sapos foram escolhidos para “chamar a atenção de um público mais amplo e na esperança de que pesquisadores de várias disciplinas, e não apenas físicos, nunca esqueça essa força frequentemente negligenciadas e as oportunidades que ela oferece.” E, é claro, para que os estudantes dos fenômenos magnéticos “não fiquem tão entediados”.
        Além de brincar de mágico e chocar a audiência acadêmica com seu humor, Geim investigou o grafeno bidimensional, um componente extremamente flexível, forte, leve e quase transparente. Cientistas consideram esse material a chave para uma nova geração de supercondutores. O grafeno é composto por uma única camada de átomos de carbono compactados em uma grade de duas dimensões. Geim e seu colega Novoselov obtiveram o grafeno de modo inesperado, quando analisaram as partículas que ficavam presas a uma fita adesiva que utilizavam para limpar a superfície de um bloco de grafite. Suas pesquisas com esse a material tornaram o levitador de sapos o vencedor do prêmio Nobel de 2010.
        Em sua lecture por ocasião do recebimento do prêmio Nobel, Geim também narrou a descoberta da “fita lagartixa”. Lendo um artigo sobre as lagartixas, o físico descobriu que a aderência de suas patas às paredes era decorrente dos milhões de pequenos pelos que estas possuíam nos dedos. Cada pelo prendia-se à superfície oposta com uma diminuta força de van der Waals.[1] Milhões desses pequenos pelos, reunidos na ponta dos dedos das lagartixas eram capazes de criar uma força de atração impressionante. Geim usou esse princípio para criar uma fita que simulava as patas peludas da lagartixa. Embora tivessem conseguido produzir a fita e ela se comportasse da mesma maneira que as patas do pequeno réptil ela rapidamente perdia suas propriedades e a aderência desejada.
        Sapos, grafeno e lagartixas são áreas de pesquisa independentes para Geim. Mas elas foram desenvolvidas a partir de uma prática científica comum, que o próprio físico denomina de Friday Night experiments. Trata-se de investigações realizadas à margem da área principal de especialização e de trabalho que podem levar a “resultados interessantes, mesmo que partindo de ideias extremamente básicas” (GEIM, 2010, p. 75). Contabilizando seus Friday Nights experiments, Geim listou quase duas dúzias deles. A maioria fracassou, mas a levitação de sapos, o grafeno e a “fita lagartixa” constituíram três estrondosos sucessos e conduziram seu autor ao topo da física contemporânea, ao Ig Nobel e, por fim, ao cobiçado Nobel de Física. Uma vida acadêmica extremamente produtiva, com uma taxa de sucesso superior a 10% e ao mesmo tempo divertida e estimulante nasceu nas ociosas noites de sexta-feira.

Ciência crítica e imaginação

O que faz das noites de sexta-feira mais criativas para a atividade científica? Fundamentalmente a ausência de pressões externas e a livre associação de ideias. Sem muitas contas a prestar, relatórios a redigir, papers a escrever e formulários a preencher, o cientista pode se concentrar naquilo que realmente gosta de fazer: ciência. Afastado voluntariamente de sua área de especialização ele toma distância dos procedimentos canônicos, dos experimentos rotineiros, da bibliografia básica e arrisca-se a pensar fora dos padrões previamente estabelecidos, atirando-se em direção ao desconhecido ou, simplesmente, brincar com sapos, fitas adesivas e lagartixas.
        A sexta-feira permite fugir daquilo que Thomas Kuhn chamou de “ciência normal”, aquela atividade científica baseada em um paradigma solidamente estabelecido e cuja maior preocupação é mostrar pela enésima vez sua consistência ou descobrir novas e rentáveis aplicações para aquilo que já é conhecido. Permite, também, afastar-se da ciência guiada por uma razão instrumental, a qual só reconhece como legítimo o conhecimento que se converte em um meio para a obtenção de fins.
        A razão instrumental está marcada pela capacidade de calcular probabilidades e desta forma decidir a respeito dos meios que devem ser utilizados par atingir um fim determinado. Mas essa razão diz pouco sobre os fins em si. Tanto faz se eles são racionais ou irracionais, justos ou injustos. Nessa perspectiva os fins estão isentos de toda justificativa moral. Onde estaria, então, a fonte de legitimidade dos fins? No capitalismo contemporâneo a razão instrumental encontraria sua legitimidade no mercado, no Estado ou em uma combinação de ambos. A mão invisível de Adam Smith e o Leviatã de Hobbes são as forças sociais que selecionam perdedores e ganhadores, fins legítimos e ilegítimos.  Acumulação de riqueza e poder. Estes são os fins últimos. É apenas como força produtiva de riqueza e poder, ou seja, como técnica, que a ciência encontraria sua legitimidade.
        Um caminho diferente para a ciência é aquele apontado pela razão crítica, a qual se apoia na ideia de que os fins podem ser racionais por si mesmos e portanto legítimos. Para a razão crítica, mercado e o Estado não são reconhecidos como os tribunais exclusivos da legitimidade do conhecimento. Este é legítimo devido a suas qualidades intrínsecas e independentemente de qualquer ganho ou lucro que se possa auferir no presente ou no futuro.
        O senso comum contemporâneo professa uma razão instrumental e manifesta estranheza perante a razão crítica. Para este, a ciência e o conhecimento deveriam ter efeitos práticos imediatos, caso contrário não se justificaria tanto esforço. O senso comum vê a ciência e os cientistas com um misto de temor perante o desconhecido e desprezo pelo que não pode compreender. Mas esse senso comum não está muito longe das orientações das agências de fomento. Elas tem claramente apontado a direção, com editais específicos que estimulam o desenvolvimento de novas tecnologias aplicadas à solução de problemas práticos. A Plataforma Lattes incorporou essa orientação há muitos anos, incluindo um formulário sobre o “campo de aplicação” de pesquisas e artigos científicos.
        O que essa orientação instrumental elimina é a ciência das sextas-feiras. Para o senso comum e a burocracia acadêmica, essa é uma medida importante para acabar com o desperdício de energias e recursos. Mas é também uma barreira à imaginação científica e ao desenvolvimento da ciência crítica. Sem os experimentos de sexta-feira, ou seja, sem a livre imaginação científica, não é possível ir muito longe. Se o objetivo for aplicar um conhecimento criado alhures, tudo bem. Mas se a intenção for criar um novo conhecimento científico e revolucionar um campo de conhecimento, então é preciso romper as amarras burocráticas e ousar.

Referências bibliográficas









[1] Forças de van der Waals são todas aquelas forças que não são decorrência de ligações covalentes entre moléculas ou da interação eletroestática de íons (IUPAC, 2014, p. 1588).



sábado, 13 de setembro de 2014

Computação quântica já existe! (e usa supercondutores)


Google comercializa computador quântico


Para realizar computação quântica confiável, o sistema da D-Wave opera em temperaturas próximas do zero absoluto. [Fonte da imagem: ZDNet]


O Instituto de Física Teórica Kavli da Universidade da Califórnia em Santa Barbara (UBC) está se unindo ao Google para promover a comercialização de computadores quânticos baseados em supercondutores.
A empresa D-Wave parecia um tiro no escuro quando lançada em 1999. Um ramo da University of British Columbia (UBC), a empresa pretendia comercializar o que na década de 1990 era um campo relativamente controverso e teórico - a computação quântica. A computação quântica é a arte de manipular entidades atômicas e explorar peculiaridades da física conhecida como “efeitos quânticos” para armazenar informações de forma mais densa e obter respostas instantaneamente de algoritmos complexos. A computação quântica é um desafio dos dois lados. Primeiro você precisa desenvolver um hardware capaz de explorar os tipos desejados de manipulação quântica. Segundo, você precisa programar o hardware com um algoritmo quântico derivado de um algoritmo clássico, como o algoritmo Page Rank de busca do Google.
Na década de 1990, nem o hardware nem o desenvolvimento de algoritmos quânticos era avançado o suficiente para ser considerado comercialmente viável. Mas a D-Wave jogou os dados e lançou uma startup na esperança de que poderia mudar isso no lado do hardware. Trabalhando em estreita colaboração com a UBC, com a Universidade de Toronto, com o laboratório de propulsão a jato da NASA e várias outras instituições de pesquisa americanas e canadenses, a D-Wave conseguiu atingir o improvável – construiu um hardware de computação quântica com potencial comercial.
Em 2007, ele executou sua primeira demonstração pública no sistema “Orion” de 16 qubits (qubit = bit quântico), que tinha uma parte especial de hardware chamado de “processador supercondutor quântico adiabático”. O processador quântico foi mais do que um co-processador no sentido de que ele não foi projetado para computação de propósitos gerais, mas para rodar algoritmos quânticos especializados carregados pelo hardware convencional.
Soluções foram geradas a partir de um processo complexo conhecido como 'recozimento quântico' (quantum annealing). Mais especificamente, o sistema da D-Wave opera através do entrelaçamento quântico - uma espécie de ligação psíquica (metaforicamente falando) entre elétrons em que espelham seus estados uns nos outros (mais especificamente, espelham uns nos outros os spins sobre seus respectivos núcleos atômicos). Para obter resultados ​​quânticos confiáveis, o sistema é resfriado a uma temperatura tão fria quanto ou mais que o espaço sideral.
Inicialmente, a alegação da D-Wave possuir o primeiro computador quântico funcional foi controversa. Contudo, os céticos foram incapazes de refutar suas reivindicações. Apoiadores como a NASA publicaram evidências dando suporte à sua possível validade.


O primeiro projeto revelado publicamente da D-Wave foi o processador “Orion” de 16 qubits


Desde o início, aplicações para a pesquisa eram evidentes. Junto com a resolução dos enigmas de Sudoku e um problema de escalonamento, um dos três demos iniciais em 2007 envolveu a busca de moléculas conhecidas em um banco de dados. Determinados algoritmos de busca de gráfico são problemas NP-completos; portanto, é impossível em um sentido convencional gerar uma solução exata na maioria dos casos.


A D-Wave iniciou a produção comercial com o processador “Orion” de 16-qubit


O objetivo é desenvolver a heurística para fornecer uma boa aproximação com base nas necessidades. Um dos objetivos centrais da D-Wave foi desenvolver um hardware comercial para obter soluções aproximadas de problemas NP-completos muito mais rápido do que é possível com hardware convencional.




Em maio de 2011, a D-Wave anunciou a disponibilidade de um processador de 128 qubit apelidado de “Rainier” (codinome: Chimera). O sistema completo tinha um preço de US$ 10 milhões de dólares. Este sistema tem uma temperatura operacional de 13,8 milikelvin (mK). A temperatura média que ocorre naturalmente no espaço sideral é de aproximadamente 2,7 K - quase 200 vezes maior do que a temperatura no interior do computador quântico.


D-Wave lançou em 2012 processadores quânticos de 128 qubits


Apesar do custo, o sistema recebeu várias compras. Os clientes incluem Universidade de Harvard, a Lockheed Martin Corp. (LMT) e a Universidade de Cornell. Enquanto o sistema mostrou resultados questionáveis ​​em termos de aceleração, ao menos desmistificou o ceticismo fornecendo indícios de que o complexo equipamento funcionou como descrito.

O computador quântico One D-Wave vendido por US$ 10 milhões de dólares


Mais tarde naquele ano, a D-Wave apresentou o Vesúvio (D-Wave Two) com 512-qubit. O design do D-Wave Two foi um salto crucial, uma vez que finalmente começou a eclipsar os computadores tradicionais em velocidade. Em alguns casos, o D-Wave Two foi centenas de vezes mais rápido quando comparado o melhor algoritmo quântico com o algoritmo clássico mais apto em hardware tradicional.

 Google e D-Wave: enredados por uma causa comum

O envolvimento da Google com a D-Wave remonta há mais de meia década. Em 2009, uma das primeiras demonstrações de protótipos iniciais da D-Wave envolveu um algoritmo quântico de busca de imagem da Google. Em maio de 2013, o Google e a D-Wave aprofundaram a parceria anunciando a abertura do  laboratório Google Quantum Artificial Intelligence. O laboratório foi co-patrocinado pela NASA e pela Universities Space Research Association (USRA). Ele mostrou que em vários indicadores, o D-Wave poderia oferecer uma aceleração de 3 a 5 ordens de magnitude maior do que dos algoritmos e hardwares convencionais.
Google usou suas caixas da D-Wave para otimizar partes do seu sistema operacional Android. Enquanto eles se recusaram a revelar certos detalhes, o Google disse que as otimizações alcançadas com o hardware quântico foram muito além do que era possível com o seu hardware convencional. Uma caixa da D-Wave poderia fazer o trabalho de otimização, em alguns casos, de todo um grande centro de dados.
        Em maio, o laboratório ofereceu uma validação crucial da tecnologia D-Wave, usando uma técnica chamada espectroscopia de tunelamento de qubit. Eles observaram uma forte evidência de entrelaçamento quântico durante uma parte chave do processo. Esta validação foi muito importante, já que algumas perguntas permaneciam se a máquina da D-Wave verdadeiramente realizava o quantum annealing. Enquanto descrições da física quântica forneceram o melhor ajuste para métricas observadas anteriormente, estudos indicam que os modelos clássicos demonstraram um comportamento semelhante. O novo trabalho do Google et al., mostrou de forma inequívoca que os mecanismos quânticos estavam trabalhando dentro das misteriosas caixas da D-Wave.

Sangue novo!

A parceria anunciada recentemente com a UCSB traz a bordo um dos maiores especialistas do mundo em supercondutores, o físico John Martinis. Professor Martinis ganhou o prêmio de Londres - um prêmio de investigação de ponta - para aplicações de supercondutores na computação quântica. Sua especialidade está no controle quântico - sistemas químicos que permitem manipulação de estados quânticos - e processamento de informação quântica - projetar algoritmos quânticos especializados (software) para analisar conjuntos de dados complexos.


O grupo do professor Martinis: Austin Fowler, Rami Barends, Professor John Martinis e Julian Kelly


Hartmut Neven, diretor de engenharia do Google relata:
Com um grupo de hardware integrado, a equipe agora será capaz de implementar e testar novos designs para otimização quântica e processadores de inferência baseados em recentes conhecimentos teóricos, bem como em nosso aprendizado a partir da arquitetura quantum annealing da D-Wave. Vamos continuar colaborando com os cientistas da D-Wave e experimentar a máquina "Vesúvio" na NASA, que será atualizada para 1000 qubit do processador "Washington".

A D-Wave revelou no ano passado que a sua concepção de qubit consiste de alças supercondutoras compostas de nióbio, com uma camada isolante de óxido de alumínio na junção. Os loops supercondutores são conhecidos como junções Josephson, em homenagem ao físico britânico Brian David Josephson que ganhou um prêmio Nobel de Física por descrever, em 1962, o comportamento deste tipo de circuito.


Circuitos supercondutores de nióbio e óxido de alumínio podem ser construídos em um substrato de silício para projetos de eletrônica quântica. [Fonte da imagem: IEEE Spectrum]


A fase e a carga do supercondutor utilizado são fundamentais para quanto tempo os qubits podem ser mantidos e que níveis de emaranhamento podem ser alcançados durante o quantum annealing. Nióbio é o supercondutor líder usado nestas junções, que também são conhecidas como junções túnel (STJ). Não há substituto para o nióbio que é o supercondutor elementar de mais alta temperatura crítica (9,26 K). Investigações sugerem que o tecnécio sob alta pressão pode alcançar 11,2 K, porém mais trabalho precisa ser feito para analisar a viabilidade da utilização de um material em uma STJ.


Nióbio elementar na forma de liga é azul e é encontrado em depósitos cristalinos. [Fonte da imagem: Wikimedia Commons]


Entretanto, professor Martinis pode focar seus conhecimentos na otimização da geometria da junção e nas técnicas de deposição para produzi-la de forma consistente e acessível. Ele deve também trabalhar para produzir um tipo especial de geometria na junção Josephson - uma junção em forma de cruz que ele chama de “XMON”. Em abril, sua equipe publicou um artigo na Nature sobre ‘xmons’ de qualidade perto de comerciais. Xmons mostram emaranhamento superior a outras geometrias da junção, mas (como afirma o artigo) está apenas começando a se aproximar da disponibilidade comercial.

Professor Martini desenvolveu uma junção Josephson melhorada que tem uma geometria em forma de cruz. Ele a chama de um qubit “XMON”. [Fonte da imagem: UCSB]


A recompensa para o Google irá, em curto prazo, ser realizada por meio de algoritmos de otimização de software que caçam pelas ineficiências em um código base. Em longo prazo, o Google pode ser capaz de abaixar os preços desses sistemas quânticos o suficiente para torná-los utilizáveis ​​como um backend de busca para o seu motor de imagens, proporcionando uma busca muito mais veloz e inteligente.


sexta-feira, 12 de setembro de 2014

Cientistas solidificam a luz (Observation of a Dissipation-Induced Classical to Quantum Transition)




https://journals.aps.org/prx/abstract/10.1103/PhysRevX.4.031043
Luz cristalizada: inicialmente os fótons fluem facilmente entre os dois qubits, produzindo as grandes ondas à esquerda. A seguir, a luz cristaliza, mantendo os fótons no lugar (direita). (Imagem: Universidade de Princeton)


Cristal de luz

Cientistas garantem ter solidificado a luz, cristalizando os fótons como se eles fossem os átomos na rede cristalina de um sólido. Não se trata de espalhar a luz através de cristal - a luz se transforma em um cristal, com os fótons ficando fixos no lugar. Os cientistas já haviam torcido e retorcido a luz, congelado a luz e até construído rodas fotônicas. Mas formar uma rede cristalina de luz é algo inédito.
“É algo que nunca vimos antes,” disse Andrew Houck, da Universidade de Princeton, nos Estados Unidos. “Este é um novo comportamento para a luz.” Infelizmente, você não conseguirá pegar o cristal de luz na mão, uma vez que esse comportamento exótico cessa tão logo o feixe é desligado, mas os cientistas garantem que o experimento sem precedentes poderá responder a algumas perguntas fundamentais sobre a física da matéria. Essas perguntas têm sido feitas no esforço para desenvolver materiais com propriedades não encontradas na natureza, como supercondutores que funcionem a temperatura ambiente, e os tão sonhados computadores quânticos.

Onda, partícula, sólido

Para construir seu cristalizador de luz, James Raftery e seus colegas criaram uma estrutura feita de materiais supercondutores que contém 100 bilhões de átomos projetados para agir como uma entidade única - um átomo artificial. O aparato é baseado no processador quântico que a equipe vem desenvolvendo desde 2007, no qual átomos artificiais funcionam como qubits. Pelas regras da mecânica quântica, os fótons em um fio supercondutor que passa ao lado do processador herdam algumas das propriedades do átomo artificial - em certo sentido criando uma conexão entre eles.
        Fótons normalmente não interagem uns com os outros, mas, neste sistema, os pesquisadores foram capazes de criar um novo comportamento no qual os fótons começam a interagir como partículas, e não apenas como ondas. “Essas interações geram então um comportamento coletivo da luz totalmente novo - parecido com as fases da matéria, como os líquidos e cristais estudados na física da matéria condensada,” explica Darius Sadri, membro da equipe.
        Controlando o funcionamento do átomo artificial no interior do chip e a energia fluindo pelo supercondutor, os pesquisadores podem fazer com que a luz fique “espirrando” de um lado para o outro, como se fosse um líquido, ou simplesmente congele, criando um “cristal de luz”. Ou seja, além de se comportar como onda e como partícula, agora a luz se manifestou como matéria sólida como esta é vista pelas leis da mecânica clássica, criando uma forma simples e direta de interagir e, eventualmente, interferir com a matéria na fronteira quântico-clássica.


https://journals.aps.org/prx/abstract/10.1103/PhysRevX.4.031043
Detalhe do processador fotônico onde o experimento foi realizado. [Imagem: James Raftery et al. - 10.1103/PhysRevX.4.031043]


Construindo a matéria

Como o átomo artificial é um qubit por definição, a equipe está entusiasmada com a possibilidade de usar esse novo comportamento da luz para criar novas formas de computação ainda mais eficientes e rápidas do que as que vinham sendo consideradas pela computação quântica. O protótipo usado no experimento é relativamente pequeno, com apenas dois átomos artificiais emparelhados com um fio supercondutor. Mas a equipe afirma que, construindo um dispositivo maior, e aumentando o número de interações dos fótons, será possível aumentar sua capacidade e simular sistemas mais complexos. Isto tem a ver com os simuladores quânticos, circuitos capazes de simular de uma única molécula até um material sólido completo a partir dos primeiros princípios quânticos das suas partículas constituintes. É como aprender a construir a matéria de baixo para cima.
No futuro, a equipe pretende construir dispositivos com centenas de átomos artificiais, com os quais eles esperam observar fases ainda mais exóticas da luz, tais como superfluidos e isolantes. “Estamos interessados em explorar - e, finalmente, controlar e dirigir - o fluxo de energia em nível atômico”, disse outro membro da equipe, Hakan Tureci. “O objetivo é entender melhor os materiais e os processos atuais e avaliar materiais que ainda não podemos criar.”


Bibliografia:




domingo, 7 de setembro de 2014

Mãe do bóson de Higgs é encontrada em supercondutores (Mother of Higgs boson found in superconductors)


        Um primo teórico estranho do bóson de Higgs, que inspirou a caça de décadas da partícula elusiva, foi observado pela primeira vez. A descoberta é uma das mais emocionantes na era da física moderna. O campo de Higgs, que dá origem ao seu bóson xará, é creditado com a doação de massa para outras partículas por abrandar seu movimento através do vácuo. Proposto pela primeira vez na década de 1960, a partícula finalmente apareceu no Large Hadron Collider do CERN, Genebra, na Suíça, em 2012, e alguns dos teóricos por trás dele receberam o prêmio Nobel de Física em 2013.
        A ideia foi emprestada do comportamento dos fótons em supercondutores, sistemas que, quando resfriados a temperaturas muito baixas, permitem que elétrons se movam sem resistência.
      Perto do zero kelvin, as vibrações no material supercondutor abrandam pares de fótons que viajam através delas, fazendo a luz agir como se tivesse massa. Este efeito está intimamente ligado à ideia do bóson de Higgs – “a mãe dele, na verdade,” diz Raymond Volkas da Universidade de Melbourne na Austrália.
        Essas vibrações são o equivalente matemático da partícula de Higgs, diz Ryo Shimano da Universidade de Tóquio, que liderou a equipe que fez a nova descoberta. A versão supercondutor explica a massa virtual da luz em um supercondutor, enquanto a partícula física do campo de Higgs explica a massa dos bósons W e Z no vácuo.

Problema duplo

        Os físicos esperavam que o efeito tipo-Higgs surgisse em todos os supercondutores, porque também é responsável por suas propriedades características – a resistência elétrica zero. Mas só tinha sido visto antes impondo um tipo diferente de vibração no material.
        Para encontrá-lo em um supercondutor em seu estado normal, Shimano e colegas sacudiram violentamente o supercondutor com um breve pulso de luz. Shimano diz que é semelhante a como os físicos de partículas criam o bóson de Higgs real em colisões de partículas energéticas. Ele primeiro criou o bóson de Higgs em supercondutores no ano passado e agora tem estudado suas propriedades para mostrar que, matematicamente falando, ele se comporta quase exatamente como a física da partícula de Higgs.
        Observar as semelhanças entre os dois sistemas pode ser útil no estudo do verdadeiro bóson de Higgs. “Pode-se preparar vários tipos de vácuo em sistemas de matéria condensada, que não são capazes de serem produzidos em experimentos de física de partículas”, diz Shimano. “Pode-se fazer os experimentos em uma bancada que definitivamente iria revelar uma nova física e espero fornecer alguns feedbacks úteis para a física de partículas.”





Entre em contato

Nome

E-mail *

Mensagem *

Supercondutividade ao seu alcance (clique na imagem)

Supercondutividade ao seu alcance (clique na imagem)
Nosso canal no YouTube!

Elementos supercondutores (clique na imagem)

Elementos supercondutores (clique na imagem)
Supercondutores à pressão ambiente e sobre altas pressões

Evolução da temperatura crítica (clique na imagem)

Heike Kamerlingh Onnes’s Discovery of Superconductivity

Heike Kamerlingh Onnes’s  Discovery of Superconductivity
Clique na imagem para acessar o artigo da Scientific American!

Room-Temperature Superconductivity

Room-Temperature  Superconductivity
Livro gratuito, clique na imagem para acessar!

O trem flutuante brasileiro!