sábado, 28 de fevereiro de 2009

Bons ventos para a energia eólica brasileira

Pás do parque eólico de Osório, no Rio Grande do Sul. As pás, movimentadas pelo vento, comunicam-se com turbinas chamadas aerogeradores, instaladas normalmente logo atrás das pás, que transformam a energia de movimento em energia elétrica. Foto de Heitor Carvalho Jorge. Fonte: Wikipedia.

Parece que o governo quer mesmo fomentar o desenvolvimento da energia eólica (energia do vento) por aqui. Resolveu fazer um leilão para contratação de fornecimento de energia específico para ela. Deveria ter começado hoje, dia 28, mas no último dia 19 o governo adiou o período de consulta pública para até dia 15 de março. A idéia é contornar as dificuldades do alto custo dessa fonte de energia e promover o investimento na mesma.

Leilões para contratação de energia, no estilo atual, são feitos periodicamente desde dezembro de 2004. O governo faz um planejamento de quanta energia elétrica o país precisará e convoca um leilão para as empresas produtoras darem seus lances. Os contratos serão firmados com as empresas que derem os menores preços, satisfeitas as condições específicas.

O planejamento e os leilões têm seções para cada tipo de fonte de energia: hidrelétrica, termelétrica, eólica (energia do vento). A energia eólica, porém, ainda é muito cara em comparação com as outras, o que faz com que as empresas que nela investem tenham dificuldades em conseguir vender sua energia. Elas já chegaram a ficar de fora de leilões, como aconteceu em 2007.

Que a energia eólica pode se tornar viável economicamente, dependendo do país, é atestado pelo que acontece em vários lugares. Em 2008, a capacidade de produção mundial aumentou 28,8%, segundo o site Ambientebrasil, tendo crescido mais nos Estados Unidos e na China. Efeito da procura por fontes renováveis de energia. Na Alemanha, 23% da energia consumida tem origem eólica.

Já o Brasil, tem muito vento. As usinas têm que escolher os locais em que as suas características sejam apropriadas – como ter boa velocidade e ser suficientemente constante. O maior potencial está no Nordeste.


Por que eólica

E por que investir em energia eólica, se é mais cara? Uma razão é diversificar as fontes energéticas, já que as derivadas do petróleo tenderão a ficar cada vez mais caras, assim que o produto começar a ficar mais raro. Isso vale também para o gás natural, encontrado junto com o petróleo – não só por ser finito: os problemas políticos na Bolívia, o principal fornecedor do gás ao Brasil, têm levado a Petrobras a procurar fontes alternativas de gás, como a importação de gás liquefeito de outros países via navio.

Isso é importante, porque o Brasil tem aumentado o gás natural como fonte de energia elétrica (em usinas termelétricas) por causa do aumento da demanda por energia, que deverá crescer mais rápido que o planejamento de construção de usinas hidrelétricas poderá acompanhar. A construção de termelétricas é uma das estratégias para se evitar a repetição do “apagão” de 2001.

Outra vantagem da energia eólica é substituir combustíveis fósseis (diesel, carvão), que aumentam a quantidade de gás carbônico (CO2) na atmosfera terrestre. As emissões de CO2 alteram o equilíbrio do efeito-estufa, pelo qual a presença do CO2 e de outros gases e vapores (como metano e vapor d’água) na atmosfera terrestre mantém a temperatura mais ou menos estável. O resultado é o aquecimento do planeta – o tão falado “aquecimento global” –, que provoca várias mudanças climáticas e pode levar a uma elevação sensível do nível das águas dos oceanos, inundando cidades costeiras.

Sobre isso, o leitor Luiz Alberto Magri me enviou um artigo (em inglês) publicado pelo instituto canadense C. D. Howe, que faz uma comparação entre os custos de diferentes fontes de energia renovável que o governo do Canadá fomenta (como aquecimento solar, biomassa e adição de tecnologias mais eficientes a aparelhos já existentes, ou “retrofitting”).

Em certo ponto, nesse artigo, são comparadas as eficiências dessas fontes energéticas em reduzir as emissões de gás carbônico (CO2) na atmosfera. Na página 16, há uma tabela que resume essas informações.

Vejamos alguns números para fontes de energia usadas no Brasil. Segundo o artigo, caso a energia eólica substitua a do gás natural, ela é capaz de reduzir em 95% a emissão de CO2 para a atmosfera. A solar pode reduzir em até 76%. O biogás, 67%. Já se for substituída a energia derivada do carvão, a energia eólica chega a 98% de redução e a solar, a 91%. O biogás, 87%.

Esses valores não podem ser transferidos automaticamente para o Brasil, pois o gás do Canadá é diferente do gás brasileiro e do boliviano (importado pelo Brasil) e as tecnologias de produção de energia a partir dessas fontes também são outras. Mas o estudo dá uma idéia da diferença entre as diversas fontes em termos de emissão de CO2.

sexta-feira, 27 de fevereiro de 2009

Imagens quânticas, computadores quânticos

Aos pouquinhos, o computador quântico vai se aproximando da (ainda longínqua) realidade. Se sair da prancheta, sua velocidade deverá, para algumas aplicações, ser muitos milhões de vezes superior às máquinas modernas.

Um dos últimos avanços relevantes foi publicado no dia 12 de fevereiro, na revista britânica Nature. Enquanto a maioria das pesquisas até agora se concentrou no poder de cálculo do computador, esta tem a ver com processamento de imagens.

Mas, na verdade, o estudo do grupo de Alberto Marino, do NIST, nos Estados Unidos, tem um alcance bem maior. O que fizeram foi um aperfeiçoamento sensível na capacidade de se manipular um fenômeno físico mais geral, que é a base não só do computador quântico, mas também de outras tecnologias aparentadas e ainda sendo desenvolvidas, como o teleporte e a metrologia quânticos: o chamado emaranhamento quântico.


Um mundo emaranhado...

De fato, em todas essas tecnologias, o “dispositivo” principal é simplesmente um conjunto de partículas – elétrons, fótons – “ligadas” por um certo tipo especial de correlação, chamado “emaranhamento”. Essa correlação mantém o conjunto de partículas em um estado físico “uno”, “indivisível” – no sentido em que não é possível associar um estado físico a cada partícula individualmente; apenas ao conjunto todo corresponde um estado identificável. Uma alteração qualquer em um estado assim atinge as duas partículas simultaneamente – mesmo que estejam separadas por grandes distâncias.

Trata-se de uma das muitas consequências surpreendentes da mecânica quântica. Esta teoria foi desenvolvida entre 1900 e 1925 para substituir a “física clássica”, anterior, que não conseguia explicar fenômenos envolvendo átomos, moléculas e partículas subatômicas. Apesar das aparências – uma alteração atingindo ambas as partículas ao mesmo tempo, mesmo que distantes –, uma modificação no estado emaranhado por si só não consegue transmitir informações pelo espaço.


...e superposto

Há mais. Além de poderem emaranhar-se, estados físicos quânticos podem ser superpostos (na verdade, o emaranhamento já é um tipo de superposição, como falarei adiante). Um estado físico é simplesmente uma situação em que um objeto pode estar. Por exemplo, o meu computador, neste momento, está no estado físico “ligado”. O plástico de sua carcaça está no estado físico “de cor preta”. Mas ele não pode estar ligado e desligado ao mesmo tempo, nem a mesma região de sua carcaça ser branca e preta simultaneamente!

Um partícula suficientemente pequena também não pode estar em dois estados simultaneamente. Por outro lado, pode estar numa combinação, ou superposição deles, que produz um terceiro estado, diferente. Meu computador poderia, se fosse um elétron ou um átomo, estar num estado “ligado + desligado”. Não se trata de estar ao mesmo tempo ligado e desligado: é um terceiro estado, distinto dos outros dois.

Claro que ninguém nunca viu um computador em tal situação. Ocorre que essa combinação é tanto mais instável quanto maior for a massa do objeto em questão. Tanto que a primeira superposição quântica de estados de posição no espaço de um átomo só foi obtida em 1996. Algo do tamanho de um computador “colapsaria” quase imediatamente para um dos estados, ligado ou desligado, muito antes de poder ser observada. Essa rápida evolução da superposição de estados para um dos estados individuais, por efeito de perturbações mínimas do ambiente ao redor, chama-se “decoerência”.


Um mundo inacreditável

Se isso parece difícil de engolir, saiba que mesmo físicos como Albert Einstein também não acreditavam. Mas experimentos nas últimas décadas mostraram que ele estava errado. Talvez fique mais palatável se eu falar que outra consequência da mecânica quântica é que o que chamamos, por tradição, de “partículas” comportam-se, em grande parte das situações, como ondas (é a “dualidade onda-partícula”). Ora, ondas – ondas sonoras, na água, numa corda etc. – podem passar umas pelas outras, somar-se, cancelar-se. Podem superpor-se umas às outras.

A capacidade das partículas de superporem seus estados está relacionada com isto. Do ponto de vista matemático, a superposição de dois estados de uma partícula funciona exatamente como a superposição de duas ondas comuns.

A relação entre superposição e emaranhamento é que, quando se superpõe estados de mais de uma partícula de uma só vez, pode-se obter estados emaranhados. Para a computação quântica, a vantagem desses estados é a possibilidade de se fazer cálculos maciçamente paralelos, ou seja, muitos e muitos de uma só vez.

Para aplicações assim, em que o processamento pode ser dividido em muitas partes independentes, as quais podem ser feitas simultaneamente por várias máquinas para gastar menos tempo, o computador quântico fica muitas vezes mais rápido e econômico que o tradicional (nos outros casos, não – ou seja, o computador quântico não substituirá o normal, apenas o complementará). Senão, vejamos.


Como funciona o computador quântico

Na computação clássica, cada unidade de informação, chamada “bit”, pode assumir dois valores, normalmente chamados “0” e “1”. Um exemplo simplificado: dentro do circuito da máquina, um transistor pode estar “aberto” ou “fechado”. Se mantido em um desses estados, esse transistor “guarda” essa informação – pode funcionar como uma parte da memória (obs.: no mundo real, cada “unidade” de memória é formada por pequenos conjuntos de transistores, como os flip-flops).

No computador quântico, essa informação “0” ou “1” não é guardada em transistores, mas, geralmente, em átomos. Ora, se um átomo pode estar em “0” ou “1”, então dois átomos podem estar em quatro combinações: 00, 01, 10 ou 11 (assim também, naturalmente, com transistores e flip-flops).

Porém, os átomos são minúsculos o suficiente para exibir efeitos quânticos pronunciados. Assim, eles podem estar também em superposições desses quatro estados! E os computadores quânticos são preparados justamente desta forma, com os átomos em estados superpostos e emaranhados.

A coisa verdadeiramente interessante aparece quando lembramos que os estados emaranhados comportam-se como um só e podem ser manipulados como se fosse um único estado de uma única entidade. Por causa disso, é possível fazer uma conta com vários valores de uma vez só!

Um exemplo (vá vendo a figura abaixo). Eu posso somar o número 5 com os números 10, 20, 30 e 40 de uma só vez, com um só passo (ao invés de ter que fazer quatro contas, na computação tradicional). Basta para isso aplicar a operação “soma” ao próprio estado emaranhado como um todo. Cada um dos quatro elementos (estados) do emaranhado representa um dos quatro números – 10, 20, 30 ou 40, como mostram as setas na figura.


Na figura acima, o retângulo da direita representa um estado emaranhado das quatro combinações possíveis para dois átomos. O do centro, depois da seta, os números que cada um está representando. O retângulo da direita apresenta o resultado, depois que a operação “somar com 5” for executada sobre o estado emaranhado como um todo. É necessário um só passo para executar as quatro operações, enquanto os computadores tradicionais precisam de quatro cálculos diferentes.


A velocidade do computador quântico, nesse caso, fica 4 vezes a do tradicional (grosso modo, pois há outros efeitos envolvidos). Não só: é preciso só um computador para isso. Além de ser rápido, é econômico.

Já para três átomos, há oito combinações. E o trio de átomos estará num estado superposto de todas elas. Para quatro átomos, há dezesseis, e assim por diante. Para dez átomos, já há 1.024 combinações. Com bilhões de átomos emaranhados... a velocidade (e a economia) fica, digamos, colossalmente maior!

Parece promissor! Mas há um problema. A natureza não daria algo assim de mão beijada. Ocorre que os estados emaranhados são extremamente instáveis. Uma perturbação mínima (como sua participação num cálculo computacional) os “desmancha” e as partículas passam a comportar-se individualmente de novo. Apenas nos anos 1990 foi conseguido emaranhar átomos inteiros, durante uma fração de segundo. Desde lá, porém, as coisas têm avançado rapidamente e hoje consegue-se emaranhar até trilhões de átomos, mas durante um tempo muito pequeno – e sem manipulá-los enquanto estão emaranhados.


Fazendo imagens com emaranhamento

Só falei em “cálculos” até agora. Mas um computador não faz só isso – como qualquer pessoa que jogue, navegue na Internet ou use editor de imagens sabe bem. Pois o grupo de Marino trabalha justamente com imagens. Em junho de 2008, conseguiu produzir dois raios de luz emaranhados que continham, cada um, uma imagem das letras “NT”, a primeira e a última da sigla do instituto de pesquisa onde trabalham, o NIST. As duas imagens eram exatamente o oposto uma da outra.


As duas imagens que o grupo do NIST emaranhou. Crédito: V. Boyer et al., JQI


A novidade não foi só trabalhar com imagens. Outros grupos já faziam isso, mas havia grandes dificuldades técnicas e as figuras eram muito simples. Marino mostrou que se podia fazer imagens emaranhadas com materiais de laboratório muito mais usuais e trabalhar com figuras mais complexas. Com apenas 100 pixels cada uma (é preciso começar do começo), suas imagens ainda eram de baixa qualidade – mas, enquanto até então só se conseguiam imagens como as um ponto ou de um círculo, Marino conseguiu a de um letreiro legível.


É preciso atrasar a luz

Bem, um computador precisa de mais do que emaranhar partículas ou de formar imagens com elas. Precisa de circuitos, como aqueles complicados que os computadores tradicionais têm no seu interior. Uma das coisas que são necessárias para isso, em computadores quânticos, é um jeito de controlar a velocidade do raio de luz que carrega a informação (a imagem, no caso), para que se possa fazê-lo chegar no lugar em que se queira no momento em que se queira. E, isso, sem destruir o delicadíssimo estado emaranhado.

Já se havia conseguido atrasar a luz, para as tais imagens simplórias e com equipamentos bem mais sofisticados. Mas seria possível fazê-lo com as técnicas mais simples de Marino e sem desmanchar o emaranhamento entre dois raios de luz carregando uma imagem legível? Foi isso que o grupo conseguiu há duas semanas.

Para atrasar o raio de luz, ele passa através de um pequeno recipiente com vapor de rubídio. Os átomos do vapor absorvem e reemitem sistematicamente a luz e, com isso, atrasam seu trajeto.

Controlando-se a temperatura do gás, pode-se controlar o tamanho do atraso. Conseguiram atrasar a luz de um dos raios emaranhados até 500 vezes. Deixaram o outro continuar normal para ver se era possível, com essa tecnologia, manipular apenas um deles.


Tiro pela culatra

A existência do emaranhamento quântico foi prevista em 1935 por Albert Einstein, Boris Podolski e Nathan Rosen. Mas, ironicamente, fizeram-no para desqualificarem a mecânica quântica. Pois, apesar de ser um dos fundadores da teoria quântica, Einstein fazia parte do grupo dos físicos que se recusavam a aceitar diversas de suas consequências. Queriam, então, mostrar que ela levava a situações filosoficamente inaceitáveis.

O grande cientista estava errado, mas o agora chamado “par EPR”, outro nome para “duas partículas emaranhadas” (“EPR” são as iniciais dos sobrenomes dos três físicos), acabou tornando-se um conceito fundamental em diversas aplicações práticas e teóricas. Mas haverá, ainda, muitos capítulos, pequenos e grandes, até que o desafio de estabilizar o estado emaranhado seja realizado e um processador quântico possa estar auxiliando os computadores em nossas casas.


Resumindo
  • O dispositivo principal dos computadores quânticos é um conjunto de átomos em um estado emaranhado.

  • Num estado emaranhado entre duas partículas, não é possível associar um estado físico com cada uma das partículas. Apenas se pode associar um estado ao par inteiro. Além disso, uma tentativa de alteração em uma das partículas altera o estado como um todo.

  • A superposição de estados e o emaranhamento quântico permitem que um computador quântico possa realizar operações em paralelo de forma maciça.

  • Por isso, nesse tipo de aplicação, o computador quântico pode ficar milhões de vezes mais rápido que o tradicional. Mas, para outras aplicações, não – por isso, ele não substituirá o computador digital comum.

  • O principal desafio para se construir um computador quântico comercial é superar a extrema instabilidade dos estados emaranhados.

  • O grupo de Alberto Marino, do NIST, conseguiu estados emaranhados entre dois raios de luz que transportam imagens. Conseguiu também diminuir a velocidade de um dos raios de luz de forma controlada, chegando a um atraso de até 500 vezes. Isso pode ser necessário para que se possa implementar adequadamente o emaranhamento em um computador quântico de porte.

  • A pesquisa de Marino aborda a técnica de emaranhamento e pode ter aplicação mais geral que a computação quântica, pois essa técnica é usada também em teleporte quântico e metrologia quântica.

Saiba mais

Na revista Ciência Hoje 193, de maio de 2003, saiu uma reportagem de capa sobre computadores quânticos.

Para físicos: aqui estão dois links com resumos sobre a pesquisa de Marino sobre imagens e sobre o atraso da luz.

segunda-feira, 23 de fevereiro de 2009

O que é a Teoria da Relatividade Especial?

Texto publicado no site Feira de Ciências


Este texto pretende dar uma idéia geral do que é a teoria da relatividade especial para pessoas curiosas sobre isso, mas que não têm conhecimento nenhum sobre o assunto.

As teorias da física existentes até o início do século XX (coletivamente chamadas “física clássica”) revelaram-se insuficientes para tratar várias situações no fim do século XIX, em especial algumas relacionadas com eletricidade e magnetismo. Para abordá-los, foi necessário criar uma nova física. Seu nome é Teoria da Relatividade Especial (ou Restrita).

Na verdade, a relatividade especial é parte de um conjunto maior de teorias feitas também para substituir a física clássica por motivos semelhantes. As outras são a teoria da relatividade geral e a teoria quântica. E, também, desdobramentos das mesmas, feitos para tentar unificar as três em uma só. A essa física pós-1900 dá-se o nome de “Física Moderna”.


O paradoxo que fez a relatividade especial surgir

O que fez surgir a relatividade foi mais que uma observação inconsistente com a física pré-século XX: foi uma contradição interna à própria física clássica, uma incompatibilidade entre a mecânica (a teoria sobre o movimento em geral) e o eletromagnetismo (a teoria sobre a eletricidade, do magnetismo e das relações entre os dois).

O caso era que as leis do eletromagnetismo não pareciam valer para qualquer referencial. Mas as leis da física devem valer para qualquer observador. Não importa se alguém está dentro de um trem ou avião em alta velocidade, a física funciona lá tão bem quanto fora, parado em relação ao chão. No entanto, as equações da eletricidade e do magnetismo ficavam irreconhecíveis quando se passava de um referencial para outro em movimento.

Apesar disso, na prática, a natureza funcionava como se se pudesse usar as mesmas equações, inalteradas... Algo estava errado - ou com o eletromagnetismo, ou com o modo como se vertiam as equações para diferentes referenciais (que era tratado pela mecânica).


Mais paradoxos

Não parece ser um problema simples. Mas, além disso, havia algo mais.

Já se sabia, no fim do século XIX, que a luz era uma onda, cuja velocidade no vácuo é de 300 mil quilômetros por segundo (pouco mais de um bilhão de km/h). Isso é o equivalente a pouco mais de 7 voltas ao redor da Terra em um segundo (se a luz desse voltas!). Acreditava-se também que ela se propagava em um meio material (como o som no ar ou as ondas da água na... água). A esse meio chamavam “éter luminífero”. Naquela época, alguns cientistas tentaram determinar qual a velocidade da Terra em relação ao éter.

Para isso, tentaram medir a velocidade da luz em diferentes direções. Se houvesse um “vento de éter” na direção leste-oeste, por exemplo (por causa do movimento da Terra através do éter), a velocidade da luz deveria ser diferente se fosse medida nessa direção ou em outra.

Em 1887, Michelson e Morley conseguiram fazer um experimento suficientemente preciso. Fizeram uma medida indireta do caminho percorrido pela luz em duas trajetórias perpendiculares, como mostrado ao lado. A surpresa foi que esses resultados pareciam exigir que a velocidade da luz tivesse sempre o mesmo valor para qualquer direção que se adotasse... Era algo que parecia não fazer sentido.

(Em tempo: toda vez que se falar em velocidade da luz aqui, quero dizer “velocidade da luz no vácuo”. Ela é menor no ar, no vidro etc.)

Para explicar melhor, vou fazer uma analogia com o som. A velocidade do som no ar é de cerca de 1225 km/h (o conhecido 340 m/s, bem menor que a da luz). Sigamos o raciocínio. Considere um aeroporto numa noite com pouco vento, mas com trovoadas. Em certo momento, um raio atinge a pista de pouso, emitindo grande barulho. Ka-trom! Esse barulho se propagará em todas as direções a 1225 km/h. Agora, suponhamos duas situações:

1. Um avião se aproximando da pista a 500 km/h. A velocidade dele em relação ao som seria de 1225 + 500 = 1725 km/h.
2. O mesmo avião, agora, afastando-se da pista, a velocidade dele em relação ao som seria de 1225 – 500 = 725 km/h.

Não há grandes segredos nisso. Porém, imagine o susto dos cientistas se a medida da velocidade do som em relação ao avião insistisse em... dar os mesmos 1225 km/h originais, tanto quando o avião se aproxima (item 1) quanto quando ele se afasta (item 2)...! Era exatamente o que estava acontecendo com a luz!

Obs.: as correspondências nessa analogia são: ar -> éter; som -> luz; avião -> Terra.


A solução

A solução para os dois impasses não foi fácil. Veio só em 1905, com trabalhos independentes do alemão Albert Einstein (na figura ao lado, ele em 1905) e do francês Henri Poincaré (que tiveram um precursor importante dez anos antes, o holandês Hendrik Lorentz). Tiveram que refazer toda a mecânica. Surgia a teoria da relatividade. O trabalho de Einstein, na verdade, inspirou-se apenas na incompatibilidade entre mecânica e eletromagnetismo clássicos. Os experimentos de Michelson e Morley deram um impulso a mais posteriormente.

A estrutura do artigo em que essa teoria foi exposta por Einstein parece algo de cabeça para baixo. No começo, “postula-se” que a velocidade da luz é a mesma, independentemente da velocidade da sua fonte em relação a quem a observa. Aí, explora-se as consequências disso. Ou seja, tenta-se determinar como a natureza deveria se comportar para que a velocidade da luz fosse absoluta. Essas consequencias foram depois testadas em observações científicas, e houve concordância com as equações da teoria.

Para ser exato, há um outro postulado, que diz que as leis da física devem ser as mesmas para todos os observadores inerciais (não-acelerados).

O que emergiu dessa estratégia às avessas foi algo bem diferente do que estamos acostumados. Ao fim e ao cabo, pode-se dizer que a origem do problema com a física clássica residia numa suposição tácita que permeava toda ela: a de que o tempo é absoluto, ele “flui” da mesma forma para todos os observadores. O mesmo para o espaço: o comprimento de uma régua permanece o mesmo, independentemente se é medido por alguém parado ou em movimento em relação a ela.

O resultado da exploração das conseqüências dos postulados foi a negação dessas duas suposições tácitas. Tempo e espaço são relativos.

Dito assim, parece algo muitio vago. Tentarei mostrar o que significa no resto do texto. Basicamente, os resultados mais importantes que emergiram da exploração das conseqüências dos dois postulados da relatividade foram:

a) a negação do tempo absoluto
b) a negação do espaço absoluto
c) a equivalência entre massa e energia
d) uma nova regra para compor velocidades
e) a impossibilidade de se ultrapassar a velocidade da luz


A dilatação do tempo e a relatividade da simultaneidade

Esta é a primeira conseqüência importante dos dois postulados da relatividade. A idéia é que o “fluxo” do tempo é diferente para diferentes observadores. A relatividade também fornece equações que permitem quantificar essa diferença. Para mostrar como funciona, vou usar um exemplo imaginário de uma viagem espacial.

Suponha que alguns astronautas queiram chegar até a estrela mais próxima da Terra, que é Alfa do Centauro, a 4,2 anos-luz daqui (um ano-luz é a distância que a luz percorre em um ano, que é 9,5 trilhões de quilômetros). Suponha que a nave viaje a 75% da velocidade da luz. Isso é muito rápido. A essa velocidade, ela chegará em Alfa do Centauro em 5,7 anos.

Mas são 5,7 anos medidos aqui na Terra! Segundo as equações da relatividade para a dilatação do tempo, os tripulantes da nave observariam em seus relógios que se passaram apenas 3,8 anos! A duração do tempo entre dois eventos (partida e chegada da nave, no caso) depende da velocidade de quem esteja medindo o tempo. Quanto maior a velocidade, maior o desvio em relação ao esperado pela física clássica. Mais: isso acontece de tal forma que, ao se aproximar da luz, o tempo medido pelos astronautas tende para zero: a viagem seria instantânea (é por isso que às vezes se fala que o tempo volta para trás caso ultrapassássemos a luz – sim, voltaria, mas... não dá para ultrapassá-la).

Uma conseqüência surpreendente disso é a relatividade da simultaneidade. Eventos que ocorrem em locais diferentes e que são simultâneos em um referencial podem não ser simultâneos em outro referencial, movendo-se em relação ao primeiro! (Na verdade, isto está invertido: na formulação original da teoria, a dilatação do tempo é uma conseqüência da relatividade da simultaneidade.)

À primeira vista, parece que isto produz contradições impossíveis. Aparentemente, poderia levar a situações em que uma troca de referencial troque também a ordem entre uma causa e um efeito... Mas a relatividade da simultaneidade não é total. A própria estrutura das equações assegura que, se um evento é causa de outro, os dois jamais podem trocar de ordem no tempo.


Quanto durou, realmente, a viagem?

Qual o tempo real de viagem, 5,7 ou 3,8 anos? A resposta da relatividade é que, para os que ficaram na Terra, o tempo foi de realmente 5,7 anos e, para os que viajaram, o tempo foi realmente de 3,8 anos.

Qual o sentido da palavra “realmente” aqui? Permitam-me outro exemplo. Um carro anda a 100 km/h em relação ao chão. É ultrapassado por outro carro, a 102 km/h. O motorista do primeiro carro vê o outro andando a apenas 2 km/h em relação a si. Além disso, a Terra está também em movimento ao redor do Sol, a 108 mil km/h (em relação ao Sol). Assim, em relação ao astro-rei, os dois carros estão a 108 mil km/h...

Qual é realmente a velocidade do segundo carro? 100 km/h, 2 km/h ou 108 mil km/h? Todas as velocidades são igualmente reais. O conceito de velocidade necessita de uma referência (ainda que, na prática, tomemos o referencial como implícito - normalmente, o chão).

É exatamente nesse sentido que a palavra “real” é usada no parágrafo anterior. Medidas de intervalos de tempo também necessitam de especificação. No caso, especificação da velocidade de quem fez a medida, em relação ao objeto medido. Normalmente, porém, convenciona-se que quem mediu esteja em repouso em relação ao objeto medido.

E quando os astronautas voltarem? Terão se passado outros 5,7 anos para os que aqui ficaram e outros 3,8 anos para os astronautas. Serão, portanto, 11,4 anos para os da Terra e 7,6 anos para os tripulantes. Se um dos tripulantes tiver um irmão gêmeo que ficou na Terra, ele estará 11,4 – 7,6 = 3,8 anos mais novo que seu irmão gêmeo! Este efeito é chamado “paradoxo dos gêmeos”. Já foi verificado – não com seres humanos, mas com relógios de alta precisão enviados em viagens espaciais (enquanto outro relógio ficava na Terra).

Detalhe: parece que o irmão gêmeo da nave fez uma viagem para o futuro – pois encontrou seu mano mais velho! Neste link há mais sobre as possibilidades de viagem no tempo derivadas da relatividade.


A contração do espaço (ou contração de Lorentz-Fitzgerald)

Eis outro efeito interessante, a segunda conseqüência dos dois postulados da relatividade. A idéia agora é que distâncias não são percebidas da mesma forma para diferentes observadores. Usemos o mesmo exemplo das naves. O astronauta agora observa o Sistema Solar lá de longe, no meio do caminho de sua viagem para Alfa do Centauro.

Sabemos que a órbita da Terra ao redor do Sol é uma elipse (parece com uma oval), mas quase redonda, com 150 milhões de km de raio, em média. Pois a equação da relatividade para a contração do espaço diz que os astronautas determinarão uma órbita muito mais achatada, na qual a distância maior é ainda de cerca de 150 milhões de km, mas a menor é de apenas 99 milhões de quilômetros! Uma “oval” bem estreita.

Esquema de como se parece a órbita da Terra ao redor do Sol para um astronauta em uma nave afastando-se velozmente da Terra. Nas figuras inferiores, a velocidade é maior. Quanto maior a velocidade, mais achatada parece a órbita. Figura feita por Luiz Ferraz Netto.


O efeito é tanto maior quanto maior for a velocidade. Se esta for igual à da luz, a órbita parecerá totalmente achatada: o raio menor iria a zero.

Mais precisamente, o que a relatividade diz é que, quando se mede distâncias entre pontos que não estão em repouso em relação a quem está medindo, acontece o seguinte:

a) as distâncias que estão na direção do movimento se contraem, em uma quantidade determinada por uma equação da teoria da relatividade;
b) as distâncias perpendiculares à direção do movimento não são afetadas;
c) as distâncias oblíquas, intermediárias entre as do tipo (a) e (b), são afetadas de formas intermediárias, também quantificadas por uma equação.

Agora, qual o raio real da órbita da Terra? Vale a mesma observação feita anteriormente sobre a dilatação do tempo. Todos são igualmente reais. Claro que, por uma questão de conveniência, em geral cita-se os comprimentos medidos por quem está em repouso em relação ao objeto medido (no exemplo, à Terra).


A equivalência entre massa e energia

Este é a terceira conseqüência dos postulados da relatividade, talvez o mais surpreendente: a relatividade diz que a energia tem massa. “Massa”, aqui, não significa “quantidade de matéria”, mas apenas “medida da inércia”. Esse é o conceito moderno de massa. Então... a energia tem inércia. É (ligeiramente!) mais difícil empurrar um corpo mais quente que o mesmo corpo mais frio. E também tem peso. Um corpo mais quente pesa mais que ele mais frio.

Além disso, matéria pode ser transformada em energia e vice-versa. Só que a quantidade de energia concentrada na matéria é algo colossal. Para se ter uma idéia, considere um pedaço de dez gramas de, digamos, madeira. Se transformarmos tudo em energia, aparecerá 250 mil megawatt-hora (MWh). Isso é a energia que a usina de Itaipu, uma das maiores do mundo, produz durante 18 horas.

Escultura de três metros de altura na exposição "Walk of Ideas", na Alemanha, em 2006.

A famosa equação E=mc² descreve justamente essa transformação matéria-energia. Como é bastante falada, talvez muita gente tenha curiosidade sobre o que significa. Bem, aqui, “m” é massa (em quilogramas), “c” é velocidade da luz (em metros por segundo) e “E”, energia (em joules, J, que é uma unidade usada pelos físicos; um quilowatt-hora tem 3.600.000 joules). A exigência dessas unidades de medida – quilogramas etc. – é apenas uma convenção para se evitar cálculos desnecessários para converter unidades umas nas outras. A equação é lida assim: “a energia (equivalente a uma certa massa) é igual ao valor dessa massa multiplicado pelo valor da velocidade da luz ao quadrado (ou seja, multiplicado duas vezes pela velocidade da luz)”. Foi com essa equação que eu fiz a conta sobre a energia do pedacinho de madeira, acima.

Os efeitos como os do primeiro parágrafo, de um objeto mais quente ter mais inércia e mais peso que um mais frio, só ficam apreciáveis quando a energia (no caso, térmica) é comparável à energia equivalente da massa total do objeto. Pelo que foi dito, isso é muito, mas muito, mesmo. Claro que não dá para aquecer nada a esse extremo (desmancharia os próprios átomos muito antes). Mas pode-se chegar a situações semelhantes com outras formas de energia. Por exemplo, pode-se acelerar partículas suabtômicas, como elétrons e prótons, até que sua energia cinética (energia de movimento) fique comparável à energia associada à sua massa. Isso é feito em aceleradores de partículas, máquinas usadas para estudá-las em grandes laboratórios, o que será comentado mais abaixo.


A soma de velocidades

Um quarto resultado é uma alteração radical no modo como somamos velocidades. Estou falando de uma situação do seguinte tipo. Suponhamos que estou num carro a 100 km/h na estrada e um outro carro vem em sentido contrário, na outra pista, também a 100 km/h (ambas as velocidades em relação à terra). Qual a velocidade de um carro em relação ao outro? 200 km/h, certo? Quase. Será um pouquinho menor. Pois a relatividade altera a forma como compomos velocidades.

Grosso modo, isso acontece porque a velocidade é um conceito que envolve tempos e distâncias (espaços percorridos) medidos entre observadores em movimento em relação ao que estão medindo. E já vimos que, quando há esse tipo de movimento envolvido, intervalos de tempo e comprimentos dependem do observador.

Mas carros andam muito devagar para haver efeito pronunciado. Suponhamos que sejam naves no espaço, aproximando-se rapidamente entre si. Ambas estão voando a 200 mil km/s em relação à Terra. Qual à velocidade de uma em relação à outra? Se simplesmente somarmos as velocidades, obteremos 400 mil km/s. Mas a equação da relatividade para isso nos fornece apenas: 220 mil km/h! Muito menos!

Repare que o resultado é menor que a velocidade da luz, que é de 300 mil km/s. Se fôssemos só somar, daria maior. Na verdade, a equação da relatividade para isso é tal que, quanto mais próximas da luz estiverem as duas naves, maior será a diferença com o resultado “não-relativístico”. E de forma que a composição das duas velocidades jamais ultrapassa a velocidade da luz. Por exemplo, se ambas as naves estiverem a 99% da velocidade da luz (em relação à Terra), então a velocidade de uma em relação à outra será, feitas as contas, de 99,995% da velocidade da luz.


A velocidade da luz como limite

Os números do parágrafo anterior remetem a uma quinta conseqüência dos postulados da relatividade: a velocidade da luz é impossível de ser ultrapassada.

À primeira vista, parece que podemos tentar simplesmente acelerar até sobrepujá-la. Mas lembremos da equivalência entre massa e energia e do fato de que a energia tem inércia. Suponhamos, por exemplo, que aqueles viajantes que estão indo para Alfa do Centauro tentem chegar mais rápido e acelerem sua nave. Na medida em que tentam acelerar, aumenta a sua energia cinética (energia de movimento) – observada daqui da Terra. Bem, eu não falei da equação da relatividade para energias cinéticas, mas acontece que ela é tal que a energia cinética tende a infinito à medida que nos aproximamos da velocidade da luz. E a inércia correspondente, também. Portanto, seria necessária uma força infinita para vencer essa inércia infinita e a nave conseguir emparelhar-se com a luz!


Onde a relatividade aparece

Essas são as principais características da teoria da relatividade especial. Mas e daí? Isso tudo é só uma curiosidade ou tem alguma conseqüência maior?

Tem conseqüências práticas interessantes. Efeitos relativísticos – ou seja, desvios do que seria esperado só pela física clássica – acontecem em algumas situações importantes. Há aparelhinhos que estão se tornando cada vez mais populares chamados GPS (a sigla é de Sistema de Posicionamento Global em inglês). Conseguem informar a localização na Terra de quem o está segurando com uma precisão de 5 a 10 metros. Isso é feito com o auxílio de informações enviadas por satélites artificiais em órbita do planeta. A velocidade dos satélites, de 14 mil km/h, não é tão grande se comparada à da luz, mas os desvios em relação às previsões da física clássica se acumulam com o tempo e acabam se tornando importantes. Se o projeto dos GPS não considerasse a teoria da relatividade, eles acumulariam um desvio de 11 km por dia!

Outra situação: Os físicos costumam estudar partículas subatômicas em máquinas chamadas aceleradores de partículas. Várias delas têm forma de anel, onde as partículas chocam-se umas com as outras. O que acontece após o choque – as partículas novas que se formam e as direções e velocidades com que são atiradas – contêm informações preciosas sobre essas partículas. Acontece que, no acelerador, elas viajam a velocidades próximas à da luz. No Laboratório Nacional de Luz Síncrotron (LNLS), em Campinas, São Paulo, há um aparelho desses no qual elétrons atingem cerca de 99,999993% da velocidade da luz! Ali, qualquer experimento que se faça é pesadamente influenciado pelos efeitos relativísticos. (O LNLS não serve, porém, para estudar as partículas: ele possui ao seu redor diversas instalações para aproveitar a radiação síncrotron, que esses aparelhos produzem e que têm muitos usos para pesquisas.)

O anel do acelerador do LNLS, em Campinas, SP.

E o éter?

O início da história foi por causa do éter. Os físicos queriam determinar a velocidade da Terra em relação a ele. Mas, como a velocidade da luz é sempre a mesma e a única coisa que nos indicaria a existência do éter é a luz, tornou-se impossível identificá-lo. Além disso, muitos físicos não se sentiam à vontade com o éter, pois ele tinha propriedades mecânicas aparentemente impossíveis (por exemplo, tinha que ter densidade enorme, para que a luz tivesse a velocidade que tem, mas como então os astros poderiam mover-se livremente pelo espaço?).

Aboliu-se, então, a necessidade de sua existência. Não se crê mais que o éter luminífero exista. A luz se propaga no vácuo. Ela é constituída de campos elétricos – como os que atraem os pelinhos do braço diante da tela de uma TV recém-desligada – e campos magnéticos – como os de um ímã, só que bem mais fracos – que oscilam conjuntamente e se propagam através do espaço. É o que se chama de “onda eletromagnética”. Essa natureza eletromagnética da luz já era conhecida antes da relatividade, mas, mesmo assim, acreditava-se que deveria haver um éter.


Então, a física que aprendemos na escola está errada?

Nem tanto. Os desvios relativísticos acontecem apenas para situações extremas, velocidades próximas às da luz. Para a maior parte das situações com que temos de lidar, a mecânica clássica funciona espetacularmente bem. O que acontece é que a mecânica clássica é uma aproximação da relativística. A relatividade é mais exata. Mas os resultados das duas são indistinguíveis para a maioria esmagadora das situações cotidianas.


Sugestões de leitura:

1. Nestes links estão algumas simulações sobre contração do espaço e sobre dilatação do tempo.

2. “A evolução da Física”, escrito por Albert Einstein e Leopold Infeld, editora JZE (2008). Einstein era também um excelente divulgador de ciência e conseguia falar sobre coisas complexas de maneira simples. Este livro é bastante acessível para pessoas de fora da física. Tenta explicar a teoria da relatividade e a física quântica com uma abordagem histórica. A parte sobre relatividade é um espetáculo, muito elucidativa.

3. “Fique por dentro da Física Moderna”, de John Gribbin, Editora Cosac & Naify (2001). Gribbin é, na minha opinião, um dos divulgadores de ciência que conseguem os melhores resultados na combinação de precisão e inteligibilidade. Este livro é bastante acessível e feito de modo que cada dupla de páginas é quase auto-suficiente. Pode-se abrir o livro em qualquer página. Bom para que não tem muito tempo e quer saber coisas rapidamente, ou então que prefere uma leitura não-linear. Explica, de forma sintética, teoria da relatividade, física quântica, física de partículas, cosmologia e também um pouco de física clássica. Delicioso.

4. “Teoria da relatividade especial e geral”, de Albert Eintein, Editora Contraponto (1999). Para quem tiver mais familiaridade com as ciências exatas. Não necessariamente físicos.

5. Pode parecer incrível, mas a teoria da relatividade, incluindo a demonstração de suas equações, pode ser compreendida em sua essência com a matemática do ensino médio. Eu também me surpreendi quando descobri, antes de fazer a graduação. Estas notas sobre a Aula 50 do volume 2 do Telecurso 2000 - Física - Ensino Médio são bastante compreensíveis e têm algumas equações bem simples, para quem quer ver a "cara" dessa matemática.

6. Ainda com a matemática do ensino médio. Pode valer a pena, para quem tem alguma familiaridade com matemática desse nível e tiver curiosidade, olhar algum livro como o de Robert Resnick (“Introdução à teoria da relatividade especial”) – obs.: pulem os símbolos estranhos das fórmulas da Introdução (são derivadas parciais); aquilo não influencia em nada no entendimento do resto. Folheiem livros com título semelhante para ver se usam matemática desconhecida para o nível médio. Vários não usam. Um site nesse nível é este:
http://www.fisica.net/relatividade
Possui textos do professor Alberto Präss e outros.

Obs.: Agradecimentos ao prof. Luiz Ferraz Netto, autor do site Feira de Ciências, pela revisão deste texto e pela autoria e adaptação de algumas figuras.

domingo, 22 de fevereiro de 2009

O significado dos números sobre o aquecimento global

Uma matéria de hoje (22) na Folha de S. Paulo sobre o aquecimento global me levou a destrinchar um pouco o significado dos dados sobre isso e como eles são obtidos. Consegui fazer um pequeno esquema mental sobre isso e gostaria de dividi-lo com os leitores. O texto abaixo acabou virando uma exposição sobre a natureza de boa parte da pesquisa científica em geral.

Auxiliou-me nisso alguma experiência que tive com simulações (cálculos) computacionais quando eu fazia pós-graduação em física. Essas simulações têm características comuns com as da meteorologia. O fato de o esquema ser partilhado por muitos tipos de pesquisa científica também ajudou.

A matéria da Folha, escrita por Eduardo Geraque, fala sobre os resultados de uma pesquisa apresentada por Anny Cazenave em uma reunião da Associação Americana para o Avanço da Ciência (AAAS), que terminou na semana passada. A pesquisa mediu a velocidade de subida do nível dos mares entre 1993 e 2008 e o resultado (3,4 mm por ano) deu quase o dobro do que se mediu entre 1950 e 2000 (1,8 mm por ano)! Além disso, sua previsão de quanto os mares deverão subir até 2100 (1,8 metro) é mais do que o dobro das previsões “oficiais” do IPCC para aquele ano (na pior das hipóteses, 60 cm). Vejamos o significado disso.


O que é o aquecimento global e o que ele faz

Primeiro, algo sobre a natureza do aquecimento global. Ele é causado por emissões, para a atmosfera, de gás carbônico (CO2) e outros gases, chamados “gases-estufa”. As medidas indicam que sua quantidade vem aumentando fortemente durante o século XX. Esse aumento "desregula" a principal “função” desses gases, que é manter o planeta aquecido, numa temperatura boa para a vida – o chamado “efeito-estufa”. A temperatura média da Terra, então, começa a subir.

Isso não tornará a vida inviável, mas deverá provocar mudanças no mínimo bastante incômodas. Além de desencadear diversas mudanças climáticas de vários tipos, o aquecimento deverá também elevar o nível dos mares, por causa do derretimento do gelo das calotas polares e da dilatação térmica da água. A elevação dos mares deverá inundar várias cidades costeiras nos próximos séculos. O IPCC avalia que a probabilidade de o aquecimento global ser causado por emissões de gases estufa causadas pelo ser humano é de mais de 90%.


O que faz o IPCC

Bem, IPCC é o Painel Internacional sobre Mudanças Climáticas, um órgão da ONU criado em 1988, dedicado a elaborar sínteses das pesquisas sobre isso feitas pelo mundo todo, tentar identificar as suas causas e sugerir ações baseadas nessas avaliações. “Painel” é um conjunto de cientistas de várias áreas para estudar certo assunto. O painel do IPCC tem cerca de dois mil pesquisadores. As principais sínteses – os “Relatórios Avaliativos” – são publicadas de seis em seis anos, tendo o último sido em fevereiro de 2007.

O IPCC pega os estudos científicos dispersos pelas publicações especializadas (como os divulgados por Cazenave) e faz projeções e médias para extrair do conjunto uma avaliação geral de como andam as coisas no clima mundial e o que os governos poderiam fazer para diminuir os riscos e os efeitos de uma catástrofe ambiental.


O que fazem as pesquisas individuais

Cada um dos estudos que o IPCC coleta fazem basicamente três coisas:

(a) medidas
(b) projeções (previsões)
(c) correlações

O resultado divulgado pelo grupo de Cazenave fez as três.

Muitos artigos fazem também sugestões sobre o que fazer, que estratégias adotar, baseados nos seus resultados.


(a) Medidas (que devem ser devidamente interpretadas)

As medidas podem ser de temperaturas, níveis dos mares, concentração de CO2 na atmosfera etc. Elas podem ser:

(1) medidas feitas no presente ou
(2) determinações sobre como eram as coisas no passado, antes dos primeiros registros de temperaturas, nível dos mares etc. (em geral, antes do século XX)

As do estudo apresentado na AAAS são medições diretas do nível dos mares, feitas no presente, de 1993 a 2008, com o auxílio de satélites artificiais.

Para as medidas sobre como eram as coisas no passado, é preciso procurar em lugares que possuem registros de como elas eram. Por exemplo, a composição química do interior de recifes de corais dá indicações sobre a temperatura dos mares nos séculos passados. Isso porque os corais vão crescendo bem lentamente e seu metabolismo e sua composição são influenciados pela temperatura da água.

As medidas, especialmente as indiretas, devem ser interpretadas para poderem significar alguma coisa. No caso acima dos corais, por exemplo, deve haver uma teoria por detrás que diga como associar a composição química dos corais com a temperatura. Aí, entram os estudos dos oceanógrafos e biólogos (é por essas e outras que as mudanças climáticas são um estudo fortemente interdisciplinar). Ou seja: observações são interpretadas de acordo com teorias.


(b) Projeções

Com base nas medidas, fazem-se as projeções. Estas são feitas com programas de computador. Alimenta-se os programas com os resultados das medidas e, após algum tempo, o computador produz dados sobre temperatura, nível dos mares, concentração de CO2 etc. para o futuro. É daí que vêm as previsões de quanto o nível do mar vai subir nos próximos cem anos ou mais. Os cálculos chamam-se “simulações computacionais” – elas “simulam” de forma aproximada o comportamento da Natureza. Os programas dos computadores usam equações que são produzidas por estudos teóricos – que, por sua vez, levam em conta os resultados das medidas.

Acontece que os cálculos para se fazer essas projeções têm duas complicações principais.


Os cenários

Primeiro, o que vai acontecer no futuro é influenciado pelas transformações futuras da tecnologia, da economia e da sociedade. Evidentemente, isso é desconhecido. Então, faz-se vários “cenários”, ou seja, vários conjuntos de hipóteses sobre isso. As diferenças entre os cenários nos estudos sobre mudanças climáticas têm a ver principalmente com hipóteses sobre o desenvolvimento econômico do mundo. Por exemplo, se a economia passar a se concentrar rapidamente no setor de serviços, o setor industrial pode ser aliviado e, assim, poderá haver menos emissões de gases-estufa – e menos aquecimento.


Os modelos

Segundo, os cálculos são terrivelmente extensos, mesmo para os computadores atuais. A previsão meteorológica é uma área que demanda um esforço computacional verdadeiramente brutal. É impossível fazer as contas com precisão total – para isso, seria necessário um tempo muitas vezes maior que todo o tempo transcorrido desde o Big-Bang até hoje...! É preciso fazer simplificações. Imagine se a forma de todas as montanhas do mundo tivesse que ser colocadas nos programas...!

Algumas coisas podem ser simplificadas sem grandes mudanças no resultado final. Outras, não. Por exemplo, é claro que os detalhes do relevo não devem ser importantes – eles influenciam pouquíssimo o resultado final dos cálculos. Porém, os oceanos não podem ser ignorados, eles são grandes demais.

Isso é um exemplo simples. Em geral, as coisas são muito mais complicadas e não é fácil saber que simplificação pode ser feita e que efeitos elas terão no resultado final. Por isso, há vários “modelos” diferentes para tratar o assunto. Cada um deles dá peso diferente para vários parâmetros. A palavra “modelo”, na verdade, tem significado mais geral na ciência e é fundamental em qualquer pesquisa científica. Trata-se de um conjunto de hipóteses sobre o objeto de estudo, sem as quais nenhuma pesquisa consegue funcionar.

A escolha dos modelos não é arbitrária. Para ver se são bons, pode-se:

(a) Testá-los: compara-se previsões baseadas nos modelos com resultados que já existem.
(b) Comparar as previsões com vários modelos diferentes. Se houver divergência demais, há problemas com pelo menos alguns deles.
(c) Esperar que o tempo passe e ver se as previsões se confirmam.


Os métodos computacionais

Além das simplificações no que deve ser colocado ou não como dado de entrada no programa do computador, em geral as próprias equações usadas pela máquina têm que ser simplificadas. Cada um deles têm a ver com o que eu poderia chamar de um “método computacional”. Mas, no caso da meteorologia, suponho que haja razoável consenso sobre que método de cálculo é melhor, já que não vejo menções a isso.


(c) Correlações

Correlações entre as observações podem ajudar a identificar causas de fenômenos. Um exemplo muito simplificado: se a concentração de CO2 na atmosfera aumenta mais ou menos paralelamente ao aumento da atividade industrial, é bem provável que haja alguma ligação entre as duas. Em geral, as associações são muito mais complexas e exigem tratamentos estatísticos sofisticados e também – como as projeções – teorias, modelos e métodos computacionais.


Os resultados das pesquisas variam

Assim, diferentes trabalhos científicos podem dar diferentes resultados para a mesma coisa. Por exemplo, duas pesquisas podem mostrar resultados diferentes para as previsões do nível dos mares. Essa diferença, em geral, é devida à soma de fatores como estes:

(a) métodos de medidas diferentes produzem resultados diferentes para o mesmo parâmetro. Medir o nível dos mares com satélites artificiais é diferente de medi-los da praia.
(b) teorias diferentes para interpretar as medidas. Teorias distintas para associar composição de corais à temperatura dos mares podem produzir diferentes temperaturas “medidas indiretamente”.
(c) parâmetros diferentes colocados no programa do computador. Um cientista pode tentar prever a temperatura a partir da concentração de CO2 na atmosfera; outro pode usar dados sobre temperaturas de séculos passados obtidas em corais; outro pode usar os dois tipos de dados.
(d) cenários diferentes.
(e) modelos diferentes.
(f) métodos computacionais diferentes, se for o caso.

Muitas vezes, pode-se determinar quais desses fatores são mais relevantes. Em outras situações, é preciso esperar estudos mais aprofundados para isso. Após se ter determinado os porquês das diferenças, pode-se fazer comparações melhores entre eles e articulá-los para produzir previsões médias, como faz o IPCC. Porém, o IPCC costuma separar os resultados de acordo com o cenário e, às vezes, também de acordo com os modelos.


O IPCC faz várias projeções dependendo do cenário e do modelo

Assim, o IPCC não faz só uma projeção, faz várias, e cada uma delas corresponde a um tipo de cenário e modelo. Além disso, às vezes, tira-se uma média entre os modelos e discrimina-se o resultado apenas de acordo com os cenários. Por exemplo, o Relatório Avaliativo do IPCC de 2007 mostra seis números diferentes para a elevação do nível dos mares até 2100, cada um associado com um cenário. Eles variam de 40 cm, no cenário mais “otimista”, a 60 cm, no cenário mais pessimista (vide página 821 do capítulo 10 do Quarto Relatório Avaliativo do IPCC (o de 2007), volume do "Grupo de Trabalho I: "As bases científicas físicas" ).

Quão confiáveis são os dados do IPCC? Uma maneira de saber é esperar o tempo passar e verificar em que extensão suas previsões se confirmam. Ora, algum tempo já passou desde o primeiro Relatório Avaliativo, de 1995. Em fevereiro de 2007, um artigo publicado na Science mostrou que, entre 1990 e 2006, mediu-se um acréscimo de 0,33 graus Celsius na temperatura média dos oceanos. Isto estava dentro do conjunto de previsões do IPCC. Estava, porém, perto das projeções mais pessimistas. Já a elevação do nível dos mares, segundo o mesmo artigo, foi de 3,3 mm/ano. Aí houve discrepância com o IPCC: este previa um máximo de 2 mm/ano. Há uma reportagem de Marcelo Leite na Folha de S. Paulo com informações interessantes sobre isso.


Os dados divulgados na AAAS

Aqui, já é possível situar melhor o significado dos dados de Cazenave. Eles são um dos que deverão ser incluídos pelo IPCC no seu próximo relatório avaliativo, que deverá sair em 2012 ou 2013, e em outras publicações que aparecerão no caminho.

A pesquisa incluiu medidas, projeções e correlações. Algumas delas:

(a) as medidas indicam que a velocidade de subida do nível dos mares entre 1993 e 2008 (3,4 mm por ano) é quase o dobro do que se mediu entre 1950 e 2000 (1,8 mm por ano). Mas as divergências com os dados do século XX são devidas tanto à diferença nos métodos nas medidas quanto a um aumento real na velocidade da elevação dos mares.

(b) suas projeções com computadores indicam que a elevação da linha d'água até 2100 será de 1,80 metro, é o triplo da prevista pelo IPCC. Isso é surpreendente.

(c) correlações com outros dados indicaram que as causas da elevação do nível dos mares é mais a expansão térmica da água (50%) do que o derretimento do gelo das calotas (40%)

Devemos, porém, lembrar que isso é apenas um dos muitos cálculos já feitos, que usam um certo conjunto de medidas e um certo modelo para fazer previsões. Pode ser que as medidas e o modelo sejam melhores que os outros e esse resultado seja mais representativo. Mas temos que esperar algum tempo para os especialistas poderem cotejar esse resultado com os demais.

Obs.: Agradecimentos a Roberto Takata, por sugestões de correções no texto.

sábado, 21 de fevereiro de 2009

Calma, o Irã não construirá uma bomba tão cedo

Jornais do mundo todo anunciaram: o Irã tem urânio suficiente para fazer a bomba atômica. A fonte seria a Agência Internacional de Energia Atômica (AIEA), um órgão da ONU que fiscaliza os programas nucleares dos países. Susto, pois esse país é acusado, principalmente pelos Estados Unidos, de ter um programa nuclear militar (já sofreu três sanções da ONU por causa disso). Porém, o anúncio é inverídico! Não, o Irã não tem urânio suficiente. Os próprios jornais contradizem, no corpo do texto, os títulos de suas matérias. Vejamos.

Primeiro, a razão pela qual o Irã não pode usar o urânio que tem para fazer bombas é que o urânio necessário para isso é diferente do usado para, por exemplo, fazer reatores de usinas nucleares. A diferença é a proporção entre dois tipos de urânio: o urânio 235 e o urânio 238. Os números referem-se à quantidade de prótons e nêutrons somados existentes no núcleo de seus átomos (lembrando que o átomo é formado por um núcleo ao redor do qual os elétrons se movem). O número de prótons é o que define se o material é urânio, ferro, ouro etc. O número de nêutrons apenas altera algumas características físicas, como densidade ou radioatividade.

No caso de uma usina nuclear, o urânio necessário é uma mistura de cerca de 5% de urânio-235 e 95% de U-238. No caso de bomba atômica, é de 80 a 90% de U-235 e 10 a 20% de U-238. Uma grande diferença.

O que disse a AIEA, ou melhor, um funcionário da ONU próximo da agência (que foi a fonte a que os jornais se reportaram) foi que o Irã tem urânio de baixo enriquecimento (no caso, menos que 4%) em quantidade suficiente para que se pudesse fazer uma bomba atômica caso fosse devidamente processado para tornar-se altamente enriquecido (mais de 80%). Isso apareceu em alguns jornais, como o britânico The Guardian. Acontece que isso poderia ser dito de qualquer país com urânio suficiente no subsolo! Se todo o urânio brasileiro fosse enriquecido, poderíamos fazer um arsenal inteiro de armas atômicas. Acontece que enriquecer urânio não é fácil. Principalmente porque o urânio encontrado na natureza tem apenas 0,71% de urânio-235.

Para enriquecê-lo, usa-se “ultracentrífugas”, aparelhos que giram rapidamente recipientes onde ele é colocado, de modo que a força centrífuga concentra a parte mais densa (o U-238) em um dos lados dos recipientes. Aí, basta recolher a parte do outro lado, que tem concentração maior de U-235. Parece fácil, mas, mesmo para chegar a 5%, as máquinas têm que ser poderosas – por isso são “ultra” – e funcionar durante muitos meses ou mesmo anos. Para se ter uma idéia, um conjunto (uma cascata) de 850 a 1000 centrífugas levam um ano para conseguir produzir entre 20 a 25 quilogramas de urânio altamente enriquecido – quantidade suficiente para uma bomba – segundo um texto da Global Security (em inglês).

Curiosamente, a citação correta do funcionário da ONU é feita em várias matérias jornalísticas de várias formas, mesmo com a manchete falando que a AIEA teria dito o Irã tem urânio suficiente para fazer a bomba. O Estado de S. Paulo, por exemplo, fala que “o relatório da Agência Internacional de Energia Atômica (AIEA) disse ter sido descoberto 209 quilos adicionais de urânio de baixo enriquecimento”. Detalhe: de “baixo enriquecimento”. Pode-se também dar uma olhada nos links abaixo...

Conclusão: quando gente poderosa (governos de potências, por exemplo), está com medo e “paranóica”, a imprensa também tende a reproduzir o medo e a “paranóia”, e devemos ter muito cuidado com o que lemos. No caso, um relatório recente da AIEA mostrou que no Irã há mais de 30% a mais de urânio com baixo enriquecimento do que se acreditava - algo que assusta os que temem uma arma nuclear iraniana. Por causa de uma interpretação apressada de uma resposta desastrada de um funcionário, transformou-se isso numa bomba.


Veja você mesmo

Matérias de jornais brasileiros sobre o assunto podem ser encontradas no site da seleção de notícias do Ministério das Relações Exteriores:
http://www.mre.gov.br/portugues/noticiario/nacional/index3.asp
Coloque “21/02/09” na “Data inicial”, a mesma coisa na “Data final” e “Irã” no campo “Palavra-chave”. Aparecerão as matérias do Irã de vários jornais brasileiros daquele dia. Para a mídia estrangeira, faça o mesmo aqui:
http://www.mre.gov.br/portugues/noticiario/internacional/index3.asp
sendo que Irã em inglês é “Iran”.

Esta matéria do The Guardian (em inglês) neste link tem uma das contradições mais frontais entre seu conteúdo e sua manchete, que é “Irã enriqueceu urânio suficiente para fazer a bomba, diz AIEA”. Apesar do título, no corpo da matéria eles explicam direitinho o que a AIEA realmente disse...

O que me chamou a atenção para essa incongruência da imprensa foi esta matéria no blog da revista estadunidense Physics Today, em inglês (que comenta outro blog, do químico Cheryl Rofer). Donde, outra conclusão interessante: importante saber inglês. Pode-se, então, livrar-se um pouco da seleção de assuntos e das interpretações que a mídia nos impõe, e pensar com nossa própria cabeça.

sexta-feira, 20 de fevereiro de 2009

Chips brasileiros

Acabou essa história de achar que fazer computador é coisa de Primeiro Mundo e que o Brasil perdeu definitivamente o bonde da microeletrônica. Causou-me alívio constatar a extensão dessa mudança, depois de ler uma matéria do jornal Valor Econômico de ontem (19), reproduzida no Jornal da Ciência E-mail.

Fala sobre o Ceitec (Centro de Excelência em Tecnologia Avançada), uma empresa estatal recém-criada sediada em Porto Alegre. Que serve justamente para catapultar o desenvolvimento do nacional nessa área. Suas instalações serão inauguradas em julho. A primeira pastilha de circuito integrado ficará pronta em dezembro.

Faz um panorama interessante, a matéria. A empresa não poderá, porém, dominar todo o processo de produção de circuitos integrados. Ela fabricará os dispositivos, mas as fases finais, o encapsulamento e o teste, ainda terão que ser feitos no exterior. Sem problemas, a lagoa há de secar e certamente daqui a pouco faremos também encapsulamentos e testes.


Os que acreditavam e os que não acreditavam

No início desta década, pude testemunhar uma discussão na comunidade dos físicos sobre se o Brasil havia ou não "perdido o bonde" - era esta a expressão - da microeletrônica. Referiam-se ao atraso tecnológico do Brasil nessa área. Alguns físicos diziam que sim e que deveríamos investir em novas formas de tecnologia que estivessem aparecendo naquele momento, cujo bonde ainda estivesse passando. A nanotecnologia, por exemplo (claro que uma coisa não exclui a outra).

Mas outros físicos diziam que não, que era perfeitamente possível recuperar-se do atraso tecnológico. Os argumentos dos pessimistas, porém, soavam bem mais impressionantes, pelo menos para os de fora dessa área. Imagino que essa discussão se estendia para setores bem mais profundos da política tecnológica do país.

Os que acreditavam não ficaram só falando. A empresa só existe hoje porque havia tecnologia para que funcionasse, e há tecnologia para que funcione porque cientistas trabalharam nessa área antes. Isso foi feito em grande parte com pesquisa básica na área dos semicondutores (material de que são feitos os chips), que acontece há décadas. A pesquisa básica - aquela que não é feita com fins utilitários específicos - é condição sine qua non para o sucesso de qualquer empreendimento tecnológico e social nacional e está por detrás do sucesso dos invejados países desenvolvidos.

Hoje, pode-se contextualizar esse debate historicamente. O malogro da estratégia da reserva de mercado dos anos 80 ainda impressionava e a aceleração da abertura econômica do Brasil e do mundo, a partir dos anos 90, assustava: como poderíamos ter tempo para desenvolver nossa tecnologia no meio da competição ferrenha entre enormes multinacionais no setor?


Por que investir em microeletrônica

Parece-me que o caso é que a "microeletrônica" é uma área tão ampla que, mesmo que não possamos competir neste instante com microcomputadores pelo mundo, há nichos em que podemos nos defender bem. Talvez haja uma percepção geral que associa sempre chips com grandes computadores. Mas eles são usados em quase todo lugar - já viram aqueles curiosos adesivinhos quadrados presos na parte interna de capas de livros? -, e é isso que abre portas. É só ser criativo e prestar atenção nas necessidades específicas do país. Por exemplo, o texto do Valor diz que:

"o primeiro chip idealizado pelo Ceitec foi projetado para rastrear rebanho bovino. O chip está sendo implantado em 10 mil cabeças de gado no Rio Grande do Sul e no Mato Grosso. O objetivo é identificar cada animal, desde o nascimento até o abate, permitindo o monitoramento das características genéticas, zootécnicas e sanitárias dos animais. A rastreabilidade eletrônica, se for bem-sucedida, preencherá uma lacuna na produção brasileira de carne, questionada nos países ricos devido à suposta falta de controle dos rebanhos."

E por que simplesmente não comprar chips de fora? Eis outro trecho interessante do texto: "Entre janeiro e outubro de 2008, [o setor] gerou déficit comercial de US$ 19,4 bilhões, face a US$ 12 bilhões no mesmo período do ano anterior." O dinheiro investido no Ceitec até agora é de pelo menos 270 milhões para a construção das instalações e 40 milhões prometidos por Lula no dia 19. Hoje, conhecimento é poder e dinheiro.

Venceram os argumentos menos (aparentemente) "óbvios". Agora, é administrar bem e orçar adequadamente. Aliás, isso me faz lembrar do criticadíssimo corte de 18% - 1,1 bilhão - da verba para o ministério de Ciência e Tecnologia, aprovado pelo Congresso no Orçamento de 2009.

quinta-feira, 19 de fevereiro de 2009

Sobre este blog

A proposta deste blog é veicular textos sobre física e assuntos relacionados (como impactos da física na sociedade, na política etc... - afinal, a ciência é, também, uma atividade social e sua análise não pode ser dela desvinculada). E da forma o mais acessível possível ao leitor não-físico (mas mantendo o mais possível um grau satisfatório de precisão).

De tempos em tempos (espero que de semana em semana ou próximo disto), vou tentar publicar um artigo maior, como aquele que apareceu primeiro, sobre "A física invisível". Nos outros dias, envio alguns "picles": textos menores, menos trabalhados e menos profundos, com coisas que despertam minha curiosidade ou me surpreendam e que talvez possam surpreender ou despertar a de outras pessoas.

Alguns assuntos serão mais recorrentes por causa dos meus interesses: a física quântica, a cooperação científica internacional e assuntos científicos que causem impacto nas relações internacionais (como política nuclear).

Espero que tudo isso lhes seja útil e que se divirtam bastante. E que este blog dure.

O maior distribuidor de imagens de satélites

Surpreendam-se os que forem brasileiros (eu me surpreendi). Qual é o país maior distribuidor de imagens de satélites artificiais do mundo? Os EUA, certo?

Não. É o Brasil.

Pelo menos, é o que diz um artigo na Folha de S. Paulo de hoje (dia 19), pág. A3, sobre a cooperação entre Brasil e China para construção e lançamento de satélites artificiais, o CBERS . Assinado pelo ministro das Relações Exteriores, Celso Amorim, e pelo da Ciência e Tecnologia, Sérgio Machado Rezende. Há uma cópia gratuita online na seleção de notícias do MRE. Segundo o texto, desde junho de 2004, foram 500 mil imagens distribuídas gratuitamente pela Internet para vários países do mundo - inclusive países afastados, como alguns da África -, para monitoramento ambiental, agrícola etc.

Claro que, imediatamente, lembro-me do Google Earth e do seu ritmo alucinante de distrubuição de imagens de satélites. Nem ouso fazer contas. Provavelmente os ministros estão falando apenas de distribuição de imagens pelo poder público e coisas como o Google Earth não entram nessa contabilidade.

A parceria envolve, no Brasil, o Instituto Nacional de Pesquisas Espaciais, INPE. Foram lançados já três satélites nessa parceria, desde 1999. O segundo encerrou o funcionamento no último dia 15 de janeiro. Estão previstos mais dois, para serem lançados em 2011 e 2014.

Outra coisa interessante, da qual me dei conta em leituras sobre isso no ano passado, é que a cooperação científica entre países do Terceiro Mundo é um assunto recente, muito pouco estudado e, até onde pude averiguar, ainda sem uma teoria suficientemente desenvolvida. Tema esperando por pesquisadores que nele se debrucem. Há algumas teses publicadas, como a de Edmilson de Jesus Costa Filho, que a defendeu pela Unicamp em 2006 - justamente sobre o CBERS, mas também contribui para a construção de um arcabouço conceitual para cooperação no setor espacial.

quarta-feira, 18 de fevereiro de 2009

A física invisível

Há uma parte “escondida” da ciência, de um tipo que jamais aparece em jornais, sites e revistas de divulgação – mas que talvez constitua a maior parte da enorme massa de artigos que aparece diariamente nas publicações científicas especializadas. São resultados “intermediários”, cuja função é desbastar os caminhos para descobertas que, essas sim, poderão conseguir seu lugar ao sol na mídia. Olhar para essas contribuições invisíveis pode dar uma idéia alternativa da natureza da pesquisa científica, diferente da que é inspirada pela divulgação não-especializada em geral.

Que aspecto tem uma pesquisa dessas? Há inúmeros tipos. Vejamos um exemplo concreto, na área teórica. Em 2 de fevereiro desde ano de 2009, um resultado bem “intermediário” sobre temperaturas ultra-baixas calhou de ser divulgado em um site semi-especializado (o Physicshttp://physics.aps.org/articles/v2/9 –, da Sociedade Americana de Física). O artigo original apareceu na revista científica estadunidense Physical Review A (número 79, artigo 023601), assinado por Shizhong Zhang e Anthony Leggett, da Universidade de Illinois, nos EUA.

A idéia do presente texto é mostrar no que consistiu essa pesquisa. É uma tentativa de se transmitir a não-físicos um pouco de com o que se parecem as lajotas “invisíveis” que vão formando as trilhas que levam os cientistas às suas principais descobertas.


Gasoso, líquido, sólido e... CBE e BCS

Zhang e Leggett investigavam a transição entre dois estados físicos novos (além dos tradicionais sólido, líquido e gasoso) que aparecem a temperaturas extremamente frias: algumas dezenas de bilionésimos de grau acima do “zero absoluto”. O “zero absoluto” é a menor temperatura possível, a 273,15 graus Celsius negativos. Os dois estados atendem por “condensado de Bose-Einstein” (CBE) e o que eu poderia chamar, por falta de nome mais prosaico, de “superfluido tipo BCS”.

As características desses estados ainda estão sendo exploradas (isto é uma das coisas que físicos como Zhang e Leggett procuram!). Mas sabe-se várias coisas surpreendentes, como: têm viscosidade zero e seus átomos adquirem um comportamento coletivo, como se “muitos” fossem “um só”. No condensado Bose-Einstein, os átomos também “coalescem” numa pequena região do espaço, como se formassem um “superátomo”.

Em tempo: convido os leitores mais conhecedores de física, que podem estar estranhando muito a presença aqui da sigla BCS (normalmente associada com a supercondutividade), a dar uma olhada na “nota” no fim deste texto.

Talvez seja melhor falar o que exatamente esses físicos estão esfriando, para tornar a discussão mais concreta. Por enquanto, só se consegue chegar a bilionésimos de grau acima do zero absoluto com amostras muito pequenas, constituídas de alguns milhões de átomos (como de potássio, lítio, rubídio etc.). Sim, “milhões”, aqui, é pequeno: pois um mísero grama de, digamos, ferro, já tem cerca de 600 bilhões de trilhões de átomos... Como são poucos átomos, ao conjunto dá-se, tradicionalmente, o nome de “átomos frios”.


Desembaraçando o coletivo do individual

Eis então no que consiste a “pesquisa intermediária” de Zhang e Leggett. Enquanto alguns investigavam a transição CBE-BCS experimentalmente em laboratório, os dois autores concentraram-se na parte matemática e conseguiram algo que costuma causar certa sensação entre físicos. Pegaram diversas expressões matemáticas usadas para calcular várias quantidades físicas relacionadas com os átomos frios – desde sua energia até a velocidade de ondas acústicas através da amostra – e conseguiram separar cada expressão em duas partes. Cada parte relaciona-se com um tipo de abordagem diferente para o estudo de átomos frios:

a) uma “coletiva”, pois envolve médias sobre todos os átomos da amostra;

b) outra “individual”, que envolve as interações entre só dois átomos de cada vez (certo, “individual” fica meio estranho, pois os átomos são tratados aos pares, mas é só para usar uma contraposição clara a “coletivo”).

Mais: para formar cada uma das tais expressões matemáticas, cada parte precisava apenas ser multiplicada uma pela a outra.

E daí? Bem, isso causa impressão entre os físicos porque eles tentam sempre escrever suas equações de modo que uma simples olhadela para elas já possa inspirar intuições sobre o que está acontecendo fisicamente e, assim, facilitar o aparecimento de idéias novas. Para conseguir isso, eles têm que descobrir um jeito de dispor os símbolos de modo a potencializar suas intuições. Separar expressões matemáticas em “metades” contendo significados bem distintos, como Zhang e Leggett fizeram, é uma das estratégias mais interessantes.

Desta forma, os dois autores arrumaram um jeito de escrever suas equações de modo a evidenciar um aspecto provocante: uma espécie de “desembaraçamento” entre as contribuições de cada uma das duas abordagens, coletiva e individual. Em geral, ambas são necessárias para calcular qualquer quantidade física, mas suas contribuições para os valores dessas quantidades costumam estar totalmente misturadas nas expressões matemáticas. Nas equações de Zhang e Leggett, estavam separadas...!

Não é interessante só porque excita intuições. Se aparecem aspectos notáveis nas expressões matemáticas que descrevem fenômenos físicos, é porque existe algum aspecto igualmente notável desses fenômenos que está se refletindo na descrição matemática. A parte mais difícil e interessante costuma ser identificar ou interpretar o que é que está sendo refletido nas equações. Mas isso já são cenas de próximos capítulos.


A função universal

Os dois físicos não pararam aí. Mostraram também que a primeira metade das expressões, aquela relacionada com a abordagem macroscópica (o item “a” acima), é a mesma (tem a mesma forma) para várias quantidades físicas que se queira calcular. Por isso, chamaram a essa metade de “função universal”.

Para ficar menos abstrato, um exemplo (meio “grosso modo”). Suponha que alguém tenha descoberto como a velocidade das ondas acústicas através da amostra de átomos frios depende da temperatura da mesma (digamos que ela triplique quando a temperatura dobra). A “função universal” descoberta por Zhang e Leggett implica em que essa dependência será a mesma para, digamos, a energia de interação de um átomo com seu vizinho (ou seja, ela também triplicará se dobrarmos a temperatura!).

Isso também é algo que chama muito a atenção dos físicos. Não só porque torna mais fácil calcular coisas. Também porque, quando algum fenômeno físico tem características relativamente universais, significa que há algo de mais profundo por detrás. Afinal, algo que independe de vários parâmetros dos sistemas físicos deve conter informações sobre princípios físicos mais gerais! Resta saber quais. Mais cenas de próximos capítulos.

Zhang e Leggett tiveram uma precursora. Sejamos justos para com ela. Como lembrou o físico Eric Braaten, na mencionada matéria no site Physics (em inglês), a existência de uma função “universal” desse tipo para descrever a contribuição da “abordagem coletiva” já havia, na verdade, sido descoberta em 2005 por Shina Tan, da Universidade de Washington, em Seattle (EUA). Mas seus estudos ficaram quase completamente ignorados até dezembro de 2008, quando foram finalmente publicados, aparentemente porque (pelo menos em parte) Tan usou métodos matemáticos novos, criados especialmente para aquele problema. Isso dificultou a compreensão, pelos outros, do significado do que ele havia encontrado. Segundo Braaten, ao que parece, Zhang e Leggett não conheciam o trabalho de Tan e conseguiram chegar a seus resultados teóricos de forma independente, desta vez com métodos matemáticos mais conhecidos. Claro que isso não desmerece o trabalho dos dois autores, muito menos o de Tan.


Para que servem as pedras

Vê-se que nada disso dá muita luz sobre que aspecto tem uma amostra nos novos estados físicos do ultra-frio. Trata-se de um típico “resultado intermediário”, pedras para pavimentar caminhos que outros físicos continuarão construindo e depois trilharão para chegar a resultados que podem, esses sim, chegar a jornais e soerguer sombrancelhas de pessoas curiosas.

Há muitos outros tipos de resultados intermediários. Alguns são como pequenos “tijolos” que vão sendo postos aos poucos na construção de uma casa. Exemplos disso acontecem, restringindo-nos ao estudo do ultra-frio, quando alguém descobre um jeito de formar um condensado de Bose-Einstein com um novo tipo de átomo, ou então chega a um aperfeiçoamento técnico capaz de abaixar a temperatura ainda mais próximo do zero absoluto, ou então consegue explicar teoricamente algum detalhe até então não compreendido.

No caso de Zhang e Leggett, a função não é bem a de um tijolo, mas de excitar intuições. O tipo da coisa capaz de fazer físicos terem idéias mais facilmente, ou levar alguém a pensar algo que não pensaria de outro modo. Certamente, esse resultado estará oculto por detrás de descobertas que virão no futuro. E nem saberemos disso! Eis um pouco de com o que se parece a “física de fora dos jornais”.


* * *

Nota para leitores mais conhecedores de física e que devem estar pensando como é que se pode formar superfluidos tipos BCS e Bose-Einstein com o mesmo tipo de átomo (e assim poder fazer a transição de um para o outro), já que apenas férmions formam BCS e apenas bósons formam Bose-Einstein. Ocorre que, em condições específicas, os átomos fermiônicos podem se associar em pares (diferentes dos pares de Cooper presentes no BCS), e pares de férmions comportam-se como bósons, de forma que podem formar um condensado de Bose-Einstein. Isto é uma descoberta de novembro de 2003. Só que, nesse caso, as entidades constituintes do condensado não são os átomos individuais, mas pares deles. Vejam o artigo de Eric Braaten no Physics para mais informações e um bom diagrama explicativo. E também: http://www.aip.org/pnu/2003/split/663-1.html


Para saber mais:

O que é um condensado de Bose-Einstein (site Prisma)

Quinto estado da matéria (revista Pesquisa Fapesp, 2004) – matéria sobre a obtenção do primeiro condensado de Bose-Einstein no Brasil, pelo grupo de Vanderlei Bagnato, do Instituto de Física de São Carlos (USP)

BEC Homepage (em inglês) – exposição bastante didática sobre como chegar às temperaturas ultra baixas com átomos frios e obter o condensado de Bose-Einstein

How the tail wags the dog in ultracold atomic gases (Eric Braaten, site Physics) (para físicos) – sobre a pesquisa de Zhang e Leggett