domingo, 22 de março de 2009

A volta da energia nuclear


É impressionante como algumas coisas mudam rápido. Quem se lembra da oposição ferrenha de boa parte das pessoas às usinas nucleares de até alguns anos atrás? Em 2000, o governo alemão chegou a aprovar uma lei que exige o desmonte de todas as instalações nucleares do país até 2020. Pois bem, agora, em nome do combate ao aquecimento global ou por medo dos preços do petróleo ou de “apagões” energéticos, parece que elas estão sendo reabilitadas pelo mundo todo.

O número de pessoas na União Européia que apóiam o uso da energia nuclear subiu de 37% em 2005 para 44% em 2008 e os opositores caíram de 55% para 45%, segundo uma matéria da revista britânica The Economist de 19 de maio. Em fevereiro, a Itália e a Suécia anunciaram que voltarão a construir usinas nucleares (a Suécia parara um ano depois do acidente de Three Miles Island, nos EUA, em 1979, e a Itália um ano depois do de Tchernobyl, na Ucrânia, em 1986). Na Alemanha, a primeira-ministra Angela Merkel é favorável ao fim da lei de seu país contra as usinas – mas o outro partido da coalizão de seu governo apóia a lei, então nada deve mudar por lá ainda.

O que aconteceu?


O que os olhos não vêem...

No nível da opinião pública, há um dado interessante pode lançar uma luz sobre esse processo: apesar de o apoio às usinas nucleares ter aumentado, os números mudam bastante quando a pergunta inclui “lembretes” sobre os riscos das usinas. Segundo a mesma matéria da Economist, em 2007, uma pesquisa com questões que informavam tanto os riscos quanto os benefícios ambientais resultou em 61% contrários à energia nuclear.

Isso indica que os motivos pelos quais muitas pessoas eram contra as usinas nucleares há 30 anos simplesmente não estão mais na superfície de suas memórias. Mas têm efeitos grandes quando são lembrados.

O que fez as pessoas esquecerem? Certamente, contribuiu o longo tempo sem acidentes nucleares graves desde o de Tchernobyl, na atual Ucrânia, em 1986. A juventude agora é de uma geração que não viu esses acidentes, e isso faz muita diferença. O fim da possibilidade de guerra nuclear entre EUA e União Soviética também desmobilizou o ativismo anti-nuclear e diminuiu as tendências de vincular usinas e bombas nucleares (em tempo: o combustível das duas é diferente, apesar de ambos terem origem no urânio da natureza, como explicado nesta matéria). Novamente, a geração atual não conheceu o terror da ameaça do apocalipse imediato – bem diferente do apocalipse gradual das mudanças climáticas.

Na figura acima, uma cena do passado: protesto anti-nuclear em Harrisburg, nos EUA, em 1979, após o acidente de Three Miles Island. Oposição à energia nuclear ainda existe hoje, mas não com o barulho que havia naquela época.

O ativismo ecológico deslocou-se para as mudanças climáticas (aliás, eis que usinas nucleares não emitem carbono para a atmosfera durante sua operação – essa emissão é a principal causa das previsões de alterações no clima). Aliás, pouca gente parece se dar conta de que o fim da ameaça de guerra nuclear é ilusório, pois cada vez mais países têm suas bombas, – o que faz as possibilidades de alguém fazer alguma loucura aumentarem, simplesmente porque o número de “alguéns” aumenta.


A energia move o mundo – e as usinas

Já no nível dos governos, o que realmente conta parece ser energia. O preço do petróleo subiu nos últimos anos e explodiu no ano passado, chegando a mais de 147 dólares o barril em julho (o maior preço da história). É bem verdade que depois caiu tão inexplicavelmente quanto explodiu e agora está a menos de 40 dólares o barril. Mas a alta parece ter sido suficiente para reiniciar o embalo de muitos governos em direção à energia nuclear.

A importância do fator energia fica evidente se olharmos o Brasil. Não conseguimos construir usinas hidrelétricas tão rápido quanto cresce nossa demanda por energia. Esta é a origem do apagão de 2001. Para evitar a repetição do vexame, o governo aposta em termelétricas a gás e em usinas nucleares. Mas o gás de nossas termelétricas, na maior parte importado da Bolívia, pode estar em perigo por causa do potencial de crise política daquele país.

“Sobram” as nucleares. Entre aspas, pois há também as fontes eólica, solar, de bioetanol e outras renováveis. No último dia 9, a Comissão Nacional de Energia Nuclear (Cnen) emitiu uma licença para o início das obras para a usina de Angra 3, no litoral do Estado do Rio (fases posteriores da construção necessitarão de mais licenças). Estão sendo planejadas usinas para mais quatro locais no território nacional. Os governos de Pernambuco, Bahia, Sergipe e Alagoas manifestaram bastante interesse em que sejam construídas nos seus Estados. Cada uma produziria 1.000 megawatts (MW) e Angra 3, 1.350 MW. Angra 1 tem 650 MW e Angra 2, também 1.350 (a figura no início deste texto é Angra 1).

Enquanto isso, em fevereiro, o Brasil começou a enriquecer urânio, no laboratório em Rezende, no Estado do Rio de Janeiro. Trata-se de um processo para tornar o urânio encontrado na natureza próprio para ser usado em usinas. Note-se que o Brasil é apenas o nono país do mundo a conseguir enriquecer o urânio.


Urânio é menos “explosivo” que petróleo

Voltando a falar do resto do mundo, pode haver também fatores geopolíticos em jogo. O petróleo é notoriamente explosivo. Quantas guerras já não foram feitas por sua causa? Diz-se que o ouro negro existe em regiões instáveis, como o Oriente Médio, mas parece-me que o mais importante não é que essas regiões sejam instáveis, mas sim que seus países foram vítimas de colonização até muito recentemente e ainda são objeto de disputa e palco de ocupações militares. O Oriente Médio permanece instável em boa parte porque as potências insistem em intervir nos seu destino o tempo todo há quase um século.

Compare-se com o caso do urânio: os maiores depósitos estão na Austrália, que tem um quarto do urânio do mundo todo. Já o Canadá é responsável por um quarto da produção mundial de urânio, em toneladas. É difícil imaginar que esses dois países se tornem vítimas fáceis de interesses estrangeiros. Trata-se de nações do Primeiro Mundo. A influência estrangeira no Oriente Médio foi uma continuação dos protetorados ocidentais por outros meios; no caso australiano e canadense, o período colonial foi rompido há bastante tempo e não se pode mais restabelecer essa continuidade.

É bem verdade que há casos mais complicados: grande parte do urânio da França, onde 75% da eletricidade é de origem nuclear, vem do Níger (e quase todo o urânio do Níger vai para a França), um país que, quando o preço do minério caiu, nos anos 1980, foi vítima de rebeliões internas da minoria tuaregue. E que está numa região não exatamente pacífica: faz divisa com a Argélia, vítima de uma sangrenta guerra civil nos anos 1990; com a Líbia, pária internacional até recentemente; com o Chade, vítima periódica de guerras civis e tentativas de golpe e envolvido indiretamente na pavorosa guerra de Darfur, no Sudão; com a Nigéria, onde insurreições foram responsáveis por parte da alta do petróleo por explodirem oleodutos.

O Níger em destaque no norte da África


Gás europeu: situação ficando russa

Outro problema geopolítico: a Europa é muito dependente do gás fornecido pela Rússia e quer livrar-se dessa situação. O motivo é que ela tem se revelado cada vez mais problemática. Desde 2007, a Rússia vem pressionando seus vizinhos Belarus e Ucrânia a aceitarem o fim do preço baixo para a importação do gás russo, que herdaram do tempo em que faziam parte da União Soviética. Todo início de ano, no auge do inverno europeu (precisam de muito gás para seus aquecedores), a crise se agudiza e o gás é cortado. Os dois países não têm opção a não ser desviar para si o gás que deveria continuar seguindo, através do seu território, para outros países.

No início deste ano, o corte durou quase 20 dias. Houve protestos da população nas ruas de alguns países, principalmente na Bulgária, que não tinha como conseguir gás por outras vias e nem reservas suficientes e sofreu com escassez e frio.

Tentativas de construir novas rotas para gasodutos e oleodutos através da Geórgia, pequeno país ao sul da Rússia, levaram a uma disputa entre Moscou e o Ocidente pela influência naquele local que culminou no ano passado em uma guerra entre russos e georgianos.

Essa situação pode dar aos europeus mais impulsos para avançarem na energia nuclear e diminuir as complicações do gás russo. Os mapas abaixo dão uma idéia do grau de penetração na Europa dos oleodutos russos de gás e de petróleo.

Gasodutos existentes e planejados (em tracejado) na Europa central e oriental


Oleodutos existentes e planejados na Europa central e oriental. A Geórgia é o país em verde oliva. Clique na figura para vê-la maior.

Pondo as coisas dessa forma, parece difícil para ativistas desmobilizados deterem o novo avanço da energia nuclear. De qualquer forma, a solução para os problemas energéticos no mundo não está na fonte nuclear, nem na hidrelétrica, nem em qualquer outra isoladamente: está (1) na diversificação das fontes e (2) na solução do insolucionável: como manter indefinidamente o crescimento econômico se os recursos são finitos?

sábado, 14 de março de 2009

Reino Unido e Brasil: parceria para inovação anti-emissão de carbono


Na última segunda e terça (9 e 10 de março), tive a oportunidade de testemunhar como é por dentro o início de um processo de transformação de pesquisa científica em produto tecnológico novo disponível no mercado.

(Obs.: este texto não pretende fazer um parnorama do evento como um todo, mas comentar impressões minhas sobre alguns assuntos específicos lá abordados, principalmente sobre estratégias de promoção da inovação tecnológica. Veja aqui a programação completa do seminário.)

Uma delegação de sete representantes britânicos de agências e empresas ligadas à inovação participou de um seminário na Unicamp (“The how of innovation through low carbon example”) para fazer contatos com pesquisadores brasileiros para transformar descobertas científicas feitas aqui em produtos comercializáveis que promovam a diminuição das emissões de carbono na atmosfera. Essas emissões são vistas como a maior responsável pelas mudanças climáticas previstas para as próximas décadas.

O evento foi promovido pela Unicamp, pela organização governamental britânica UK Trade & Investment e pela representação do Reino Unido no Brasil. A delegação foi liderada por um representante britânico especializado em fazer o meio-de-campo entre cientistas e empresários, Nick Stuart, da UK Trade & Investment.

A idéia era promover a aproximação entre o setor acadêmico e o setor empresarial, para que pesquisas com potencial de se converter em inovação tecnológica comercializável pudessem encontrar seu caminho para concretizá-lo. Nos intervalos das palestras, os presentes da platéia conversavam com os palestrantes para estabelecer contatos. Nick Sutart disse esperar que, como resultado do seminário e dos contatos ali feitos, daqui a seis meses já apareça no Reino Unido uma equipe brasileira de inovação.

Houve palestras de britânicos e de brasileiros. Várias descreviam estudos sobre tecnologias capazes de diminuir as emissões de carbono na atmosfera, desenvolvidos em empresas e instituições de pesquisa dos dois países. Outras apresentavam os seus sistemas de inovação, transferência de tecnologia e financiamento, ou seja, as estratégias de se transformar ciência em tecnologia nova disponível no mercado.


Estratégias de inovação

Sobre esse último tópico, tanto aqui como lá existem órgãos especializados em ajudar a adaptar as tecnologias para as características do mercado e em mediar o contato entre academia e empresa. Isso é necessário pois, por um lado, em geral os cientistas não têm perfil de negócio e, por outro, o empresariado não costuma ter perfil técnico-científico. Além disso, as pesquisas científicas encontram-se, em geral, em um estágio muito precoce para um estudo tradicional de potencialidades de mercado. As variáveis normalmente consideradas para avaliação de potencialidades de negócio ainda não estão presentes nelas.

No caso do Brasil, a Lei da Inovação, de 2004 exige que todas as instituições científicas e tecnológicas tenham núcleos de inovação tecnológica com essa função. Há também programas como o Programa de Investigação Tecnológica de São Paulo e agências de inovação como a da Unicamp.

Um exemplo de como se dão as primeiras etapas da passagem de um produto da academia até o mercado aparece em um artigo de Bruno Moreira e Roberto Lotufo sobre a metodologia do Programa de Investigação Tecnológica de São Paulo, publicado na página 28 da edição de julho de 2008 revista Conecta, ligada à agência Inova Unicamp. As fases descritas no texto são:

  1. Caracterização das tecnologias e de suas aplicações;
  2. Prova de conceito: avaliação da capacidade da tecnologia de aderir ao mercado – a tecnologia parece pronta quando produz o registro de uma patente, mas há um caminho a percorrer até que ela esteja pronta para a inserção no mercado;
  3. Análise de mercado: identificar qual o mercado mais propício para aquela tecnologia, o modelo ideal para a sua exploração, potenciais parceiros;
  4. Análise da viabilidade econômica: análises mais detalhadas sobre o potencial mercadológico da tecnologia, como estimativa do tamanho do mercado, estabelecimento de preços, projeção de receitas, levantamento de custos e outras.

O resultado, ao final dessas etapas, é que a nova tecnologia deve estar adequada para ser apresentada, negociada e desenvolvida dentro da empresa ou com potenciais parceiros.

Além dos contatos, outro objetivo do seminário foi o Brasil aproveitar a experiência dos britânicos sobre estratégias de promoção da inovação. Roberto Lotufo, diretor executivo da agência Inova Unicamp, no seu seminário, disse que o envio de alguns colaboradores brasileiros ao Reino Unido nos últimos anos já trouxe aprendizados importantes para o país - como a necessidade de as equipes de inovação acompanharem o processo de inserção da tecnologia no mercado não só até os estágios finais dos passos acima, mas até a assinatura do contrato com a empresa e principalmente depois, já que é comum surgirem muitas dificuldades quando a tecnologia começa de fato a ser desenvolvida e virar uma inovação.


Outros temas – e o lado social

Nas palestras dos brasileiros, a maior parte falou de pesquisas sobre bioetanol. Dois dos palestrantes eram do Centro de Ciência e Tecnologia do Bioetanol (CTBE), em Campinas, que faz pesquisa básica, desenvolvimento de inovações e estudos sobre o impacto do bioetanol na sustentabilidade do desenvolvimento. Um dos temas principais eram os estudos para alcançar a viabilidade econômica do bioetanol de segunda geração, ou seja, feito não só do açúcar da cana, mas do seu bagaço e da palha – além do seu aproveitamento para cogeração da energia usada pela usina.

Outros assuntos interessantes foram a energia eólica (o Reino Unido tem quase 75% de sua energia elétrica de origem eólica – e o Brasil terá seu primeiro leilão específico para contratação de energia do vento amanhã, dia 15), células combustíveis e biorrefinarias com microalgas (as duas últimas, pesquisas feitas no Brasil).

A dimensão social foi abordada apenas de forma pontual, em momentos específicos do seminário. Bastiaan Reydon, da Unicamp, comentou, no início de sua palestra, o lado social de um dos principais problemas brasileiros ligados às mudanças climáticas, que é o desmatamento amazônico – ou seja, o seu impacto nas comunidades tradicionais indígenas e não-indígenas da Amazônia e nos problemas fundiários (sem-terras). Isso me pareceu muito importante, apesar de não ser o seu tema central, pois essas comunidades são freqüentemente esquecidas, como se a floresta, fora os fazendeiros e criadores de gado, fosse mato desocupado.

Há que se notar, porém, como me lembrou um dos palestrantes em um intervalo, que o desmatamento tem uma dimensão bem mais ampla, incluindo demandas crescentes de outros países, como a de soja pela China (hoje, a soja é um dos principais fatores do desmatamento amazônico e da estruturação de parte de suas vias de comunicação voltada para corredores de exportação).

Em outro momento, ao responder uma pergunta da platéia sobre esse assunto, Felix Eliecer Fonseca Felfli, pesquisador da Bioware, lembrou a condição social do pessoal que trabalha com carvão, que, segundo ele, é “incomparável” com as tecnologias propostas pela sua empresa.


Assuntos relacionados neste blog:

Quem não inova, se trumbica – sobre a importância da inovação tecnológica para o comércio internacional

O significado dos números sobre o aquecimento global – sobre como são feitas as pesquisas do IPCC sobre mudanças climáticas e o que significam

Bons ventos para a energia eólica no Brasil – sobre o leilão do dia 15 de março sobre contratos de energia eólica

sexta-feira, 13 de março de 2009

A megafísica mega-internacional e o estranho mundo assimétrico

À primeira vista, todo mundo deveria estar muito satisfeito com a teoria moderna sobre as partículas subatômicas. Pois ela é tão boa que descreve os fenômenos a que se propõe com mais precisão que qualquer outra em qualquer área da física, antes ou depois dela. O que mais se pode querer de uma teoria? Mas o que apareceu no meio científico no último dia 4 foi o último grande lance de uma corrida entre os principais laboratório de partículas do mundo para provar que ela está errada.

Quanto mais essas tentativas falham, mais impacientes ficam os cientistas. E esta última, da qual participaram físicos de quatro instituições brasileiras, provou que a teoria é ainda mais precisa do que se achava... Mesmo assim, mataram outros coelhos e avançaram em outra corrida, agora para achar o “bóson de Higgs” – a última partícula elementar prevista pela teoria cuja existência ainda não foi comprovada.

Calma, não é daquelas situações em que se trocam gritos e tiros. Os próprios EUA, pátria do ex-maior laboratório de partículas do mundo (o Fermilab), investiu pouco mais de meio bilhão de dólares para a construção na Europa do maior de todos, o LHC – que desbancou o Fermilab. E cientistas do LHC congratularam os do Fermilab pelo seu trabalho do dia 4 e disseram que ele pode muito bem vencer a corrida pelo bóson de Higgs. O espírito é mais esportivo do que se vê em muitos esportes por aí.


Por que mexer no que está dando certo?

O motivo para toda essa pressa é que, apesar de tão preciso, o Modelo Padrão falha catastroficamente em dar conta de uns poucos fenômenos importantes, relacionados não só com partículas, mas com o Universo conhecido como um todo.

Uma delas é que o Modelo Padrão prevê que deve haver um pouco mais de matéria que de antimatéria no Universo (ou vice-versa). Bem, o que é antimatéria: a cada partícula subatômica, como elétron ou próton, corresponde uma antipartícula de carga elétrica oposta – no caso, antielétron e antipróton. Essas antipartículas formam a dita antimatéria.

À esquerda, o próton, de carga elétrica positiva, e o elétron, de carga elétrica negativa. Nas suas antipartículas, à direita, as cargas elétricas estão invertidas.



À esquerda, um átomo tem o núcleo positivo e os elétrons negativos. À direita, um átomo de antimatéria, ou "antiátomo", tem o núcleo negativo e os elétrons positivos.

Entretanto, praticamente só vemos matéria à nossa volta, pelo menos até onde os telescópios podem observar. A supremacia observada da matéria sobre a antimatéria é pelo menos um bilhão de vezes maior que o previsto pela teoria. O Modelo Padrão diz que elas deveriam estar misturadas, o que seria cataclísmico em nível cósmico, pois matéria e antimatéria, quando em contato, transformam-se completamente em radiação extremamente energética...!

Outro problema: no Modelo Padrão, há dezenas de parâmetros numéricos, como a massa das partículas, cujos valores a teoria não explica. Ninguém sabe por que a massa do elétron é (segurem-se na cadeira) 911 octilionésimos de miligrama e não um outro valor qualquer. Há outros parâmetros relacionados com as probabilidades com que certas partículas se transformam umas nas outras, dos quais falarei mais adiante, e que estão no centro da pesquisa divulgada no dia 4.

Como não se sabe como completar a teoria nem como se construir uma nova, tenta-se descobrir fenômenos inéditos ou comportamentos diferentes do previsto pelo Modelo Padrão, na esperança de que possam dar mais indícios sobre o que fazer. O problema é que, quanto mais pesquisas se realizam, mais preciso o Modelo Padrão se mostra e todo mundo continua às escuras...


Megafísica

Para fazer esses estudos, os físicos usam aparelhos enormes chamados aceleradores de partículas. Como o nome indica, essas máquinas aceleram partículas subatômicas e obrigam dois “jatos” delas a se chocarem a velocidades enormes. O acelerador do Fermilab, o Tevatron, faz prótons e antiprótons colidirem a 99,99995% da velocidade da luz – apenas 475 km/h mais lentos que ela.

O choque produz novas partículas, que são analisadas por detectores colocados ao redor. Sabendo quais as partículas produzidas, suas velocidades e as direções para as quais foram atiradas, os cientistas conseguem inferir coisas sobre como a colisão acontece, se as teorias estão corretas ou não e, caso não estejam, como fazer uma nova teoria.

Um próton e um antipróton colidem com muita energia (lado esquerdo), suficiente para produzir várias partículas após a colisão (lado direito).

Essas máquinas são gigantescas. A maior de todas, o LHC, perto de Genebra, na fronteira entre França e Suíça, é basicamente constituída de um anel circular de 27 quilômetros de comprimento com os detectores ao redor – tudo dentro de um túnel subterrâneo. Começará a funcionar no final deste ano (deveria ter começado no fim de 2008, mas um defeito provocou um adiamento). O custo total deverá chegar a cerca de 3,03 bilhões de euros (3,9 bilhões de dólares de hoje).

O Tevatron do Fermilab é o segundo maior acelerador, com um anel de 6,28 km de comprimento. Sua construção custou 120 milhões de dólares, mas vem sendo incrementado desde então.

O círculo mais ao fundo, nesta vista aéra, é o anel do Tevatron, no Fermilab. Licença

Por que ser grande é bom? Quanto maior o acelerador, maior a energia que eles são capazes de fornecer às partículas que se chocam; e, quanto maior essa energia, maior a probabilidade de encontrar coisas novas (pois pode-se explorar o que acontece com energias jamais investigadas). O LHC poderá alcançar energias sete vezes maiores que o Tevatron. O Fermilab tem motivos para se preocupar...

A concorrência às vezes aparece dentro da mesma instituição, como aconteceu no Fermilab no dia 4: duas equipes de lá divulgaram, com apenas horas de diferença, dois trabalhos sobre a observação do mesmo tipo de fenômeno, com conclusões semelhantes.

O primeiro artigo, de um grupo chamado D-Zero, foi assinado por cientistas de 81 instituições de 19 países. A primeira página e meia do artigo só tem os seus últimos sobrenomes e as iniciais. A maior parte é dos Estados Unidos, mas há também quatro instituições brasileiras, onde trabalham os 15 cientistas daqui que assinaram o texto. São elas o Centro Brasileiro de Pesquisas Físicas (CBPF, no Rio de Janeiro), a Universidade do Estado do Rio de Janeiro (UERJ), a Universidade Federal do ABC (de Santo André, SP) e a Universidade Estadual Paulista.

O segundo artigo, do grupo CDF (sigla em inglês para Detector de Colisões do Fermilab), foi assinado por físicos de 61 instituições espalhadas por 14 países. Não há nenhum brasileiro neste. O D-Zero contém bem mais países do Terceiro Mundo que o CDF, especialmente da América Latina (incluem Argentina, Colômbia, Brasil, Equador e México, além da Índia). Os dois grupos usam diferentes detectores do Tevatron.


A violação CP

Agora vou tentar descrever com um pouco de detalhe, mas de uma forma relativamente acessível ao leitor não-físico, no que consistiu a pesquisa feita no D-Zero e no CDF. Vou ter que apresentar vários “senhores” ao longo do texto: violação CP, forças fracas, quarks, bósons de Higgs. Preparem-se para conhecer novos amigos. Talvez dê para ter uma idéia do tipo de pesquisa que se faz na área da física de partículas e do tipo de conceitos com os quais os físicos lidam nesses estudos.

A pesquisa divulgada no dia 4 se relaciona com a limitação do Modelo Padrão sobre a enorme vantagem da matéria sobre a antimatéria. A idéia para se pesquisar isso é investigar uma das condições necessárias para que a assimetria matéria-antimatéria ocorra: a quebra, ou violação, da chamada “simetria CP”. Aqui vou ter que apresentar nossa primeira nova amiga. A simetria CP diz simplesmente que:

a) se trocarmos todas as cargas elétricas de um sistema físico (daí a letra C)
b) e ao mesmo tempo invertermos todas as posições no espaço, como na figura abaixo (“P” é de “paridade”, nome técnico para isso: “troca de paridade”)

então obteremos uma situação física perfeitamente possível e totalmente simétrica em relação à anterior.

As operações envolvidas na simetria CP. A parte A é o quadro "Mulher agachada", de Ismael Nery. Na parte B, refletiu-se a imagem num espelho vertical (espero que os fãs de Nery me perdoem). Uma nova reflexão, por um espelho horizontal, leva à parte C. As duas reflexões constituem a "inversão de paridade". A parte D representa todas as cargas elétricas de todas as partículas invertidas. Licença

Isso talvez pareça muito natural. Afinal, o que poderia mudar se simplesmente olharmos o mundo de cabeça para baixo e através de um espelho? A força da gravidade – e as outras forças – certamente não mudaria de intensidade por causa disso – no máximo, trocaria de sentido. Um átomo não se desmancharia se a carga elétrica de todas as suas partículas fossem trocadas de sinal – afinal, o sinal das cargas é uma convenção: poderiam ter definido que os prótons são todos negativos e os elétrons positivos, ao invés do contrário. A natureza não está nem aí para as nossas idiossincrasias.

Mas a natureza é estranha. Em 1964, James Cronin e Val Fitch descobriram no laboratório que as forças fracas não respeitam essa simetria! Bem, “forças fracas”... prazer em conhecer... OK, deixem-me apresentar nossa segunda nova amiga.

A força fraca é uma das forças fundamentais da natureza, ao lado das forças gravitacional, elétrica, magnética (as duas conjuntamente conhecidas como eletromagnéticas) e nuclear forte (que se relaciona com a muito falada energia nuclear). Dentre elas, é as mais desconhecida fora da física. O fenômeno mais comum de que toma parte é a radiação beta, emitida por vários materiais radioativos.

E as tais forças fracas desrespeitam a simetria CP. Muito, muito estranho. Mas fazer o quê? É assim que a natureza se nos mostra.


Conseqüências da violação CP

Ora, o caso é que essa estranha descoberta teve duas conseqüências importantes.

A primeira foi que, para incluí-la, as teorias tiveram que ser modificadas. A versão final é de 1974 e é o que chamamos “Modelo Padrão”.

A principal mudança foi “postular” a existência de duas novas partículas subatômicas, até então nunca vistas. Seus nomes são quark top e quark bottom. Hora de apresentar novos amigos pela terceira vez...

Quarks são partículas que interagem por meio da força nuclear forte. Há seis tipos: up, down, charm, strange, top e bottom. O up e o down se associam em grupos de três para formar os prótons e os nêutrons: o próton tem dois up e um down e o nêutron, dois down e um up. Os quatro outros não participam da constituição dos átomos. O que se chama normalmente “força nuclear” é a força entre prótons e nêutrons (e entre si), que é um “remanescente” da força forte entre os quarks dentro deles.


O quark top e o quark bottom previstos pelo Modelo Padrão acabaram sendo encontrados entre as partículas que aparecem nas colisões dos aceleradores mais potentes. O último, o quark top, foi detectado no Fermilab só em 1995, pelos mesmos dois grupos, DÆ e CDF – de novo, quase ao mesmo tempo.

Além disso, os diversos quarks podem transformar-se um no outro. Isso acontece, por exemplo, no momento das colisões dentro dos aceleradores. Porém, o Modelo Padrão – específico a ponto de dizer quais partículas devem existir e quais não devem – não “sabe” calcular a probabilidade de um quark se transformar em outro! Os físicos têm que medi-las no laboratório e usar como “input” para a teoria (para os mais conhecedores, estou falando da matriz de Cabibbo–Kobayashi–Maskawa).

Aliás, lembram-se de quando eu falei no começo deste texto, que há parâmetros cujos valores o Modelo Padrão não prevê, “relacionados com as probabilidades com que certas partículas se transformam umas nas outras (...) e que estão no centro da pesquisa divulgada no dia 4”? Eu estava me referindo a essas probabilidades de transformação dos quarks.

A segunda conseqüência da descoberta da quebra da simetria CP é que ela implica na assimetria entre matéria e antimatéria, vínculo que foi descoberto pelo físico russo Andrei Sakharov.

Porém, isso explica apenas uma pequenina parte dessa assimetria. Assim, deve haver ainda mais novidades ocultas na física das partículas. Para encontrá-las, muitos cientistas passaram a olhar mais de perto fenômenos que exibiam quebra da simetria CP.


Os triângulos unitários

O pessoal do DÆ e do CDF juntou-se a esse conjunto de físicos. Sua idéia foi observar quarks top produzidos na colisão entre os prótons e antiprótons do Tevatron. Afinal, o quark top está no centro do problema da violação CP (foi prevista justamente por causa dela). Talvez pudesse revelar mais coisas interessantes.

Ora, há pouco, eu disse que o Modelo Padrão não previa as probabilidades de um quark se transformar em outro. A idéia dos físicos que estudam a violação CP é concentrar-se justamente na investigação dessas probabilidades.

Mas investigariam o quê, se o modelo era silencioso quanto a elas? Acontece que, apesar de a teoria não dizer os valores dessas probabilidades, ele prevê uma relação curiosa e bem específica entre elas. E é essa relação que os físicos querem testar, comparando cálculo de teoria com resultado de experimento. A relação é: é possível desenhar triângulos com essas probabilidades. Melhor dizendo: as probabilidades podem ser combinadas em certas quantidades que formam ângulos e lados de seis triângulos diferentes, chamados “triângulos unitários”.

Físicos adoram coisas que se pode visualizar. Elas excitam a intuição e fomentam novas idéias. E é de novas idéias que os cientistas estão precisando neste momento. Concentraram-se então nesses triângulos. Assim: passaram a medir os parâmetros com os detectores dos aceleradores; aí construíam os triângulos com eles e verificavam se a figura se “fechava” ou não, como na figura ao lado. Se não se fechassem, haveria problemas com o Modelo Padrão. Caso se fechassem, haviam apenas provado que o Modelo era ainda mais preciso.




O que o Fermilab fez

Até 2007, já se havia investigado todos os lados e ângulos dos triângulos unitários, com exceção de um, chamado “Vtb” (escreve-se o “t” e o “b” porque ele se relaciona com a transformação de um quark top em um quark bottom). Para ele, havia medições indiretas e não suficientemente precisas. Tudo melhoraria se fosse possível observar a produção de quarks top individualmente, pois eles continham informação direta sobre o Vtb.

Mas quase todos os quarks apareciam em pares quark-antiquark. Os quarks solitários ocorriam, mas eram muito difíceis de serem observados, pois surgiam muito raramente no meio de uma grande quantidade de outras partículas – algo como procurar uma agulha amarela num palheiro bege. E transformavam-se em outras partículas antes que se pudesse fazer qualquer coisa.

Os aperfeiçoamentos técnicos e metodológicos permitiram distingui-lo ali no meio já em 2007. Mas foram vistos muito poucos; para conseguirem medir o Vtb com precisão semelhante ao que havia sido feito para os outros parâmetros, era preciso mais. Isso foi conseguido no último dia 4.

Os quarks continuam transformando-se em outras coisas antes de poderem serem observados – na verdade, quarks só podem ser detectados aos pares. Mas as partículas nas quais se transformam contém, nas suas velocidades e direções de movimento, uma “assinatura” do quark top. Essas partículas “secundárias” é que foram detectadas. E a assinatura do quark top isolado estava lá.

O resultado foi... o triângulo se fechou muito bem...! Melhor do que parecia se fechar até então. Bem... não foi o grande dia, não foi desta vez que o Modelo Padrão foi derrotado. Mas os cientistas descobriram algo mais.


A busca pelo bóson de Higgs

Primeiro, observar indiretamente quarks isolados é algo muito interessante, pois isso é muito difícil de ser feito. A observação de 2007 foi a primeira.

Segundo, o D-Zero e o CDF avançaram em outra corrida: para encontrar o bóson de Higgs. Eis aqui mais um quarto amiguinho para ser apresentado. Vamos lá.

O bóson de Higgs é uma partícula prevista pelo Modelo Padrão, a única cuja existência ainda não foi confirmada em laboratório. A razão é que ela é muito pesada, e quanto mais pesada uma partícula, mais difícil de ver num acelerador. Isso acontece porque os aceleradores têm que fazer as colisões produzirem as partículas – e, para se produzir partículas grandes, é preciso fazer colisões com energia muito alta. Não se sabe qual a massa do Higgs, mas em agosto do ano passado, resultados do DÆ e do CDF combinados mostraram que sua massa é pelo menos 203 vezes maior que o próton – ou seja, um pouco mais pesado que um átomo de mercúrio.

A corrida pela observação do bóson de Higgs é ainda mais intensa que a relacionada com a violação CP descrita neste texto. Esta última praticamente não aparece nos jornais; já os bósons de Higgs aparecem bastante (ainda que poucos leitores saibam o que são).

A contribuição dos resultados do dia 4 para a busca do bóson de Higgs é a seguinte. Assim como o quark top, essa partícula também só pode ser observada indiretamente. Acontece que os sinais deixados pelos quarks top produzidos individualmente mimetizam os deixados pelo bóson de Higgs. Então, um requisito para se conseguir encontrar o Higgs é entender bem os sinais dos quarks top individuais – senão, haverá dificuldade em distinguir os dois casos. Os resultados do Fermilab trouxeram esse conhecimento. Como conseqüência, um dos cientistas do próprio LHC, Paul de Jong, disse que o trabalho do D-Zero e do CDF pode levar o Fermilab a encontrar o Higgs antes.


Para saber mais:

A aventura das partículas – Site com muito boa navegabilidade com informações bem acessíveis sobre física das partículas, incluindo o Modelo Padrão e aceleradores.

Os artigos do D-Zero e do CDF (para físicos...)

sábado, 7 de março de 2009

O que é mecânica quântica?

A mecânica quântica revolucionou nossas noções de energia, matéria e causalidade. O que pensávamos ser partículas não são partículas nem ondas, mas comportam-se ora como uns, ora como outros. A natureza parece ser intrinsecamente indeterminista e só nos é possível prever médias e probabilidades. No entanto, ao nosso redor há inúmeras tecnologias baseadas na mecânica quântica, como computadores, DVDs e CDs.

No final do século XIX, vários fenômenos físicos pareciam não poder ser explicados pela física da época, hoje chamada “física clássica” ou “newtoniana”. Relacionavam-se com a luz, o calor, os átomos etc. Para dar conta desses fenômenos, toda a física newtoniana teve que ser substituída. O resultado foi o que se chama hoje “física moderna”. Inicialmente, ela era constituída pelas teorias da relatividade (especial e geral) e pela mecânica quântica.

A revolução da física moderna foi muito profunda. Conceitos caros como os de espaço, tempo, matéria e causalidade tiveram que ser revistos. Há muitas características importantes da mecânica quântica diferentes da física clássica, mas vou ater-me aqui a apenas quatro, que talvez possam resumir a essência do seu conteúdo:
  1. a quantização da energia
  2. o salto quântico
  3. a dualidade onda-partícula
  4. o indeterminismo

1. A quantização da energia

Na história da mecânica quântica, esta foi a primeira de suas característica a ser abordada teoricamente. A quantização da energia diz simplesmente que, em certas situações, a energia só pode ter certos valores – digamos, 10, 20 e 30 calorias – estando “proibidos” os valores intermediários. Sabemos hoje que isso acontece em casos onde há partículas “presas”, ou “ligadas” – como os elétrons em um átomo. Elétrons livres podem ter qualquer energia. Veja a figura abaixo:

À esquerda, energias para um elétron livre: todos os valores são permitidos. À direita, energias para um elétron ligado: só alguns valores são permitidos.

O exemplo dado acima, das 10, 20 e 30 calorias, é irreal, porque as diferenças entre os níveis de energia são muito pequenas, próximas das energias típicas de átomos e partículas subatômicas. Por isso, no mundo macroscópico, parece que a energia é sempre contínua, sem valores proibidos. Mas, no mundo atômico e subatômico, a quantização da energia é algo a ser levado em conta sempre.

Além disso, as distâncias entre os diversos níveis não são sempre os mesmos. Dependem da situação. As energias permitidas para um elétron em uma molécula de hidrogênio são diferentes das para um elétron em uma molécula de oxigênio – apesar dos dois elétrons serem idênticos. A diferença entre dois níveis energéticos é chamada quantum. O plural é quanta, pois é uma palavra do latim.


Como se chegou a essas conclusões

A origem desse conhecimento está nos estudos de Planck de 1900 sobre a emissão de luz por corpos aquecidos (melhor dizendo, um tipo especial dela, cujo curioso nome técnico é “radiação de corpo negro”). Isso é algo que vemos todos os dias (pense num metal incandescente, como o filamento da lâmpada acesa ao lado), mas o problema que Planck atacou era bastante dramático: feitas as contas com a física clássica, a energia da luz emitida dava infinita! Isso não poderia ser possível – caso contrário, qualquer metalzinho incandescente seria capaz de fritar todo o Universo...

O problema foi resolvido quando Planck supôs que a luz não era emitida continuamente, mas em “pacotes” de energia. Esses quanta de luz vieram, depois, a serem chamados fótons. Mais tarde, mostrou-se que a luz em si era constituída de fótons, e não quando era emitida pelos átomos.

Outras pessoas passaram a aplicar conceitos semelhantes em outros problemas até então insolúveis, como Niels Bohr, que em 1913 fez uma nova teoria sobre a estrutura atômica e mostrou que a energia dos elétrons nos átomos também está quantizada. Posteriormente, mostrou-se que a quantização da energia acontece com qualquer partícula ligada.

Tudo isso é interessante, mas não parece ser suficiente para alterar toda a física clássica. Porém, os desdobramentos da hipótese quântica de Planck foram tremendos e atingiram a física quase toda. Por um quarto de século, os cientistas exploraram esses desdobramentos até que, em 1924, conseguiu-se formular uma teoria quântica completa – não só da luz ou dos átomos, mas uma física nova inteira.

No resto deste texto, mostrarei alguns dos principais desdobramentos da teoria dos quanta e como eles levam a alterações radicais na nossa maneira de ver o mundo. Usarei como guia cinco perguntas que aparecem naturalmente por causa da teoria de Planck.


2. O salto quântico

Primeira pergunta: se há tantos casos em que valores intermediários de energia não são permitidos, como então é possível aumentar a energia de qualquer coisa?

Acontece que ela pode ir de um nível para outro sem passar pelos valores intermediários. Usando nosso exemplo “irreal”, vai de 10 para 20 calorias sem passar por 11, 12, por nenhum deles. A isto se chama salto quântico.

O salto quântico foi estabelecido como hipótese em 1913 por Niel Bohr para os elétrons de um átomo de hidrogênio, mas as previsões de sua teoria conseguiam descrever aspectos da luz emitida por esses átomos que eram inexplicáveis pela física clássica. Mais tarde, mostrou-se que estados ligados em qualquer situação funcionam assim.

A figura abaixo esquematiza um elétron em um átomo que absorve luz. Um exemplo comum acontece no interruptor de luz, que é feito de um material fosforescente – ou seja, que absorve luz, mantém-na durante algum tempo e depois a reemite. Por isso ele parece brilhar no escuro: ele continua reemitindo luz até acabar a que absorvia enquanto o ambiente estava iluminado.


Ora, quando absorvem luz, o que os elétrons absorvem é energia luminosa e, assim, aumentam sua energia. Por isso, o elétron só absorve a luz se o fóton que chegar tiver energia suficiente para que esse elétron possa saltar de um nível energético para outro. Senão, ele não absorve e o fóton passa incólume.

O mesmo acontece quando emite luz: só emite a energia necessária para passar de um nível energético para outro de menor energia. Emite a luz, portanto, em “pacotes”: os fótons que Planck estudou. Nada disso acontecia na física clássica: o elétron poderia absorver ou emitir qualquer quantidade de energia.


3. A dualidade onda-partícula

Segunda pergunta: na época de Planck, já havia uma teoria sobre a luz, que dizia que ela era constituída de ondas. Isso era conhecido desde a virada do século XVIII para o XIX e já havia sido fartamente confirmado por observações cuidadosas. Mas a teoria quântica diz que a energia luminosa se distribui em pequenos pacotes. Como compatibilizar as duas visões?

Nos anos seguintes à descoberta de Planck, essa pergunta foi adquirindo tons muito mais dramáticos, pois havia indicações de que os fótons se comportavam como partículas de fato! Isso foi cabalmente demonstrado em 1923 por um experimento de Arthur Compton sobre colisões entre fótons e elétrons. Os elétrons eram desviados de suas trajetórias como se tivessem sido atingidos por corpúsculos – como em choques de bolas de bilhar.

Ora, eu disse acima que já se sabia que a luz era constituída de ondas. Agora, eis que essa visão não funciona mais e a suposição de que ela é constituída por um fluxo de partículas é que passa a funcionar... Como pode ser possível? Não faz sentido alguma coisa ser onda e partícula ao mesmo tempo...!

A solução para isso não foi fácil. Hoje sabemos que a luz não é onda nem um fluxo de partículas: ela é alguma outra coisa, que exibe algumas características de um fluxo de partículas em certas situações e de ondas em outras. A esse comportamento dá-se o nome de “dualidade onda-partícula”. Em geral, a luz se comporta como onda enquanto está em trânsito e apresenta características de partículas quando interage com a matéria (como quando é absorvida por átomos).

O site do Wikipedia em espanhol teve uma idéia muito interessante para explicar a dualidade onda-partícula. Ilustrou com a figura abaixo como o mesmo objeto pode se manifestar de uma forma se visto sob um certo ângulo e de outra se visto sob outro ângulo. Um cilindro produz uma sombra quadrada em uma parede e circular na outra. Se vemos só a sombra, parecerá uma contradição: como algo pode ser redondo e quadrado ao mesmo tempo? Não é um círculo nem um quadrado: ele é uma outra entidade (um cilindro), mas que se manifesta como um quadrado ou como um círculo, dependendo da situação. Mas cuidado: isto é apenas uma analogia. Tanto as ondas como as partículas e as entidades “nem-ondas-nem-partículas” estão no espaço tridimensional comum.




Ondas de matéria

Terceira pergunta: Bem, uma coisa que se pensava que era onda, a luz, era uma entidade dual. E quanto às coisas que se pensava que eram partículas, como os elétrons?

Pois bem: logo descobriu-se que essa dualidade era uma característica geral. Todas as “partículas” não são propriamente corpúsculos no sentido tradicional, mas entidades que se comportam como ondas em certas situações e como partículas em outras. Jamais como ambas simultaneamente.

Quanto maior a massa da partícula, mais pronunciado o comportamento de corpúsculo e menos o comportamento de onda. Para um elétron – que é tão pequeno que é um dos constituintes dos átomos – já foi muito difícil detectar seu comportamento ondulatório, observado pela primeira vez em 1927 pelos físicos Clinton Davisson e Lester Germer. Em 1999, conseguiu-se observar fenômenos ondulatórios na molécula de fulereno, que tem 60 átomos de carbono.

Dito assim, pode parecer que a todos os elétrons corresponde uma onda e essa onda seria sempre a mesma. Afinal, todos os elétrons são idênticos. Mas não é assim. O tipo de onda não depende apenas da partícula em si, mas também da situação em que se encontra.

Por exemplo, a freqüência da onda se relaciona com a velocidade do elétron. Elétrons velozes têm ondas associadas com freqüência mais alta que elétrons mais lentos. Num caso mais geral, as ondas associadas às partículas identificam não só a partícula, mas também o estado em que se encontra. Veja a figura abaixo:


Esse significado dessas ondas só foi esclarecido depois que Werner Heisenberg e Erwin Schrödinger conseguiram construir uma teoria “final” da mecânica quântica, em 1924 e 1925, após um quarto de século em que vários grandes físicos tatearam e tentaram construir toda uma nova mecânica a partir de alguns poucos dados experimentais.

Na verdade, foram duas teorias “finais”, uma de cada autor, mas mostrou-se logo que eram equivalentes. Elas foram construídas a partir de um conjunto de suposições físicas e matemáticas que foram parecendo mais plausíveis à medida que foram sendo feitas as pesquisas anteriores. A relação entre onda e estados físicos vem dessa teoria “final”. Atualmente, usa-se uma mistura das duas, e é isso o que se chama hoje de “mecânica quântica”. Ela vem sendo usada para inúmeras situações físicas com enorme sucesso.


O experimento das duas fendas: quando partícula e onda se encontram

Eu disse que a luz e as partículas subatômicas sempre se comportam ou como onda ou como corpúsculo, nunca como ambos ao mesmo tempo. Mas é difícil resistir a imaginar uma situação onde os dois comportamentos se encontram de alguma forma, para ver o que pode acontecer! Seria possível fazer com que os dois comportamentos apareçam na mesma partícula e no mesmo experimento, ainda que em momentos diferentes? O que acontece numa situação dessas?

Isso é possível. Vejamos uma situação assim: o experimento das duas fendas. Neste momento, é melhor falar mais por figuras do que por palavras.

No experimento, joga-se luz sobre um anteparo com duas fendas estreitas, como na figura abaixo. A luz que passa pelos dois orifícios incide sobre uma placa fotográfica. Aqui, uma vela produz a luz, que passa por um primeira fenda num primeiro anteparo para tornar-se mais uniforme (a luz provinda de uma fonte com forma de ponto é mais uniforme que a vinda de um objeto extenso e de formato complicado). Depois, esta luz mais uniforme passa sobre as tais duas fendas.



Bem, então, depois das fendas, temos duas ondas luminosas que se encontram no espaço. Acontece que, quando duas ondas se encontram, elas interferem. Podem somar-se ou cancelar-se, como mostra a figura abaixo:

À esquerda, duas ondas que se encontram se somam e produzem uma onda mais intensa. À direita, as duas ondas se encontram defasadas, de modo que se cancelam.

A interferência que acontece com as ondas depois dos dois orifícios e antes da placa está esquematizada nesta outra figura:


Como se pode ver, em certas regiões, as ondas se somam. Essas regiões aparecem mais claras Em outras, elas se subtraem. Essas aparecem mais escuras O resultado é que, na placa fotográfica, aparecerão faixas claras e escuras, como na figura:


Até aí, tudo bem. Isso é um fenômeno que só acontece com ondas. Acontece que eu disse acima que a luz é composta de pequenos pacotes de energia chamados fótons. Então, quando colocamos um filme fotográfico com sensibilidade suficiente, podemos ver como essas faixas são formadas com o tempo. Veja esta figura, que mostra cinco momentos diferentes da formação dessas faixas:


A coisa extraordinária aqui é que, se as faixas existem, é que houve interferência depois dos dois orifícios – e, assim, a luz comportou-se como onda. Porém, se ela aparece como pontos na placa fotográfica, é que comportou-se de forma localizada, como se fosse corpúsculos! Já existe tecnologia para fazer isso com um fóton de cada vez. O mesmo fóton se comporta como ondas em um momento e como partícula em outro! (Não há contradição porque ele não faz as duas coisas ao mesmo tempo.)


4. O indeterminismo: uma teoria probabilista

Quarta pergunta: Há um paradoxo interessante no experimento das duas fendas. A onda luminosa ocupa uma região do espaço, como mostrado nas primeiras figuras. Porém, um fóton manifesta-se como um ponto na placa fotográfica, que ocupa uma pequena região do espaço em certo local específico. Se a luz se comportava como onda antes de atingir a placa, o que determinou que ela escolhesse um ponto específico para se manifestar como partícula e não um outro qualquer?

Pode-se imaginar que, com a teoria da mecânica quântica, seria possível calcular em que ponto o fóton apareceria. Porém, não é o caso! Não há nenhuma indicação nas equações que permita tal tipo de previsão.

Apesar disso, a teoria prevê médias com grande sucesso, e também probabilidades. Tome-se um conjunto grande de fótons (ou de elétrons ou de prótons etc.) e seu comportamento médio será previsto muito bem pela teoria, ainda que, sobre seus comportamentos individuais, ela só forneça probabilidades.

Isso é bem diferente do que acontece com a física clássica. Se supusermos que um elétron está, em certo momento, viajando no espaço vazio a 100 km/h e também que sua velocidade é constante, então a física clássica nos diz que dali a uma hora ele estará a exatamente 100 quilômetros de distância de onde estava antes. Mas a física quântica não produz afirmações assim. Ela diz algo como: “há probabilidade de 80% de o elétron deverá estar entre 90 e 110 km de onde estava”. Esses números dependem da situação, mas podem acontecer exatamente esses que eu citei.

Essas probabilidades estão diretamente relacionadas com as ondas associadas às partículas. Quando as “ondas-partículas” interagem com a matéria, elas se manifestam (como corpúsculos) mais provavelmente nas regiões onde as ondas são mais intensas. E vice-versa.

Nem todas as ondas quânticas têm forma de "cobrinhas". Acima, as ondas correspondentes ao elétron de um átomo de hidrogênio para diferentes energias deste elétron. Nas partes mais claras é maior a probabilidade de esse elétron ser encontrado, caso alguém decida detectá-lo.

Tudo isso pode não parecer tão estranho, pois, afinal, estamos acostumados com situações onde só conseguimos prever médias. Se jogarmos uma moeda várias vezes, a tendência é cair cara 50% das vezes e coroa 50% das vezes, com alguma variaçãozinha. Não podemos prever, porém, se uma jogada individual produzirá cara ou coroa.

A diferença com a situação quântica é que, no caso da moeda, a teoria – a mecânica clássica – tem instrumentos teóricos para se fazer previsões exatas sobre uma jogada individual. Se soubermos com bastante precisão a velocidade inicial da moeda, a rapidez com que gira, sua posição inicial e a direção inicial do seu movimento, podemos prever com exatidão qual lado sairá para cima. Não podemos na prática porque não conhecemos essas condições iniciais todas com precisão suficiente – e não porque a teoria não contenha instrumentos para fazê-lo.

Tanto que, se alguém jogar a moeda com cuidado, pode fazer com que ela dê duas voltas exatas enquanto cai e, assim, prever se dará cara ou cora – e ganhar desonestamente. Nesse caso, ele foi capaz de fazer uma previsão exata a partir do conhecimento preciso da situação inicial da moeda e da força com que foi jogada.

Já a mecânica quântica não produz resultados exatos nem mesmo quando se sabe com precisão a situação inicial de uma partícula subatômica. Voltando ao exemplo do experimento das duas fendas, com os fótons atingindo a placa fotográfica: a mecânica quântica consegue prever com grande precisão o padrão de listras na placa, mas não onde aparecerá cada ponto que vai formando as listas com o tempo (veja a última figura do experimento das duas fendas).


Deus joga dados?

Quinta pergunta: A coisa extraordinária é que, apesar de a mecânica quântica não ter instrumentos para prever com precisão eventos individuais, ela consegue prever médias e probabilidades com grande precisão! Como isso é possível? Afinal, a teoria está tirando média do que, se ela sequer considera os eventos individuais?

Esta figura esquematiza as faixas feitas de pontos da última figura sobre o experimento das duas fendas mais acima. A mecânica quântica consegue prever a luminosidade das faixas com perfeição, mas não diz nada sobre a posição de cada ponto individual.

Essa situação já era evidente mesmo antes das teorias de Heisenberg e Schrödinger. Por isso, alguns físicos achavam que a mecânica quântica estava incompleta – e que, no futuro, seria descoberto um aperfeiçoamento que lhe daria instrumentos para fazer previsões teóricas de eventos individuais, como a física clássica consegue (em teoria) para jogos de moedas ou de dados. No entanto, a mecânica quântica parecia “saber” antecipadamente que aperfeiçoamento seria esse, pois ela conseguia prever as médias!

O caso era tão grave que não houve consenso. A pequena comunidade de grandes físicos que lutava tateando no escuro para construir uma teoria quântica, na primeira metade do século, cindiu-se.

Um grupo, liderado por Albert Einstein, acreditava que a mecânica quântica estava incompleta. Desse grupo também fazia parte ninguém menos que Erwin Schrödinger, um dos dois autores da forma final da teoria

O outro grupo, liderado por Niels Bohr, achava que a mecânica quântica não podia prever casos individuais porque a natureza era assim. O indeterminismo seria uma característica intrínseca da própria natureza. Foram famosos os debates entre Einstein e Bohr sobre isso, nos anos 1920 e 1930. Ao lado, os dois (Bohr à esquerda) na casa do físico Paul Ehrenfest, na Holanda, em 1925.

Voltando ao experimento das duas fendas, com os fótons aparecendo em pontos específicos da placa fotográfica: a interpretação indeterminista diz que não há modo de se prever em qual ponto da tela o fóton se manifestará, porque a própria natureza se comportava de modo intrinsecamente indeterminista nessa “escolha”. Foi ao criticar essas idéias que Einstein cunhou a famosa frase “Deus não joga dados”.


O veredicto

Algumas tentativas de se completar a mecânica quântica foram feitas, mas, em 1965, John Bell descobriu um teorema muito geral que praticamente destruiu as possibilidades da recuperação do determinismo! A partir da análise teórica de um experimento simples com duas partículas distantes, ele mostrou que qualquer teoria que:
  1. reproduza os resultados da mecânica quântica (isso é necessário, pois a quântica concorda com as observações) e que
  2. pretenda recuperar o determinismo
deverá necessariamente envolver velocidades infinitas. Acontece que velocidades infinitas contradizem a teoria da relatividade especial, que está bem fundamentada e foi fartamente verificada em laboratórios.

Mesmo assim, Bell incluiu no seu teorema um teste experimental que serviria de tira-teima, baseado na mesma experiência com duas partículas. Ironicamente, essa experiência foi imaginada por Einstein em 1935 (junto com Podolski e Rosen) para provar que a mecânica quântica, como estava formulada, levava a consequências filosoficamente inaceitáveis. Bem, a partir de 1981, com o trabalho de Alain Aspect, conseguiu-se realizar esse experimento e o tira-teima foi... favorável ao indeterminismo quântico!

Ao que tudo indica, parece que a natureza é mesmo indeterminista. Mas isso não implica em que qualquer coisa possa acontecer. No mundo cotidiano, como há enorme quantidade de partículas, as médias quânticas são indistinguíveis das certezas previstas pela física clássica – da mesma forma que, se uma moeda é jogada para o alto cada vez mais vezes, podemos prever com cada vez mais certeza de que o número de caras será exatamente 50% do total. Mas, para situações que envolvam o comportamento de átomos, moléculas e partículas subatômicas, a mecânica quântica consegue fazer previsões mais precisas que a física clássica! (Lembre-se do sucesso da teoria de Planck.)


O quantum ao nosso redor

Tudo isso pode parecer muito “estratosférico”. Afinal, átomos e partículas subatômicas são muito pequenas e, no mundo real, e superposições quânticas são inobserváveis em objetos macroscópicos...

No entanto, muitos fenômenos físicos importantes para a tecnologia moderna envolvem o comportamento dos átomos e, assim, são afetados pelos fenômenos quânticos descobertos a partir de 1900. Correntes elétricas, por exemplo. Foi com a teoria quântica que John Bardeen, Walter Brattain e William Shockley inventaram o transistor em 1947. Esse dispositivo causou uma revolução na eletrônica e permitiu o aparecimento dos microcomputadores modernos. Tudo que usa chip, de telefones celulares a registros eletrônicos em contra-capas de livros, baseiam-se na teoria quântica.

Os lasers também são explicados e projetados com base nessa teoria – logo, sempre que usamos um CD, um DVD ou um blu-ray, estamos usando tecnologia projetada com base quântica. O mesmo para as usinas nucleares (que usam a quântica junto com a relatividade), tecnologias que usam materiais que emitem calor e luz, como resistências elétricas e filamentos de lâmpadas incandescentes (usam a fórmula de Planck para radiação térmica), e também células fotoelétricas e lâmpadas fluorescentes. Além disso, a teoria quântica é usada para explicar o funcionamento do Sol, para determinar a composição química das estrelas distantes a partir de sua luz e muitas outras coisas. Enquanto isso, novas tecnologias estão sendo nascendo, como o computador quântico.

Com o advento da tecnologia moderna, a humanidade passou a viver num mundo cercado de manifestações dos quanta.


A física se move

Se todas as partículas exibem fenômeno quânticos, então toda a física teve que ser alterada. Assim, além de uma mecânica quântica, existe hoje um a teoria quântica da eletricidade, do magnetismo, das forças nucleares e assim por diante. Mas isto ainda não terminou. Não existe ainda uma teoria quântica da gravidade. Esta é uma das principais fronteiras da física teórica atualmente. Há apenas algumas teorias hipotéticas (como a das supercordas), esperando pelos testes experimentais em laboratório. Uma das coisas que o famoso acelerador de partículas em Genebra, o LHC, deverá fazer é ajudar a testar essas teorias. Dificilmente haverá um teste tira-teima, pois isto exigiria um aparelho muitíssimo maior. Mas, se tivermos sorte, poderemos avançar muito neste conhecimento.

Um dos detectores de partículas do LHC. Repare o tamanho do homem perto dele.


Para saber mais - O livro de John Gribbin, "Fique por dentro da física moderna", contém informações muito acessíveis e didáticas sobre a mecânica quântica e o resto da física moderna (e um pouco de física clássica, também). Muito bom.


Resumo
  • A quantização da energia diz que a energia não é sempre contínua; há casos em que apenas alguns valores específicos são permitidos.

  • Para passar de um nível permitido para outro, a partícula não pode passar pelas energias intermediárias, "proibidas", então deve dar um "salto quântico".

  • Partículas (incluindo fótons de luz) têm comportamento dual: comportam-se como ondas enquanto estão transitando pelo espaço, mas podem comportar-se como corpúsculos quando interagem com a matéria.

  • A mecânica quântica é indeterminista: só prevê probabilidade e médias, não tendo instrumentos teóricos para fazer previsões precisas sobre eventos individuais.

  • Alguns cientistas, como Albert Einstein, acreditavam que o determinismo poderia ser recuperado se se completasse a mecânica quântica de alguma forma. O teorema de Bell, entretanto, sepultou essas esperanças.

  • Muitas tecnologias modernas estão baseadas na mecânica quântica, dos chips aos lasers.

terça-feira, 3 de março de 2009

Quem não inova, se trumbica

O crescimento da China não impressiona só na economia. O número de artigos científicos com pelo menos um autor chinês cresceu de 828, em 1990, para mais de 80 mil em 2007, segundo um artigo de Nora Bar no jornal argentino La Nación de 25 de fevereiro. A China é hoje o segundo país com mais trabalhos em nanotecnologia, atrás apenas dos Estados Unidos. E, em 2014, deverá, se as coisas continuarem como estão, tornar-se a primeira do mundo em registros de patentes (que são produtos de inovação tecnológica, por sua vez resultado de pesquisa científica), ultrapassando os EUA – segundo outro artigo, de Leonardo Senna, no Jornal do Brasil de hoje.

O artigo de Nora Bar fala sobre o crescimento da ciência em países emergentes e cita ainda a Índia e o Brasil. Ainda falta muito para essas nações chegarem no patamar dos países mais desenvolvidos – só os Estados Unidos detêm nada menos que 31,3%, quase um terço, da produção científica e tecnológica mundial, segundo um texto de Celso Lafer (presidente da Fapesp, Fundação para o Amparo à Pesquisa no Estado de São Paulo) publicado na Folha de S. Paulo em 18 de janeiro. A China participa com 6,3%. Isto parece pequeno em comparação com os EUA, mas a percepção se inverte quando se vermos a cifra do segundo lugar, o Reino Unido: “apenas” 8,7%.

Os números do Brasil são mais modestos que os da China – nossa produção científica e tecnológica, segundo o texto de Lafer, é de 1,72% da mundial –, mas, mesmo assim, ela vem crescendo muito (o mesmo texto diz que a produção científica indexada brasileira aumentou 22,7% entre 2003 e 2006). Porém, aqui existem alguns fatores que relativizam muito esse vigor. Um deles é a enorme concentração no Estado de São Paulo. Segundo Lafer, 51% da produção do conhecimento científico-tecnológico no Brasil vem de lá.


Inova, empresa!

Mas o mais importante é o número de patentes registradas pelo Brasil (um parâmetro que reflete o quanto as pesquisas científicas estão se convertendo em inovações tecnológicas). São recorrentes as advertências de vários cientistas de que temos muita ciência, mas as transformamos pouco em patentes (salvo em núcleos isolados – em geral, novamente, no Estado de São Paulo). E que isso acontece porque nossas empresas investem pouco em inovação.

Segundo o artigo de Leonardo Senna – que não é cientista, mas empresário –, as empresas brasileiras “investem em média apenas 0,6% do seu faturamento em pesquisas e desenvolvimento de produtos, segundo estudos do Instituto de Pesquisa Econômica Aplicada (Ipea).” As da França e da Alemanha investem 2,6%. A pequena Coréia do Sul, com pouco mais que um quarto da população brasileira, é responsável por cinco vezes mais patentes depositadas no sistema mundial de patenteamento (nos EUA) que o Brasil.

Isso se torna preocupante quando se lembra que é a inovação que faz com que os produtos exportados tenham valor agregado, como Senna lembra bem. Valor agregado pode ser considerado como o valor a mais nos produtos devido ao acréscimo de tecnologia envolvida na sua produção. Apesar de mais caro, tende a vender mais (se tudo for bem feito), por causa da melhor qualidade. É assim que os países desenvolvidos ganham dinheiro e é isso que se quer dizer, principalmente, quando se fala que hoje a economia mundial se baseia no conhecimento.

E essa é uma das principais razões do atraso dos países exportadores de commotidies. Se alguém vender leite tirado diretamente da vaca para depois comprar leite pasteurizado em caixinha, terá que vender muito mais leite do que compra para poder equilibrar suas contas, pois terá que pagar também por todo o processo de industrialização (e mais a caixinha). É o drama das chamadas “economias periféricas”, em oposição às “economias industrializadas”.


Assimetrias Brasil-China

Já faz algum tempo que o Brasil não tem mais o perfil clássico de economia periférica desse tipo. Mas eis que a grande parte de nossas exportações para a China são commodities e as nossas importações de lá são, na maioria, de produtos manufaturados (com maior valor agregado – inovação envolvida – do que commodities). Segundo um estudo do IPEA de 2006, 51% da nossa exportação para a China entre 2001 e 2003 foi de produtos básicos (hoje, destacam-se ferro e soja), enquanto 66,8% das nossas importações foram de equipamentos eletrônicos, siderurgia, químicos, indústrias diversas e material elétrico.

Ainda há uma distância grande até os padrões comuns da relação economia periférica-país industrial, mas, caso continue essa enorme diferença na inovação empresarial daqui e da China, é de se temer a aproximação do padrão “vendo leite cru-compro pasteurizado”. E é inadmissível, para dizer o mínimo, comportarmo-nos como economia periférica diante de um país do Terceiro Mundo.

Há alguns dias, escrevi aqui neste blog sobre a cooperação técnica entre Brasil e China na construção e lançamento de satélites, o que levou o Brasil a tornar-se o maior distribuidor de imagens digitais do mundo. Bem, o blog do jornalista Ulisses Capozzoli, no dia 2, comentou a enorme defasagem entre as pesquisas espaciais daqui e de lá. Na madrugada de domingo, uma sonda chinesa atingiu a Lua. Já colocaram astronautas em órbita. A Índia também está muito avançada – apesar de os três programas espaciais terem começado no mesmo ano, em 1961.

Por que essas assimetrias todas? Talvez o tão criticado corte de 18% da verba do Ministério da Ciência e da Tecnologia no Orçamento de 2009, aprovada pelo Congresso Nacional, contenha alguma dica importante sobre suas origens profundas... Aliás, coincidência ou não, o setor espacial será um dos mais atingidos. Segundo uma reportagem da Folha Online, a Agência Espacial Brasileira (AEB) terá 22,55% menos do que o esperado.

domingo, 1 de março de 2009

Índice das matérias

Todas as matérias escritas para serem compreendidas por não-físicos.

19/02/11 - 1001 utilidades para a luz síncrotron - O minicurso EPSCA explica o que é e para que serve um laboratório síncrotron. Falo só de física? Não! Arqueologia, biologia, química e até bioquímica extraterrestre são pesquisados nesses aparelhos multiuso.

17/09/10 - Percepções sobre a história da física nuclear no Brasil - As impressões que atravessavam a mente das pessoas nos anos 40 e 50, relacionadas com a história da física nuclear brasileira, descritas por um dos seus protagonistas, o físico José Goldenberg.

22/03/09 - A volta da energia nuclear - Diversos países, inclusive o Brasil, voltaram a investir em usinas nucleares ou aumentaram esses investimentos. A opinião pública de vários países está aceitando a energia nuclear mais do que há 30 anos. Por quê? O que mudou de lá para cá?

14/03/09 - Reino Unido e Brasil: parceria para inovação anti-emissões de carbono - Sobre o seminário "The how of innovation through low carbon example", ocorrido nos dias 9 e 10 de março, na Unicamp. Uma missão britânica fez contatos com pesquisadores brasileiros para auxiliar na transformação de pesquisas científicas feitas aqui, com potencial para diminuir as emissões de carbono para a atmosfera, em tecnologias comercializáveis.

13/03/09 - A megafísica mega-internacional e o estranho mundo assimétrico - Uma pesquisa de dois grupos internacionais divulgada no dia 4 é o mais recente lance de uma corrida para mostrar que a teoria atual das partículas subatômicas não funciona. Como os físicos estão lidando com o problema do sumiço da antimatéria.

07/03/09 - O que é mecânica quântica - Panorama dos principais conceitos desta teoria.

03/03/09 - Quem não inova, se trumbica - A importância da pesquisa em inovação tecnológica dentro das empresas brasileiras para o equilíbrio das relações comerciais com a China.

01/03/09 - Aquecimento global: verdade ou mentira? - Crítica ao artigo de José Carlos de Almeida Azevedo, publicado na Folha de S. Paulo em 25/02/09.

28/02/09 - Bons ventos para a energia eólica brasileira - Sobre o leilão para contratação de fornecimento de energia eólica e por que investir nesse tipo de energia no Brasil.

27/02/09 - Imagens quânticas, computadores quânticos - Artigo. Sobre as pesquisas recentes de Alberto Marino, do NIST, sobre emaranhamento quântico de feixes de luz carregando imagens. Contém uma explicação sobre os fundamentos da computação quântica.

23/02/09 - O que é a teoria da relatividade especial? - Panorama dos principais conceitos da teoria.

22/02/09 - O significado dos números sobre o aquecimento global - Artigo. Esquema sobre a natureza do trabalho do IPCC (Painel Intergovernamental sobre Mudanças Climáticas) e como são feitas.

21/02/09 - Calma, o Irã não construirá uma bomba tão cedo - Crítica à cobertura da mídia ao programa nuclear iraniano.

20/02/09 - Chips brasileiros - Sobre o Ceitec (Centro de Excelência em Tecnologia Avançada), empresa estatal para catapultar o desenvolvimento brasileiro na microeletrônica.

19/02/09 - O maior distribuidor de imagens de satélites - Sobre o programa CBERS, de cooperação técnica entre Brasil e China, para construção e lançamento de satélites artificiais.

18/02/09 - A física invisível - Artigo. Que aspecto têm as contribuições "invisíveis" da física, que não saem na mídia, mas que são pedras importantes no caminho que leva às grandes descobertas. O gancho é uma pesquisa sobre temperaturas ultra-baixas (átomos frios) de Shizhong Zhang e Anthony Leggett que saiu em fevereiro na Physical Review A, sobre a transição CBE-BCS (BCE-BCS crossover). O texto também fala de como os físicos escrevem as equações matemáticas de formas específicas, para que possam inspirar suas intuições criativas.

Aquecimento global: verdade ou mentira?

“Ciência climática vodu, sem teoria nem comprovação experimental” – é como o ex-reitor da UnB, José Carlos de Almeida Azevedo, qualificou os estudos do IPCC (Painel Intergovernamental sobre Mudanças Climáticas) sobre o aquecimento global, em um artigo para a Folha de S. Paulo do dia 25 de fevereiro, reproduzido no JC E-mail. Esses estudos são a principal fonte de conhecimento sobre o fenômeno, hoje.

No entanto, seus argumentos são estranhíssimos e simplesmente não parecem se referir ao que faz o IPCC. Ele começa o artigo dizendo que o Painel não previu coisas como neve no Oriente Médio, na Grécia e no deserto dos Estados Unidos, ocorridas em 2008 e 2009.

Ora, isso não tem nada a ver com o que o IPCC faz. O trabalho do IPCC não é fazer previsões locais e para futuro imediato desse tipo, como se fosse o “homem do tempo” na TV. É fazer projeções de médio e longo prazos (usualmente cem anos) sobre características globais do clima, como variação da temperatura e do nível dos oceanos. E são várias projeções, dependendo do modelo e do cenário que se usa. Modelos referem-se a diferentes teorias sobre funcionamento do clima e cenários são hipóteses sobre a evolução futura das emissões de CO2.


Confusão com escalas de tempo

Em seguida, Azevedo diz que “satélites e sondas meteorológicos também comprovam que, nos últimos 13 anos, a temperatura ficou estável nos dez primeiros e caiu nos três últimos.” Ora, como dito acima, o IPCC faz previsões de médio e longo prazo. O importante é se há uma tendência de aquecimento em longo prazo (décadas), e não se a temperatura caiu durante um ou dois anos. A temperatura não sobe o tempo todo, há variações, pois ela depende de inúmeros fatores. É como um gráfico de subida da inflação ou da bolsa: há sobes e desces momentâneos, mas há uma tendência geral.

Depois dessa confusão entre os prazos com que o IPCC lida e os prazos curtos de alguns anos, o autor vai ao extremo oposto e diz que o aquecimento e a subida do nível dos mares acontece desde há uns 20 mil anos, desde o fim da última Era Glacial. É verdade, mas, de novo, há uma confusão sobre a escala de tempo. Os prazos das projeções do IPCC não são de dezenas de milhares de anos, são de coisa de um século. O que o IPCC diz é que houve uma inflexão, uma forte aceleração, no aumento da temperatura que já vinha acontecendo em média há milhares de anos, e associa essa inflexão à ação humana.


Por que teste indireto se há testes diretos?

Em seguida, o ex-reitor pergunta-se “que modelos climáticos os ‘videntes’ do IPCC processam nos seus computadores”, se “não existe teoria do clima”. Como assim, não existe teoria do clima? Como então se faz as previsões climáticas para os próximos dias que lemos nos jornais? E os modelos, são detalhadamente explicados nos relatórios do IPCC e nas fontes que cita, para quem quiser ver. E, se há modelos, há teoria. Modelos baseiam-se em teorias.

Azevedo apóia-se em alguns estudos. Cita um de Koutsoyiannis e outros autores, de 2008, que, segundo ele, confirma que "o desempenho dos modelos é fraco; em escala de 30 anos (...) as projeções não são confiáveis e o argumento comum de que o seu desempenho é melhor em larga escala não tem fundamento". Na introdução do seu trabalho, Koutsoyannis diz que chegou a essa conclusão testando os modelos que o IPCC usa: aplicou-os ao passado ao invés de ao futuro e verificando se eles conseguem se aproximar razoavelmente dos registros climáticos dos últimos 100 anos que já existem. A conclusão foi negativa. O estudo está aqui.

É uma proposta interessante, mas seria mais interessante ainda se Azevedo tivesse citado testes mais diretos, como observar se as previsões que o IPCC fez em 1990 se confirmaram. Afinal, já se passaram 18 anos e isso já é possível de ser feito. Outra vantagem de um teste direto como esse é que ele estaria baseado não em simulações computacionais feitas por um único grupo de cientistas (Koytsoyiannis e os co-autores do artigo, que fizeram as projeções para trás), mas pelo IPCC como um todo, que tem cerca de dois mil pesquisadores de diversas instituições espalhadas por vários países.

E há pesquisas que fazem isso e que têm conclusões opostas às de Koutsoyiannis. Um exemplo. Em fevereiro de 2007, um artigo publicado na Science pelo grupo de Stefan Rahmstorf mostrou que, entre 1990 e 2006, mediu-se um acréscimo de 0,33 graus Celsius na temperatura média dos oceanos. Isto estava dentro do conjunto de projeções do IPCC. Estava, porém, perto das mais pessimistas. Já a elevação do nível dos mares, segundo o mesmo artigo, foi de 3,3 mm/ano. Aí houve discrepância com o IPCC: este previa um máximo de 2 mm/ano. Porém, a discrepância, ao invés de contradizer a idéia da elevação do nível dos mares, a aprofunda, pois o aumento medido foi maior que o projetado pelo Painel.


Palavra x contexto

Continuando, Azevedo tenta contrapor duas afirmações aparentemente contraditórias de um dos meteorologistas do IPCC, K. Trenberth. Em 2007, ele disse que “não há previsões climáticas feitas pelo IPCC. E nunca houve.” Ao mesmo tempo, os “xamãs” do IPCC dizem que há consenso científico sobre a influência do CO2 no clima”.

A primeira frase, a de Trenberth, foi localizada pelo jornalista Marcelo Leite, que mostrou a fonte em um artigo seu na Folha de S. Paulo de hoje (01/03), reproduzido no site do MRE. Vem de um pequeno texto de Trenberth num blog da revista britânica Nature. E a frase foi posta lá simplesmente para mostrar a diferença entre uma “previsão” e o que o IPCC faz. Isso é explicado logo após a frase de Trenberth, quando ele continua: “O IPCC, ao contrário, divulga projeções do clima futuro do tipo ‘o que aconteceria se’, que correspondem a certos cenários de emissão [de CO2]”. É um sentido bem diferente do que transparece pelo contexto do artigo de Azevedo. Uma das diferenças entre projeção e previsão é que as projeções dependem do modelo e do cenário. As projeções para elevação do nível dos mares até 2100, por exemplo, são seis e variam de 40 cm, no cenário mais “otimista”, a 60 cm, no cenário mais pessimista.

Além disso, cada tipo de projeção (como a elevação do nível dos mares) e de associação causal (como a associação da ação humana à elevação do nível do CO2) está associada com faixas de probabilidades. Os relatórios do IPCC estão repletos de expressões referentes a essas probabilidades, cujos significados precisos são explicados no início dos documentos. São as seguintes: “virtualmente certo” (probabilidade maior que 99%), “extremamente provável” (entre 95% e 99%), "muito provável" (entre 90% e 95%), “provável” (de 66% a 90%), “mais provável que improvável” (de 50% a 66%), “aproximadamente tão provável quanto improvável” (de 33% a 50%), “improvável” (de 10% a 33%), “extremamente improvável” (entre 1% e 10%) e “excepcionalmente improvável” (menos que 1%).

O próprio IPCC dizia, até 2007, que a probabilidade de a ação humana ser responsável pelo aumento das emissões de CO2 estava entre 67% e 90% (“provável”). Até então, a difusão de que havia uma "certeza total" sobre isso era um problema da relação entre academia e imprensa. No relatório de 2007, porém, a probabilidade para isso subiu para entre 90% e 95% (“muito provável”). A razão foi a adição das pesquisas dos 6 anos anteriores na compilação. Isto não é exatamente o comportamento de um “xamã”.

Uma descrição mais detalhada sobre como funcionam os estudos do IPCC, incluindo a diferença entre modelos e cenários, está em outro texto deste blog.