sexta-feira, 18 de fevereiro de 2011

1001 utilidades para a luz síncrotron

O anel do LNLS está por dentro da estrutura branca arredondada.

Há uma máquina do tamanho de um salão grande, guardada dentro de um pequeno prédio nas proximidades de Campinas, SP, que é um verdadeiro coringa: é usada para pesquisas da nanociência à química dos derivados de petróleo, da paleontologia à bioquímica extraterrestre. É a única da América Latina; no hemisfério Sul só há outra parecida na Austrália; e a daqui é utilizada por cientistas de vários países, como Argentina, Itália, Suécia e República Tcheca.

O aparelho tem a forma de um anel de 30 metros de diâemtro e chama-se "acelerador síncrotron". Encontra-se no Laboratório Nacional de Luz Síncrotron (LNLS), um complexo a poucos quilômetros da Unicamp. O porquê de tanta versatilidade deve-se à radiação que produz, que tem o mesmo nome, "luz síncrotron". Esses raios são úteis para investigar com precisão a estrutura da matéria no nível dos átomos - é possível com isso confeccionar novos materiais e pesquisar a física por detrás de inúmeros fenômenos - e também para formar imagens tridimensionais do interior dos objetos sem ser preciso abri-los (em outros laboratórios pelo mundo, já se observou com ela inclusive o interior de ovos de dinossauro mantendo-os intactos).

A radiação é produzida por elétrons que trafegam em círculos no interior do anel a 99,999% da velocidade da luz (energia de 1,37 GeV); sua trajetória é mantida dentro do anel por fortes campos magnéticos, que obrigam as partículas a fazerem a curva. Partículas carregadas como os elétrons emitem radiação naturalmente quando são desviados da trajetória reta, formando a luz síncrotron emitida pelo aparelho.

Ao redor do anel, há diversas "saídas" para a radiação, cada uma acoplada a um conjunto de aparelhos. São as "linhas de luz". Cada linha de luz processa a radiação síncrotron de uma forma diferente, adequando-a para as diversas aplicações possíveis. O conjunto todo é o "laboratório síncrotron".


O ribossomo, átomo por átomo

O aspecto "coringa" desse complexo foi ilustrado ricamente num minicurso voltado a estudantes de pós-graduação, que aconteceu no LNLS entre 17 e 25 de janeiro último, intitulado "Novos desenvolvimentos no campo das radiações síncrotron" (parte do programa Escola São Paulo de Ciência Avançada, EPSCA). O objetivo era compartilhar o que vem sendo feito em laboratórios síncrotron de todo o globo para quem quisesse ouvir. Gente do mundo inteiro compareceu - Brasil, Argentina, França, Alemanha, Espanha, Estados Unidos, Irã, África do Sul etc. Vou abaixo falar sobre umas poucas pesquisas apresentadas, só para dar uma ideia da variedade do que pode ser feito com laboratórios síncrotrons.

Quem foi teve a sorte de ouvir as palestras de dois prêmios Nobel: Ada Yonath, de Química, e Albert Fert, de Física. Fert, da Universidade de Paris, falou sobre a spintrônica, uma nova área que explora as possibilidades de transmissão de informação por meio de ondas de spins de elétrons. Ada Yonath, do Instituto Weizmann, em Israel, falou no primeiro dia. Discorreu sobre suas pesquisas em Israel a respeito da estrutura do ribossomo - uma organela celular que faz a "leitura" do código do DNA e com isso produz proteínas para a célula.

Basicamente, o que seu grupo e seus colaboradores fizeram foi aproveitar que o ribossomo é muito pequeno - tem entre 25 e 30 nanômetros de diâmetro - e tratá-lo como se fosse uma molécula. Ora, um dos usos mais comuns para a radiação síncrotron é a determinação da estrutura da molécula de um material - de que átomos é composta e como eles se distribuem na molécula. Os cientistas aplicaram o método no ribossomo e acabaram determinando a sua estrutura átomo por átomo!

Representação da estrutura das duas subunidades do ribossomo de eubactérias. A da esquerda é da Deinococcus radiodurans e a da direita, da Thermus thermophilus. O ribossomo é feito de RNA ribossômico (em cinza) e de proteínas (em cores). Entre as duas subunidades, em dourado, aparece uma molécula de RNA transmissor, central no mecanismo de decodificação, no ribossomo, do código genético para construir moléculas de proteínas. Fonte: Homepage de Ada Yonath

Não só: foram mostradas imagens do ribossomo se mexendo enquanto passava através dele uma "fita" de RNAm (molécula semelhante à do DNA, que leva o código genético do núcleo para o citoplasma da célula). Como num verdadeiro mecanismo de montagem em série, moléculas de aminoácidos presentes no citoplasma eram ligadas uma após a outro, formando uma cadeia que constituiria uma proteína, numa sequência determinada pelo RNAm que era lido simultaneamente. A longa molécula da proteína saía por um túnel através da organela.


Física & Paleontologia

No dia 21, houve a inesperada palestra de uma jovem paleontóloga, Sophie Sanchez, do Museu Nacional de História Natural, em Paris, que mostrou como os laboratórios síncrotron podem ser úteis para a sua ciência. Fósseis muitas vezes vêm no interior de rochas e seria preciso quebrá-las e estragar as relíquias para conseguir enxergá-los. Com a luz síncrotron, pode-se obter figuras tridimensionais do interior dessas rochas mantendo-as intactas. Na telona foram exibidas imagens de um velho pedaço de âmbar com insetos fósseis dentro, uma pesquisa de Malvina Lak (da Universidade de Rennes, na França) e Paul Tafforeau. (do European Synchrotron Radiation Facility). Uma simulação computacional, alimentada pelas imagens obtidas com o síncrotron, montou uma animação na qual o âmbar girava na tela, mostrando com nitidez os antiquíssimos insetos de cerca de 100 milhões de anos. Também mostrou várias análises do interior de ossos e dentes de animais pré-históricos e embriões dentro de ovos.

Insetos e plantas pré-históricas presos dentro de um pedaço de âmbar. As imagens foram feitas com o auxílio da radiação síncrotron. Imagens de muitos ângulos diferentes foram processadas por computador para produzir o resultado acima. Na palestra, uma animação mostrava o sistema todo girando, permitindo extraordinária visualização. Pesquisa de Malvina Lak e Paul Tafforeau. Fonte: slides da primeira palestra de Sophie Sanchez, disponíveis no site do LNLS.

Esse tipo de pesquisa - a do ribossomo ou a dos insetos dentro do âmbar - não poderia ser feita no LNLS, pois precisa da chamada fonte de radiação síncrotron de terceira geração, que produz radiação mais intensa e com espectro mais amplo. Mas um novo anel está sendo construído no LNLS, o Sirius, com 146 metros de diâmetro. Este será uma fonte de terceira geração e abrirá possibilidades para todo um conjunto novo de possibilidades de pesquisas para o Brasil e para os usuários LNLS vindos de outros países.

Outros pesquisam ovos mais recentes. Antes de Sophie, falou Franz Pfeiffer, da Universidade Técnica de Munique, Alemanha. Explicou, em meio a equações e desenhos esquemáticos, a teoria matemática por detrás das mesmas técnicas que ela usava. A razão de tanta sofisticação é que, para transformar os dados brutos da radiação síncrotron em imagens, é necessário um complexo processamento matemático realizado por computadores. Para ilustrar a aplicação da teoria, em certo momento Pfeiffer mostrou os resultados de um experimento-teste feito no laboratório: imagens tridimensionais do interior de... um Kinder-Ovo!


Filmes mesoporosos e bioquímica extraterrestre

Mais próximo da física, o argentino Galo Soler-Illía, do Centro Atómico Constituyentes, em Buenos Aires, falou sobre os filmes mesoporosos. Assunto amplamente desconhecido do grande público, trata-se de minúsculos dispositivos com forma de finíssimas películas porosas - cada poro possui entre 2 e 50 nanômetros, ou milionésimos de milímetro - com múltiplas aplicações na nanociência. Podem servir para a tecnologia, como na construção de detectores de substâncias químicas, ou para estudos científicas em física, química e biologia. Uma surpreendente pesquisa de 2009, feita por uma equipe de Buenos Aires, usou filmes mesoporosos para simular o funcionamento das membranas de neurônios, que transmitem o impulso nervoso bloqueando ou deixando passar íons de sódio e potássio. Usando, para isso, o LNLS.

Outra pesquisa de 2009, que não chegou a ser comentada no evento, usou as instalações do LNLS e concluiu que há indicações da existência de adenina, uma das bases constituintes do DNA, na atmosfera de Titã, um satélite de Saturno! O que foi feito por Sergio Pilling, da Universidade do Vale do Paraíba (Univap), foi simular a atmosfera e as condições do satélite numa campânula e analisar a composição do material que era formado ali. O LNLS foi usado para produzir raios-X para imitar os raios-X solares que bombardeiam a atmosfera de Titã.

Na campânula, formou-se uma maçaroca composta de diversas substâncias químicas, que aparece frequentemente em condições semelhantes no espaço sideral, chamada "tholin". A análise do tholin acusou a presença da adenina. É uma conclusão excitante, pois coloca um pequeno tijolo a mais nas pesquisas sobre a origem da vida - como ela pôde aparecer a partir de elementos não biológicos - e mesmo sobre as possibilidades de ela surgir também em outros mundos.

Equipamentos de uma das linhas de luz do LNLS, a D04A-SXS (espectroscopia de raio-X mole), nos quais foram feitas as análises do tholin. Fonte: "DNA nucleobases in Titan?" (Roberto Belisário), em PDF.

Saiba mais:

Slides das palestras do minicurso EPSCA no LNLS, em PDF

"Brilho maior" (Marcos de Oliveira) - Pesquisa Fapesp 172, junho de 2010 - Sobre o Sirius, o novo anel que está sendo construído no LNLS

"Mesoporous films can mimic living membranes" (Roberto Belisário) - sobre a pesquisa a respeito da simulação da membrana do neurônio por meio de filmes mesoporosos (nível difícil)

"DNA nucleobases in Titan?" (Roberto Belisário) - sobre a pesquisa que indicou a existência de adenina na atmosfera de Titã (nível difícil)

"Solar X-rays may create DNA building blocks on Titan", New Scientist, junho de 2009 - sobre a mesma pesquisa acima (nível médio)

quinta-feira, 16 de setembro de 2010

Percepções sobre a história da física nuclear no Brasil

Da esquerda para a direita: Sérgio Mascarenhas, Marcelo Damy,
José Goldemberg e Oscar Sala. De pé, Ernst Hamburger
. Fonte: Pion.

Uma das riquezas dos depoimentos pessoais são os registros de percepções coletivas reinantes no passado, que às vezes influenciaram fortemente os acontecimentos e que em geral não podem ser captadas pela mera leitura dos livros de história. Uma palestra rica em impressões sobre o desenvolvimento da física nuclear nos anos 1940 e 1950, feita por alguém que participou ativamente do processo como pesquisador, foi dada pelo físico e ex-ministro da Ciência e Tecnologia José Goldemberg, no evento “Pioneiros da física nuclear no Brasil”, na Universidade de São Paulo (USP) em 15 de setembro. Foi um conjunto de seminários em homenageou os cientistas Marcelo Damy de Souza Santos (1914-2009) e Oscar Sala (1922-2010), de grande importância no desenvolvimento da física nuclear no Brasil. As palestras foram realizadas por diversos pesquisadores que conheceram bem os dois físicos e caracterizou-se por depoimentos pessoais sobre suas vidas e seus trabalhos.

Goldemberg declarou querer transmitir aos mais jovens suas impressões daquela época, ainda que outras testemunhas oculares pudessem ter percepções diferentes (como é normal acontecer nesses casos). A primeira foi sobre como era ser físico no Brasil naquele período – algo importante para se compreender o significado dos trabalhos de Damy, Sala e outros. “A física, na ocasião, era uma atividade para pessoas abnegadas”, disse o ex-ministro. “Não havia qualquer possibilidade de progresso financeiro ou de carreira.” Os que vinham, disse, “enfrentavam problemas com suas famílias, que achavam que eles deveriam fazer engenharia.” Era como escolher estudar filosofia nos dias de hoje, comparou.


O “milagre” de 1934

A pesquisa em física como a conhecemos tinha acabado de nascer no Brasil. Costuma-se identificar como o pai dessa área no nosso país o físico Gleb Wataghin (figura ao lado), nascido na atual Ucrânia e que chegou na USP em 1934. De fato, ele introduziu em São Paulo a pesquisa sistemática nessa ciência, inicialmente em raios cósmicos e, logo depois, na física nuclear, assuntos em efervescência na época.

Não era apenas uma questão de formação de pessoal e de mudança de mentalidade. Simplesmente ainda não havia aqui os equipamentos necessários. Segundo Goldemberg, essas máquinas foram construídas “em condições extremamente heróicas” e de “sacrifício pessoal” por gente como Damy e Sala, sob a orientação de Wataghin. Outro palestrante, o físico Ernst Hamburger, contou que o historiador da ciência canadense Lewis Pyenson, numa conversa com ele na Itália, qualificou de “milagre” a súbita explosão da física no Brasil após 1934, quase a partir do nada.

Continuando a descrever das percepções da época, Goldemberg contou que “havia uma mística em se construir as máquinas. A geração nova de físicos é diferente, querem usar as máquinas, fazer experimentos.” Assim, os equipamentos construídos por Damy e Sala “criaram condições para que seus sucessores, estudantes seus, conseguissem efetivamente fazer física.”

Damy, em particular, adorava construir aparelhos desde muito cedo – já ganhava dinheiro consertando rádios nos seus primeiros tempos de universidade, conforme a palestra do físico Paulo Reginaldo Pascholatti. Construiu o primeiro reator nuclear do Brasil e o primeiro betatron nacional, um tipo de acelerador de partículas (equipamento usado para se investigar a física das partículas suabtômicas). Sala, por sua vez, construiu o primeiro desses aceleradores feito fora dos paises desenvolvidos, do tipo van der Graaf. Para tudo isso era necessário também muita habilidade administrativa. Damy “tinha a capacidade gerencial e os contatos necessários para fazer essas coisas acontecerem”, avaliou Goldemberg. Sala destacou-se em toda a carreira pela grande capacidade de articulação em política científica e de formar pessoas, como mostrou muito bem a palestra de Alejandro Szanto de Toledo.


O papel da mística e do glamour

Para decidir que a melhor opção para o Brasil era o betatron, Damy e Wataghin percorreram vários laboratórios dos EUA. Quem pagou sua viagem foi a Fundação Rockfeller. O que levou a Fundação a decidir por esse financiamento? Entre vários fatores, Goldemberg arrisca que um componente importante foi novamente uma percepção coletiva: “Na época, havia um grande romantismo em relação à radioatividade. Hiroxima e Nagasaki deixaram muitas pessoas chocadas, mas havia mesmo assim uma grande mística.” Muita gente encantava-se com especulações sobre eletricidade extremamente barata, aplicações na medicina etc. “Isso fez com que organizações como a Fundação Rockfeller começassem a apoiar o desenvolvimento em física nuclear.”

Esse glamour pode ser observado também no comportamento da própria classe política brasileira. Por volta de 1950, “havia uma mística em produzir-se radioatividade.” Realizar isso no Brasil era algo que espantava as pessoas, causando uma impressão como se teria hoje caso fosse feito no Zimbábue, segundo uma comparação do ex-ministro.“Os políticos ficavam impressionados. Apareciam altas autoridades em experimentos de produção de radioatividade. O que os fascinava era que a [atividade] de compostos radioativos caía com o tempo, o que podia ser visto com o contador Geiger [instrumento para se medi-la]. Era uma coisa misteriosa.”

Os outros palestrantes além dos já citados foram: Odair Gonçalves, Iuda Goldman, Shigueo Watanabe, Claudio Rodrigues, Dirceu Pereira, Alinka Lépine e Mahir Hussein.


Veja também:

Folder do evento (PDF)

Edição da Ciência & Cultura com vários textos sobre Oscar Sala (2010)

Entrevista com Marcelo Damy de Souza Santos por Amélia Imperio Hamburger publicada na Ciência Hoje (1992).

Artigo de Roberto Salmeron sobre Gleb Wataghin na Revista de Estudos Avançados da USP (2002).

Esta biografia de Gleb Wataghin, feita por Enrico Predazzi na Itália, fala também de seus tempos naquele país.

domingo, 22 de março de 2009

A volta da energia nuclear


É impressionante como algumas coisas mudam rápido. Quem se lembra da oposição ferrenha de boa parte das pessoas às usinas nucleares de até alguns anos atrás? Em 2000, o governo alemão chegou a aprovar uma lei que exige o desmonte de todas as instalações nucleares do país até 2020. Pois bem, agora, em nome do combate ao aquecimento global ou por medo dos preços do petróleo ou de “apagões” energéticos, parece que elas estão sendo reabilitadas pelo mundo todo.

O número de pessoas na União Européia que apóiam o uso da energia nuclear subiu de 37% em 2005 para 44% em 2008 e os opositores caíram de 55% para 45%, segundo uma matéria da revista britânica The Economist de 19 de maio. Em fevereiro, a Itália e a Suécia anunciaram que voltarão a construir usinas nucleares (a Suécia parara um ano depois do acidente de Three Miles Island, nos EUA, em 1979, e a Itália um ano depois do de Tchernobyl, na Ucrânia, em 1986). Na Alemanha, a primeira-ministra Angela Merkel é favorável ao fim da lei de seu país contra as usinas – mas o outro partido da coalizão de seu governo apóia a lei, então nada deve mudar por lá ainda.

O que aconteceu?


O que os olhos não vêem...

No nível da opinião pública, há um dado interessante pode lançar uma luz sobre esse processo: apesar de o apoio às usinas nucleares ter aumentado, os números mudam bastante quando a pergunta inclui “lembretes” sobre os riscos das usinas. Segundo a mesma matéria da Economist, em 2007, uma pesquisa com questões que informavam tanto os riscos quanto os benefícios ambientais resultou em 61% contrários à energia nuclear.

Isso indica que os motivos pelos quais muitas pessoas eram contra as usinas nucleares há 30 anos simplesmente não estão mais na superfície de suas memórias. Mas têm efeitos grandes quando são lembrados.

O que fez as pessoas esquecerem? Certamente, contribuiu o longo tempo sem acidentes nucleares graves desde o de Tchernobyl, na atual Ucrânia, em 1986. A juventude agora é de uma geração que não viu esses acidentes, e isso faz muita diferença. O fim da possibilidade de guerra nuclear entre EUA e União Soviética também desmobilizou o ativismo anti-nuclear e diminuiu as tendências de vincular usinas e bombas nucleares (em tempo: o combustível das duas é diferente, apesar de ambos terem origem no urânio da natureza, como explicado nesta matéria). Novamente, a geração atual não conheceu o terror da ameaça do apocalipse imediato – bem diferente do apocalipse gradual das mudanças climáticas.

Na figura acima, uma cena do passado: protesto anti-nuclear em Harrisburg, nos EUA, em 1979, após o acidente de Three Miles Island. Oposição à energia nuclear ainda existe hoje, mas não com o barulho que havia naquela época.

O ativismo ecológico deslocou-se para as mudanças climáticas (aliás, eis que usinas nucleares não emitem carbono para a atmosfera durante sua operação – essa emissão é a principal causa das previsões de alterações no clima). Aliás, pouca gente parece se dar conta de que o fim da ameaça de guerra nuclear é ilusório, pois cada vez mais países têm suas bombas, – o que faz as possibilidades de alguém fazer alguma loucura aumentarem, simplesmente porque o número de “alguéns” aumenta.


A energia move o mundo – e as usinas

Já no nível dos governos, o que realmente conta parece ser energia. O preço do petróleo subiu nos últimos anos e explodiu no ano passado, chegando a mais de 147 dólares o barril em julho (o maior preço da história). É bem verdade que depois caiu tão inexplicavelmente quanto explodiu e agora está a menos de 40 dólares o barril. Mas a alta parece ter sido suficiente para reiniciar o embalo de muitos governos em direção à energia nuclear.

A importância do fator energia fica evidente se olharmos o Brasil. Não conseguimos construir usinas hidrelétricas tão rápido quanto cresce nossa demanda por energia. Esta é a origem do apagão de 2001. Para evitar a repetição do vexame, o governo aposta em termelétricas a gás e em usinas nucleares. Mas o gás de nossas termelétricas, na maior parte importado da Bolívia, pode estar em perigo por causa do potencial de crise política daquele país.

“Sobram” as nucleares. Entre aspas, pois há também as fontes eólica, solar, de bioetanol e outras renováveis. No último dia 9, a Comissão Nacional de Energia Nuclear (Cnen) emitiu uma licença para o início das obras para a usina de Angra 3, no litoral do Estado do Rio (fases posteriores da construção necessitarão de mais licenças). Estão sendo planejadas usinas para mais quatro locais no território nacional. Os governos de Pernambuco, Bahia, Sergipe e Alagoas manifestaram bastante interesse em que sejam construídas nos seus Estados. Cada uma produziria 1.000 megawatts (MW) e Angra 3, 1.350 MW. Angra 1 tem 650 MW e Angra 2, também 1.350 (a figura no início deste texto é Angra 1).

Enquanto isso, em fevereiro, o Brasil começou a enriquecer urânio, no laboratório em Rezende, no Estado do Rio de Janeiro. Trata-se de um processo para tornar o urânio encontrado na natureza próprio para ser usado em usinas. Note-se que o Brasil é apenas o nono país do mundo a conseguir enriquecer o urânio.


Urânio é menos “explosivo” que petróleo

Voltando a falar do resto do mundo, pode haver também fatores geopolíticos em jogo. O petróleo é notoriamente explosivo. Quantas guerras já não foram feitas por sua causa? Diz-se que o ouro negro existe em regiões instáveis, como o Oriente Médio, mas parece-me que o mais importante não é que essas regiões sejam instáveis, mas sim que seus países foram vítimas de colonização até muito recentemente e ainda são objeto de disputa e palco de ocupações militares. O Oriente Médio permanece instável em boa parte porque as potências insistem em intervir nos seu destino o tempo todo há quase um século.

Compare-se com o caso do urânio: os maiores depósitos estão na Austrália, que tem um quarto do urânio do mundo todo. Já o Canadá é responsável por um quarto da produção mundial de urânio, em toneladas. É difícil imaginar que esses dois países se tornem vítimas fáceis de interesses estrangeiros. Trata-se de nações do Primeiro Mundo. A influência estrangeira no Oriente Médio foi uma continuação dos protetorados ocidentais por outros meios; no caso australiano e canadense, o período colonial foi rompido há bastante tempo e não se pode mais restabelecer essa continuidade.

É bem verdade que há casos mais complicados: grande parte do urânio da França, onde 75% da eletricidade é de origem nuclear, vem do Níger (e quase todo o urânio do Níger vai para a França), um país que, quando o preço do minério caiu, nos anos 1980, foi vítima de rebeliões internas da minoria tuaregue. E que está numa região não exatamente pacífica: faz divisa com a Argélia, vítima de uma sangrenta guerra civil nos anos 1990; com a Líbia, pária internacional até recentemente; com o Chade, vítima periódica de guerras civis e tentativas de golpe e envolvido indiretamente na pavorosa guerra de Darfur, no Sudão; com a Nigéria, onde insurreições foram responsáveis por parte da alta do petróleo por explodirem oleodutos.

O Níger em destaque no norte da África


Gás europeu: situação ficando russa

Outro problema geopolítico: a Europa é muito dependente do gás fornecido pela Rússia e quer livrar-se dessa situação. O motivo é que ela tem se revelado cada vez mais problemática. Desde 2007, a Rússia vem pressionando seus vizinhos Belarus e Ucrânia a aceitarem o fim do preço baixo para a importação do gás russo, que herdaram do tempo em que faziam parte da União Soviética. Todo início de ano, no auge do inverno europeu (precisam de muito gás para seus aquecedores), a crise se agudiza e o gás é cortado. Os dois países não têm opção a não ser desviar para si o gás que deveria continuar seguindo, através do seu território, para outros países.

No início deste ano, o corte durou quase 20 dias. Houve protestos da população nas ruas de alguns países, principalmente na Bulgária, que não tinha como conseguir gás por outras vias e nem reservas suficientes e sofreu com escassez e frio.

Tentativas de construir novas rotas para gasodutos e oleodutos através da Geórgia, pequeno país ao sul da Rússia, levaram a uma disputa entre Moscou e o Ocidente pela influência naquele local que culminou no ano passado em uma guerra entre russos e georgianos.

Essa situação pode dar aos europeus mais impulsos para avançarem na energia nuclear e diminuir as complicações do gás russo. Os mapas abaixo dão uma idéia do grau de penetração na Europa dos oleodutos russos de gás e de petróleo.

Gasodutos existentes e planejados (em tracejado) na Europa central e oriental


Oleodutos existentes e planejados na Europa central e oriental. A Geórgia é o país em verde oliva. Clique na figura para vê-la maior.

Pondo as coisas dessa forma, parece difícil para ativistas desmobilizados deterem o novo avanço da energia nuclear. De qualquer forma, a solução para os problemas energéticos no mundo não está na fonte nuclear, nem na hidrelétrica, nem em qualquer outra isoladamente: está (1) na diversificação das fontes e (2) na solução do insolucionável: como manter indefinidamente o crescimento econômico se os recursos são finitos?

sábado, 14 de março de 2009

Reino Unido e Brasil: parceria para inovação anti-emissão de carbono


Na última segunda e terça (9 e 10 de março), tive a oportunidade de testemunhar como é por dentro o início de um processo de transformação de pesquisa científica em produto tecnológico novo disponível no mercado.

(Obs.: este texto não pretende fazer um parnorama do evento como um todo, mas comentar impressões minhas sobre alguns assuntos específicos lá abordados, principalmente sobre estratégias de promoção da inovação tecnológica. Veja aqui a programação completa do seminário.)

Uma delegação de sete representantes britânicos de agências e empresas ligadas à inovação participou de um seminário na Unicamp (“The how of innovation through low carbon example”) para fazer contatos com pesquisadores brasileiros para transformar descobertas científicas feitas aqui em produtos comercializáveis que promovam a diminuição das emissões de carbono na atmosfera. Essas emissões são vistas como a maior responsável pelas mudanças climáticas previstas para as próximas décadas.

O evento foi promovido pela Unicamp, pela organização governamental britânica UK Trade & Investment e pela representação do Reino Unido no Brasil. A delegação foi liderada por um representante britânico especializado em fazer o meio-de-campo entre cientistas e empresários, Nick Stuart, da UK Trade & Investment.

A idéia era promover a aproximação entre o setor acadêmico e o setor empresarial, para que pesquisas com potencial de se converter em inovação tecnológica comercializável pudessem encontrar seu caminho para concretizá-lo. Nos intervalos das palestras, os presentes da platéia conversavam com os palestrantes para estabelecer contatos. Nick Sutart disse esperar que, como resultado do seminário e dos contatos ali feitos, daqui a seis meses já apareça no Reino Unido uma equipe brasileira de inovação.

Houve palestras de britânicos e de brasileiros. Várias descreviam estudos sobre tecnologias capazes de diminuir as emissões de carbono na atmosfera, desenvolvidos em empresas e instituições de pesquisa dos dois países. Outras apresentavam os seus sistemas de inovação, transferência de tecnologia e financiamento, ou seja, as estratégias de se transformar ciência em tecnologia nova disponível no mercado.


Estratégias de inovação

Sobre esse último tópico, tanto aqui como lá existem órgãos especializados em ajudar a adaptar as tecnologias para as características do mercado e em mediar o contato entre academia e empresa. Isso é necessário pois, por um lado, em geral os cientistas não têm perfil de negócio e, por outro, o empresariado não costuma ter perfil técnico-científico. Além disso, as pesquisas científicas encontram-se, em geral, em um estágio muito precoce para um estudo tradicional de potencialidades de mercado. As variáveis normalmente consideradas para avaliação de potencialidades de negócio ainda não estão presentes nelas.

No caso do Brasil, a Lei da Inovação, de 2004 exige que todas as instituições científicas e tecnológicas tenham núcleos de inovação tecnológica com essa função. Há também programas como o Programa de Investigação Tecnológica de São Paulo e agências de inovação como a da Unicamp.

Um exemplo de como se dão as primeiras etapas da passagem de um produto da academia até o mercado aparece em um artigo de Bruno Moreira e Roberto Lotufo sobre a metodologia do Programa de Investigação Tecnológica de São Paulo, publicado na página 28 da edição de julho de 2008 revista Conecta, ligada à agência Inova Unicamp. As fases descritas no texto são:

  1. Caracterização das tecnologias e de suas aplicações;
  2. Prova de conceito: avaliação da capacidade da tecnologia de aderir ao mercado – a tecnologia parece pronta quando produz o registro de uma patente, mas há um caminho a percorrer até que ela esteja pronta para a inserção no mercado;
  3. Análise de mercado: identificar qual o mercado mais propício para aquela tecnologia, o modelo ideal para a sua exploração, potenciais parceiros;
  4. Análise da viabilidade econômica: análises mais detalhadas sobre o potencial mercadológico da tecnologia, como estimativa do tamanho do mercado, estabelecimento de preços, projeção de receitas, levantamento de custos e outras.

O resultado, ao final dessas etapas, é que a nova tecnologia deve estar adequada para ser apresentada, negociada e desenvolvida dentro da empresa ou com potenciais parceiros.

Além dos contatos, outro objetivo do seminário foi o Brasil aproveitar a experiência dos britânicos sobre estratégias de promoção da inovação. Roberto Lotufo, diretor executivo da agência Inova Unicamp, no seu seminário, disse que o envio de alguns colaboradores brasileiros ao Reino Unido nos últimos anos já trouxe aprendizados importantes para o país - como a necessidade de as equipes de inovação acompanharem o processo de inserção da tecnologia no mercado não só até os estágios finais dos passos acima, mas até a assinatura do contrato com a empresa e principalmente depois, já que é comum surgirem muitas dificuldades quando a tecnologia começa de fato a ser desenvolvida e virar uma inovação.


Outros temas – e o lado social

Nas palestras dos brasileiros, a maior parte falou de pesquisas sobre bioetanol. Dois dos palestrantes eram do Centro de Ciência e Tecnologia do Bioetanol (CTBE), em Campinas, que faz pesquisa básica, desenvolvimento de inovações e estudos sobre o impacto do bioetanol na sustentabilidade do desenvolvimento. Um dos temas principais eram os estudos para alcançar a viabilidade econômica do bioetanol de segunda geração, ou seja, feito não só do açúcar da cana, mas do seu bagaço e da palha – além do seu aproveitamento para cogeração da energia usada pela usina.

Outros assuntos interessantes foram a energia eólica (o Reino Unido tem quase 75% de sua energia elétrica de origem eólica – e o Brasil terá seu primeiro leilão específico para contratação de energia do vento amanhã, dia 15), células combustíveis e biorrefinarias com microalgas (as duas últimas, pesquisas feitas no Brasil).

A dimensão social foi abordada apenas de forma pontual, em momentos específicos do seminário. Bastiaan Reydon, da Unicamp, comentou, no início de sua palestra, o lado social de um dos principais problemas brasileiros ligados às mudanças climáticas, que é o desmatamento amazônico – ou seja, o seu impacto nas comunidades tradicionais indígenas e não-indígenas da Amazônia e nos problemas fundiários (sem-terras). Isso me pareceu muito importante, apesar de não ser o seu tema central, pois essas comunidades são freqüentemente esquecidas, como se a floresta, fora os fazendeiros e criadores de gado, fosse mato desocupado.

Há que se notar, porém, como me lembrou um dos palestrantes em um intervalo, que o desmatamento tem uma dimensão bem mais ampla, incluindo demandas crescentes de outros países, como a de soja pela China (hoje, a soja é um dos principais fatores do desmatamento amazônico e da estruturação de parte de suas vias de comunicação voltada para corredores de exportação).

Em outro momento, ao responder uma pergunta da platéia sobre esse assunto, Felix Eliecer Fonseca Felfli, pesquisador da Bioware, lembrou a condição social do pessoal que trabalha com carvão, que, segundo ele, é “incomparável” com as tecnologias propostas pela sua empresa.


Assuntos relacionados neste blog:

Quem não inova, se trumbica – sobre a importância da inovação tecnológica para o comércio internacional

O significado dos números sobre o aquecimento global – sobre como são feitas as pesquisas do IPCC sobre mudanças climáticas e o que significam

Bons ventos para a energia eólica no Brasil – sobre o leilão do dia 15 de março sobre contratos de energia eólica

sexta-feira, 13 de março de 2009

A megafísica mega-internacional e o estranho mundo assimétrico

À primeira vista, todo mundo deveria estar muito satisfeito com a teoria moderna sobre as partículas subatômicas. Pois ela é tão boa que descreve os fenômenos a que se propõe com mais precisão que qualquer outra em qualquer área da física, antes ou depois dela. O que mais se pode querer de uma teoria? Mas o que apareceu no meio científico no último dia 4 foi o último grande lance de uma corrida entre os principais laboratório de partículas do mundo para provar que ela está errada.

Quanto mais essas tentativas falham, mais impacientes ficam os cientistas. E esta última, da qual participaram físicos de quatro instituições brasileiras, provou que a teoria é ainda mais precisa do que se achava... Mesmo assim, mataram outros coelhos e avançaram em outra corrida, agora para achar o “bóson de Higgs” – a última partícula elementar prevista pela teoria cuja existência ainda não foi comprovada.

Calma, não é daquelas situações em que se trocam gritos e tiros. Os próprios EUA, pátria do ex-maior laboratório de partículas do mundo (o Fermilab), investiu pouco mais de meio bilhão de dólares para a construção na Europa do maior de todos, o LHC – que desbancou o Fermilab. E cientistas do LHC congratularam os do Fermilab pelo seu trabalho do dia 4 e disseram que ele pode muito bem vencer a corrida pelo bóson de Higgs. O espírito é mais esportivo do que se vê em muitos esportes por aí.


Por que mexer no que está dando certo?

O motivo para toda essa pressa é que, apesar de tão preciso, o Modelo Padrão falha catastroficamente em dar conta de uns poucos fenômenos importantes, relacionados não só com partículas, mas com o Universo conhecido como um todo.

Uma delas é que o Modelo Padrão prevê que deve haver um pouco mais de matéria que de antimatéria no Universo (ou vice-versa). Bem, o que é antimatéria: a cada partícula subatômica, como elétron ou próton, corresponde uma antipartícula de carga elétrica oposta – no caso, antielétron e antipróton. Essas antipartículas formam a dita antimatéria.

À esquerda, o próton, de carga elétrica positiva, e o elétron, de carga elétrica negativa. Nas suas antipartículas, à direita, as cargas elétricas estão invertidas.



À esquerda, um átomo tem o núcleo positivo e os elétrons negativos. À direita, um átomo de antimatéria, ou "antiátomo", tem o núcleo negativo e os elétrons positivos.

Entretanto, praticamente só vemos matéria à nossa volta, pelo menos até onde os telescópios podem observar. A supremacia observada da matéria sobre a antimatéria é pelo menos um bilhão de vezes maior que o previsto pela teoria. O Modelo Padrão diz que elas deveriam estar misturadas, o que seria cataclísmico em nível cósmico, pois matéria e antimatéria, quando em contato, transformam-se completamente em radiação extremamente energética...!

Outro problema: no Modelo Padrão, há dezenas de parâmetros numéricos, como a massa das partículas, cujos valores a teoria não explica. Ninguém sabe por que a massa do elétron é (segurem-se na cadeira) 911 octilionésimos de miligrama e não um outro valor qualquer. Há outros parâmetros relacionados com as probabilidades com que certas partículas se transformam umas nas outras, dos quais falarei mais adiante, e que estão no centro da pesquisa divulgada no dia 4.

Como não se sabe como completar a teoria nem como se construir uma nova, tenta-se descobrir fenômenos inéditos ou comportamentos diferentes do previsto pelo Modelo Padrão, na esperança de que possam dar mais indícios sobre o que fazer. O problema é que, quanto mais pesquisas se realizam, mais preciso o Modelo Padrão se mostra e todo mundo continua às escuras...


Megafísica

Para fazer esses estudos, os físicos usam aparelhos enormes chamados aceleradores de partículas. Como o nome indica, essas máquinas aceleram partículas subatômicas e obrigam dois “jatos” delas a se chocarem a velocidades enormes. O acelerador do Fermilab, o Tevatron, faz prótons e antiprótons colidirem a 99,99995% da velocidade da luz – apenas 475 km/h mais lentos que ela.

O choque produz novas partículas, que são analisadas por detectores colocados ao redor. Sabendo quais as partículas produzidas, suas velocidades e as direções para as quais foram atiradas, os cientistas conseguem inferir coisas sobre como a colisão acontece, se as teorias estão corretas ou não e, caso não estejam, como fazer uma nova teoria.

Um próton e um antipróton colidem com muita energia (lado esquerdo), suficiente para produzir várias partículas após a colisão (lado direito).

Essas máquinas são gigantescas. A maior de todas, o LHC, perto de Genebra, na fronteira entre França e Suíça, é basicamente constituída de um anel circular de 27 quilômetros de comprimento com os detectores ao redor – tudo dentro de um túnel subterrâneo. Começará a funcionar no final deste ano (deveria ter começado no fim de 2008, mas um defeito provocou um adiamento). O custo total deverá chegar a cerca de 3,03 bilhões de euros (3,9 bilhões de dólares de hoje).

O Tevatron do Fermilab é o segundo maior acelerador, com um anel de 6,28 km de comprimento. Sua construção custou 120 milhões de dólares, mas vem sendo incrementado desde então.

O círculo mais ao fundo, nesta vista aéra, é o anel do Tevatron, no Fermilab. Licença

Por que ser grande é bom? Quanto maior o acelerador, maior a energia que eles são capazes de fornecer às partículas que se chocam; e, quanto maior essa energia, maior a probabilidade de encontrar coisas novas (pois pode-se explorar o que acontece com energias jamais investigadas). O LHC poderá alcançar energias sete vezes maiores que o Tevatron. O Fermilab tem motivos para se preocupar...

A concorrência às vezes aparece dentro da mesma instituição, como aconteceu no Fermilab no dia 4: duas equipes de lá divulgaram, com apenas horas de diferença, dois trabalhos sobre a observação do mesmo tipo de fenômeno, com conclusões semelhantes.

O primeiro artigo, de um grupo chamado D-Zero, foi assinado por cientistas de 81 instituições de 19 países. A primeira página e meia do artigo só tem os seus últimos sobrenomes e as iniciais. A maior parte é dos Estados Unidos, mas há também quatro instituições brasileiras, onde trabalham os 15 cientistas daqui que assinaram o texto. São elas o Centro Brasileiro de Pesquisas Físicas (CBPF, no Rio de Janeiro), a Universidade do Estado do Rio de Janeiro (UERJ), a Universidade Federal do ABC (de Santo André, SP) e a Universidade Estadual Paulista.

O segundo artigo, do grupo CDF (sigla em inglês para Detector de Colisões do Fermilab), foi assinado por físicos de 61 instituições espalhadas por 14 países. Não há nenhum brasileiro neste. O D-Zero contém bem mais países do Terceiro Mundo que o CDF, especialmente da América Latina (incluem Argentina, Colômbia, Brasil, Equador e México, além da Índia). Os dois grupos usam diferentes detectores do Tevatron.


A violação CP

Agora vou tentar descrever com um pouco de detalhe, mas de uma forma relativamente acessível ao leitor não-físico, no que consistiu a pesquisa feita no D-Zero e no CDF. Vou ter que apresentar vários “senhores” ao longo do texto: violação CP, forças fracas, quarks, bósons de Higgs. Preparem-se para conhecer novos amigos. Talvez dê para ter uma idéia do tipo de pesquisa que se faz na área da física de partículas e do tipo de conceitos com os quais os físicos lidam nesses estudos.

A pesquisa divulgada no dia 4 se relaciona com a limitação do Modelo Padrão sobre a enorme vantagem da matéria sobre a antimatéria. A idéia para se pesquisar isso é investigar uma das condições necessárias para que a assimetria matéria-antimatéria ocorra: a quebra, ou violação, da chamada “simetria CP”. Aqui vou ter que apresentar nossa primeira nova amiga. A simetria CP diz simplesmente que:

a) se trocarmos todas as cargas elétricas de um sistema físico (daí a letra C)
b) e ao mesmo tempo invertermos todas as posições no espaço, como na figura abaixo (“P” é de “paridade”, nome técnico para isso: “troca de paridade”)

então obteremos uma situação física perfeitamente possível e totalmente simétrica em relação à anterior.

As operações envolvidas na simetria CP. A parte A é o quadro "Mulher agachada", de Ismael Nery. Na parte B, refletiu-se a imagem num espelho vertical (espero que os fãs de Nery me perdoem). Uma nova reflexão, por um espelho horizontal, leva à parte C. As duas reflexões constituem a "inversão de paridade". A parte D representa todas as cargas elétricas de todas as partículas invertidas. Licença

Isso talvez pareça muito natural. Afinal, o que poderia mudar se simplesmente olharmos o mundo de cabeça para baixo e através de um espelho? A força da gravidade – e as outras forças – certamente não mudaria de intensidade por causa disso – no máximo, trocaria de sentido. Um átomo não se desmancharia se a carga elétrica de todas as suas partículas fossem trocadas de sinal – afinal, o sinal das cargas é uma convenção: poderiam ter definido que os prótons são todos negativos e os elétrons positivos, ao invés do contrário. A natureza não está nem aí para as nossas idiossincrasias.

Mas a natureza é estranha. Em 1964, James Cronin e Val Fitch descobriram no laboratório que as forças fracas não respeitam essa simetria! Bem, “forças fracas”... prazer em conhecer... OK, deixem-me apresentar nossa segunda nova amiga.

A força fraca é uma das forças fundamentais da natureza, ao lado das forças gravitacional, elétrica, magnética (as duas conjuntamente conhecidas como eletromagnéticas) e nuclear forte (que se relaciona com a muito falada energia nuclear). Dentre elas, é as mais desconhecida fora da física. O fenômeno mais comum de que toma parte é a radiação beta, emitida por vários materiais radioativos.

E as tais forças fracas desrespeitam a simetria CP. Muito, muito estranho. Mas fazer o quê? É assim que a natureza se nos mostra.


Conseqüências da violação CP

Ora, o caso é que essa estranha descoberta teve duas conseqüências importantes.

A primeira foi que, para incluí-la, as teorias tiveram que ser modificadas. A versão final é de 1974 e é o que chamamos “Modelo Padrão”.

A principal mudança foi “postular” a existência de duas novas partículas subatômicas, até então nunca vistas. Seus nomes são quark top e quark bottom. Hora de apresentar novos amigos pela terceira vez...

Quarks são partículas que interagem por meio da força nuclear forte. Há seis tipos: up, down, charm, strange, top e bottom. O up e o down se associam em grupos de três para formar os prótons e os nêutrons: o próton tem dois up e um down e o nêutron, dois down e um up. Os quatro outros não participam da constituição dos átomos. O que se chama normalmente “força nuclear” é a força entre prótons e nêutrons (e entre si), que é um “remanescente” da força forte entre os quarks dentro deles.


O quark top e o quark bottom previstos pelo Modelo Padrão acabaram sendo encontrados entre as partículas que aparecem nas colisões dos aceleradores mais potentes. O último, o quark top, foi detectado no Fermilab só em 1995, pelos mesmos dois grupos, DÆ e CDF – de novo, quase ao mesmo tempo.

Além disso, os diversos quarks podem transformar-se um no outro. Isso acontece, por exemplo, no momento das colisões dentro dos aceleradores. Porém, o Modelo Padrão – específico a ponto de dizer quais partículas devem existir e quais não devem – não “sabe” calcular a probabilidade de um quark se transformar em outro! Os físicos têm que medi-las no laboratório e usar como “input” para a teoria (para os mais conhecedores, estou falando da matriz de Cabibbo–Kobayashi–Maskawa).

Aliás, lembram-se de quando eu falei no começo deste texto, que há parâmetros cujos valores o Modelo Padrão não prevê, “relacionados com as probabilidades com que certas partículas se transformam umas nas outras (...) e que estão no centro da pesquisa divulgada no dia 4”? Eu estava me referindo a essas probabilidades de transformação dos quarks.

A segunda conseqüência da descoberta da quebra da simetria CP é que ela implica na assimetria entre matéria e antimatéria, vínculo que foi descoberto pelo físico russo Andrei Sakharov.

Porém, isso explica apenas uma pequenina parte dessa assimetria. Assim, deve haver ainda mais novidades ocultas na física das partículas. Para encontrá-las, muitos cientistas passaram a olhar mais de perto fenômenos que exibiam quebra da simetria CP.


Os triângulos unitários

O pessoal do DÆ e do CDF juntou-se a esse conjunto de físicos. Sua idéia foi observar quarks top produzidos na colisão entre os prótons e antiprótons do Tevatron. Afinal, o quark top está no centro do problema da violação CP (foi prevista justamente por causa dela). Talvez pudesse revelar mais coisas interessantes.

Ora, há pouco, eu disse que o Modelo Padrão não previa as probabilidades de um quark se transformar em outro. A idéia dos físicos que estudam a violação CP é concentrar-se justamente na investigação dessas probabilidades.

Mas investigariam o quê, se o modelo era silencioso quanto a elas? Acontece que, apesar de a teoria não dizer os valores dessas probabilidades, ele prevê uma relação curiosa e bem específica entre elas. E é essa relação que os físicos querem testar, comparando cálculo de teoria com resultado de experimento. A relação é: é possível desenhar triângulos com essas probabilidades. Melhor dizendo: as probabilidades podem ser combinadas em certas quantidades que formam ângulos e lados de seis triângulos diferentes, chamados “triângulos unitários”.

Físicos adoram coisas que se pode visualizar. Elas excitam a intuição e fomentam novas idéias. E é de novas idéias que os cientistas estão precisando neste momento. Concentraram-se então nesses triângulos. Assim: passaram a medir os parâmetros com os detectores dos aceleradores; aí construíam os triângulos com eles e verificavam se a figura se “fechava” ou não, como na figura ao lado. Se não se fechassem, haveria problemas com o Modelo Padrão. Caso se fechassem, haviam apenas provado que o Modelo era ainda mais preciso.




O que o Fermilab fez

Até 2007, já se havia investigado todos os lados e ângulos dos triângulos unitários, com exceção de um, chamado “Vtb” (escreve-se o “t” e o “b” porque ele se relaciona com a transformação de um quark top em um quark bottom). Para ele, havia medições indiretas e não suficientemente precisas. Tudo melhoraria se fosse possível observar a produção de quarks top individualmente, pois eles continham informação direta sobre o Vtb.

Mas quase todos os quarks apareciam em pares quark-antiquark. Os quarks solitários ocorriam, mas eram muito difíceis de serem observados, pois surgiam muito raramente no meio de uma grande quantidade de outras partículas – algo como procurar uma agulha amarela num palheiro bege. E transformavam-se em outras partículas antes que se pudesse fazer qualquer coisa.

Os aperfeiçoamentos técnicos e metodológicos permitiram distingui-lo ali no meio já em 2007. Mas foram vistos muito poucos; para conseguirem medir o Vtb com precisão semelhante ao que havia sido feito para os outros parâmetros, era preciso mais. Isso foi conseguido no último dia 4.

Os quarks continuam transformando-se em outras coisas antes de poderem serem observados – na verdade, quarks só podem ser detectados aos pares. Mas as partículas nas quais se transformam contém, nas suas velocidades e direções de movimento, uma “assinatura” do quark top. Essas partículas “secundárias” é que foram detectadas. E a assinatura do quark top isolado estava lá.

O resultado foi... o triângulo se fechou muito bem...! Melhor do que parecia se fechar até então. Bem... não foi o grande dia, não foi desta vez que o Modelo Padrão foi derrotado. Mas os cientistas descobriram algo mais.


A busca pelo bóson de Higgs

Primeiro, observar indiretamente quarks isolados é algo muito interessante, pois isso é muito difícil de ser feito. A observação de 2007 foi a primeira.

Segundo, o D-Zero e o CDF avançaram em outra corrida: para encontrar o bóson de Higgs. Eis aqui mais um quarto amiguinho para ser apresentado. Vamos lá.

O bóson de Higgs é uma partícula prevista pelo Modelo Padrão, a única cuja existência ainda não foi confirmada em laboratório. A razão é que ela é muito pesada, e quanto mais pesada uma partícula, mais difícil de ver num acelerador. Isso acontece porque os aceleradores têm que fazer as colisões produzirem as partículas – e, para se produzir partículas grandes, é preciso fazer colisões com energia muito alta. Não se sabe qual a massa do Higgs, mas em agosto do ano passado, resultados do DÆ e do CDF combinados mostraram que sua massa é pelo menos 203 vezes maior que o próton – ou seja, um pouco mais pesado que um átomo de mercúrio.

A corrida pela observação do bóson de Higgs é ainda mais intensa que a relacionada com a violação CP descrita neste texto. Esta última praticamente não aparece nos jornais; já os bósons de Higgs aparecem bastante (ainda que poucos leitores saibam o que são).

A contribuição dos resultados do dia 4 para a busca do bóson de Higgs é a seguinte. Assim como o quark top, essa partícula também só pode ser observada indiretamente. Acontece que os sinais deixados pelos quarks top produzidos individualmente mimetizam os deixados pelo bóson de Higgs. Então, um requisito para se conseguir encontrar o Higgs é entender bem os sinais dos quarks top individuais – senão, haverá dificuldade em distinguir os dois casos. Os resultados do Fermilab trouxeram esse conhecimento. Como conseqüência, um dos cientistas do próprio LHC, Paul de Jong, disse que o trabalho do D-Zero e do CDF pode levar o Fermilab a encontrar o Higgs antes.


Para saber mais:

A aventura das partículas – Site com muito boa navegabilidade com informações bem acessíveis sobre física das partículas, incluindo o Modelo Padrão e aceleradores.

Os artigos do D-Zero e do CDF (para físicos...)

sábado, 7 de março de 2009

O que é mecânica quântica?

A mecânica quântica revolucionou nossas noções de energia, matéria e causalidade. O que pensávamos ser partículas não são partículas nem ondas, mas comportam-se ora como uns, ora como outros. A natureza parece ser intrinsecamente indeterminista e só nos é possível prever médias e probabilidades. No entanto, ao nosso redor há inúmeras tecnologias baseadas na mecânica quântica, como computadores, DVDs e CDs.

No final do século XIX, vários fenômenos físicos pareciam não poder ser explicados pela física da época, hoje chamada “física clássica” ou “newtoniana”. Relacionavam-se com a luz, o calor, os átomos etc. Para dar conta desses fenômenos, toda a física newtoniana teve que ser substituída. O resultado foi o que se chama hoje “física moderna”. Inicialmente, ela era constituída pelas teorias da relatividade (especial e geral) e pela mecânica quântica.

A revolução da física moderna foi muito profunda. Conceitos caros como os de espaço, tempo, matéria e causalidade tiveram que ser revistos. Há muitas características importantes da mecânica quântica diferentes da física clássica, mas vou ater-me aqui a apenas quatro, que talvez possam resumir a essência do seu conteúdo:
  1. a quantização da energia
  2. o salto quântico
  3. a dualidade onda-partícula
  4. o indeterminismo

1. A quantização da energia

Na história da mecânica quântica, esta foi a primeira de suas característica a ser abordada teoricamente. A quantização da energia diz simplesmente que, em certas situações, a energia só pode ter certos valores – digamos, 10, 20 e 30 calorias – estando “proibidos” os valores intermediários. Sabemos hoje que isso acontece em casos onde há partículas “presas”, ou “ligadas” – como os elétrons em um átomo. Elétrons livres podem ter qualquer energia. Veja a figura abaixo:

À esquerda, energias para um elétron livre: todos os valores são permitidos. À direita, energias para um elétron ligado: só alguns valores são permitidos.

O exemplo dado acima, das 10, 20 e 30 calorias, é irreal, porque as diferenças entre os níveis de energia são muito pequenas, próximas das energias típicas de átomos e partículas subatômicas. Por isso, no mundo macroscópico, parece que a energia é sempre contínua, sem valores proibidos. Mas, no mundo atômico e subatômico, a quantização da energia é algo a ser levado em conta sempre.

Além disso, as distâncias entre os diversos níveis não são sempre os mesmos. Dependem da situação. As energias permitidas para um elétron em uma molécula de hidrogênio são diferentes das para um elétron em uma molécula de oxigênio – apesar dos dois elétrons serem idênticos. A diferença entre dois níveis energéticos é chamada quantum. O plural é quanta, pois é uma palavra do latim.


Como se chegou a essas conclusões

A origem desse conhecimento está nos estudos de Planck de 1900 sobre a emissão de luz por corpos aquecidos (melhor dizendo, um tipo especial dela, cujo curioso nome técnico é “radiação de corpo negro”). Isso é algo que vemos todos os dias (pense num metal incandescente, como o filamento da lâmpada acesa ao lado), mas o problema que Planck atacou era bastante dramático: feitas as contas com a física clássica, a energia da luz emitida dava infinita! Isso não poderia ser possível – caso contrário, qualquer metalzinho incandescente seria capaz de fritar todo o Universo...

O problema foi resolvido quando Planck supôs que a luz não era emitida continuamente, mas em “pacotes” de energia. Esses quanta de luz vieram, depois, a serem chamados fótons. Mais tarde, mostrou-se que a luz em si era constituída de fótons, e não quando era emitida pelos átomos.

Outras pessoas passaram a aplicar conceitos semelhantes em outros problemas até então insolúveis, como Niels Bohr, que em 1913 fez uma nova teoria sobre a estrutura atômica e mostrou que a energia dos elétrons nos átomos também está quantizada. Posteriormente, mostrou-se que a quantização da energia acontece com qualquer partícula ligada.

Tudo isso é interessante, mas não parece ser suficiente para alterar toda a física clássica. Porém, os desdobramentos da hipótese quântica de Planck foram tremendos e atingiram a física quase toda. Por um quarto de século, os cientistas exploraram esses desdobramentos até que, em 1924, conseguiu-se formular uma teoria quântica completa – não só da luz ou dos átomos, mas uma física nova inteira.

No resto deste texto, mostrarei alguns dos principais desdobramentos da teoria dos quanta e como eles levam a alterações radicais na nossa maneira de ver o mundo. Usarei como guia cinco perguntas que aparecem naturalmente por causa da teoria de Planck.


2. O salto quântico

Primeira pergunta: se há tantos casos em que valores intermediários de energia não são permitidos, como então é possível aumentar a energia de qualquer coisa?

Acontece que ela pode ir de um nível para outro sem passar pelos valores intermediários. Usando nosso exemplo “irreal”, vai de 10 para 20 calorias sem passar por 11, 12, por nenhum deles. A isto se chama salto quântico.

O salto quântico foi estabelecido como hipótese em 1913 por Niel Bohr para os elétrons de um átomo de hidrogênio, mas as previsões de sua teoria conseguiam descrever aspectos da luz emitida por esses átomos que eram inexplicáveis pela física clássica. Mais tarde, mostrou-se que estados ligados em qualquer situação funcionam assim.

A figura abaixo esquematiza um elétron em um átomo que absorve luz. Um exemplo comum acontece no interruptor de luz, que é feito de um material fosforescente – ou seja, que absorve luz, mantém-na durante algum tempo e depois a reemite. Por isso ele parece brilhar no escuro: ele continua reemitindo luz até acabar a que absorvia enquanto o ambiente estava iluminado.


Ora, quando absorvem luz, o que os elétrons absorvem é energia luminosa e, assim, aumentam sua energia. Por isso, o elétron só absorve a luz se o fóton que chegar tiver energia suficiente para que esse elétron possa saltar de um nível energético para outro. Senão, ele não absorve e o fóton passa incólume.

O mesmo acontece quando emite luz: só emite a energia necessária para passar de um nível energético para outro de menor energia. Emite a luz, portanto, em “pacotes”: os fótons que Planck estudou. Nada disso acontecia na física clássica: o elétron poderia absorver ou emitir qualquer quantidade de energia.


3. A dualidade onda-partícula

Segunda pergunta: na época de Planck, já havia uma teoria sobre a luz, que dizia que ela era constituída de ondas. Isso era conhecido desde a virada do século XVIII para o XIX e já havia sido fartamente confirmado por observações cuidadosas. Mas a teoria quântica diz que a energia luminosa se distribui em pequenos pacotes. Como compatibilizar as duas visões?

Nos anos seguintes à descoberta de Planck, essa pergunta foi adquirindo tons muito mais dramáticos, pois havia indicações de que os fótons se comportavam como partículas de fato! Isso foi cabalmente demonstrado em 1923 por um experimento de Arthur Compton sobre colisões entre fótons e elétrons. Os elétrons eram desviados de suas trajetórias como se tivessem sido atingidos por corpúsculos – como em choques de bolas de bilhar.

Ora, eu disse acima que já se sabia que a luz era constituída de ondas. Agora, eis que essa visão não funciona mais e a suposição de que ela é constituída por um fluxo de partículas é que passa a funcionar... Como pode ser possível? Não faz sentido alguma coisa ser onda e partícula ao mesmo tempo...!

A solução para isso não foi fácil. Hoje sabemos que a luz não é onda nem um fluxo de partículas: ela é alguma outra coisa, que exibe algumas características de um fluxo de partículas em certas situações e de ondas em outras. A esse comportamento dá-se o nome de “dualidade onda-partícula”. Em geral, a luz se comporta como onda enquanto está em trânsito e apresenta características de partículas quando interage com a matéria (como quando é absorvida por átomos).

O site do Wikipedia em espanhol teve uma idéia muito interessante para explicar a dualidade onda-partícula. Ilustrou com a figura abaixo como o mesmo objeto pode se manifestar de uma forma se visto sob um certo ângulo e de outra se visto sob outro ângulo. Um cilindro produz uma sombra quadrada em uma parede e circular na outra. Se vemos só a sombra, parecerá uma contradição: como algo pode ser redondo e quadrado ao mesmo tempo? Não é um círculo nem um quadrado: ele é uma outra entidade (um cilindro), mas que se manifesta como um quadrado ou como um círculo, dependendo da situação. Mas cuidado: isto é apenas uma analogia. Tanto as ondas como as partículas e as entidades “nem-ondas-nem-partículas” estão no espaço tridimensional comum.




Ondas de matéria

Terceira pergunta: Bem, uma coisa que se pensava que era onda, a luz, era uma entidade dual. E quanto às coisas que se pensava que eram partículas, como os elétrons?

Pois bem: logo descobriu-se que essa dualidade era uma característica geral. Todas as “partículas” não são propriamente corpúsculos no sentido tradicional, mas entidades que se comportam como ondas em certas situações e como partículas em outras. Jamais como ambas simultaneamente.

Quanto maior a massa da partícula, mais pronunciado o comportamento de corpúsculo e menos o comportamento de onda. Para um elétron – que é tão pequeno que é um dos constituintes dos átomos – já foi muito difícil detectar seu comportamento ondulatório, observado pela primeira vez em 1927 pelos físicos Clinton Davisson e Lester Germer. Em 1999, conseguiu-se observar fenômenos ondulatórios na molécula de fulereno, que tem 60 átomos de carbono.

Dito assim, pode parecer que a todos os elétrons corresponde uma onda e essa onda seria sempre a mesma. Afinal, todos os elétrons são idênticos. Mas não é assim. O tipo de onda não depende apenas da partícula em si, mas também da situação em que se encontra.

Por exemplo, a freqüência da onda se relaciona com a velocidade do elétron. Elétrons velozes têm ondas associadas com freqüência mais alta que elétrons mais lentos. Num caso mais geral, as ondas associadas às partículas identificam não só a partícula, mas também o estado em que se encontra. Veja a figura abaixo:


Esse significado dessas ondas só foi esclarecido depois que Werner Heisenberg e Erwin Schrödinger conseguiram construir uma teoria “final” da mecânica quântica, em 1924 e 1925, após um quarto de século em que vários grandes físicos tatearam e tentaram construir toda uma nova mecânica a partir de alguns poucos dados experimentais.

Na verdade, foram duas teorias “finais”, uma de cada autor, mas mostrou-se logo que eram equivalentes. Elas foram construídas a partir de um conjunto de suposições físicas e matemáticas que foram parecendo mais plausíveis à medida que foram sendo feitas as pesquisas anteriores. A relação entre onda e estados físicos vem dessa teoria “final”. Atualmente, usa-se uma mistura das duas, e é isso o que se chama hoje de “mecânica quântica”. Ela vem sendo usada para inúmeras situações físicas com enorme sucesso.


O experimento das duas fendas: quando partícula e onda se encontram

Eu disse que a luz e as partículas subatômicas sempre se comportam ou como onda ou como corpúsculo, nunca como ambos ao mesmo tempo. Mas é difícil resistir a imaginar uma situação onde os dois comportamentos se encontram de alguma forma, para ver o que pode acontecer! Seria possível fazer com que os dois comportamentos apareçam na mesma partícula e no mesmo experimento, ainda que em momentos diferentes? O que acontece numa situação dessas?

Isso é possível. Vejamos uma situação assim: o experimento das duas fendas. Neste momento, é melhor falar mais por figuras do que por palavras.

No experimento, joga-se luz sobre um anteparo com duas fendas estreitas, como na figura abaixo. A luz que passa pelos dois orifícios incide sobre uma placa fotográfica. Aqui, uma vela produz a luz, que passa por um primeira fenda num primeiro anteparo para tornar-se mais uniforme (a luz provinda de uma fonte com forma de ponto é mais uniforme que a vinda de um objeto extenso e de formato complicado). Depois, esta luz mais uniforme passa sobre as tais duas fendas.



Bem, então, depois das fendas, temos duas ondas luminosas que se encontram no espaço. Acontece que, quando duas ondas se encontram, elas interferem. Podem somar-se ou cancelar-se, como mostra a figura abaixo:

À esquerda, duas ondas que se encontram se somam e produzem uma onda mais intensa. À direita, as duas ondas se encontram defasadas, de modo que se cancelam.

A interferência que acontece com as ondas depois dos dois orifícios e antes da placa está esquematizada nesta outra figura:


Como se pode ver, em certas regiões, as ondas se somam. Essas regiões aparecem mais claras Em outras, elas se subtraem. Essas aparecem mais escuras O resultado é que, na placa fotográfica, aparecerão faixas claras e escuras, como na figura:


Até aí, tudo bem. Isso é um fenômeno que só acontece com ondas. Acontece que eu disse acima que a luz é composta de pequenos pacotes de energia chamados fótons. Então, quando colocamos um filme fotográfico com sensibilidade suficiente, podemos ver como essas faixas são formadas com o tempo. Veja esta figura, que mostra cinco momentos diferentes da formação dessas faixas:


A coisa extraordinária aqui é que, se as faixas existem, é que houve interferência depois dos dois orifícios – e, assim, a luz comportou-se como onda. Porém, se ela aparece como pontos na placa fotográfica, é que comportou-se de forma localizada, como se fosse corpúsculos! Já existe tecnologia para fazer isso com um fóton de cada vez. O mesmo fóton se comporta como ondas em um momento e como partícula em outro! (Não há contradição porque ele não faz as duas coisas ao mesmo tempo.)


4. O indeterminismo: uma teoria probabilista

Quarta pergunta: Há um paradoxo interessante no experimento das duas fendas. A onda luminosa ocupa uma região do espaço, como mostrado nas primeiras figuras. Porém, um fóton manifesta-se como um ponto na placa fotográfica, que ocupa uma pequena região do espaço em certo local específico. Se a luz se comportava como onda antes de atingir a placa, o que determinou que ela escolhesse um ponto específico para se manifestar como partícula e não um outro qualquer?

Pode-se imaginar que, com a teoria da mecânica quântica, seria possível calcular em que ponto o fóton apareceria. Porém, não é o caso! Não há nenhuma indicação nas equações que permita tal tipo de previsão.

Apesar disso, a teoria prevê médias com grande sucesso, e também probabilidades. Tome-se um conjunto grande de fótons (ou de elétrons ou de prótons etc.) e seu comportamento médio será previsto muito bem pela teoria, ainda que, sobre seus comportamentos individuais, ela só forneça probabilidades.

Isso é bem diferente do que acontece com a física clássica. Se supusermos que um elétron está, em certo momento, viajando no espaço vazio a 100 km/h e também que sua velocidade é constante, então a física clássica nos diz que dali a uma hora ele estará a exatamente 100 quilômetros de distância de onde estava antes. Mas a física quântica não produz afirmações assim. Ela diz algo como: “há probabilidade de 80% de o elétron deverá estar entre 90 e 110 km de onde estava”. Esses números dependem da situação, mas podem acontecer exatamente esses que eu citei.

Essas probabilidades estão diretamente relacionadas com as ondas associadas às partículas. Quando as “ondas-partículas” interagem com a matéria, elas se manifestam (como corpúsculos) mais provavelmente nas regiões onde as ondas são mais intensas. E vice-versa.

Nem todas as ondas quânticas têm forma de "cobrinhas". Acima, as ondas correspondentes ao elétron de um átomo de hidrogênio para diferentes energias deste elétron. Nas partes mais claras é maior a probabilidade de esse elétron ser encontrado, caso alguém decida detectá-lo.

Tudo isso pode não parecer tão estranho, pois, afinal, estamos acostumados com situações onde só conseguimos prever médias. Se jogarmos uma moeda várias vezes, a tendência é cair cara 50% das vezes e coroa 50% das vezes, com alguma variaçãozinha. Não podemos prever, porém, se uma jogada individual produzirá cara ou coroa.

A diferença com a situação quântica é que, no caso da moeda, a teoria – a mecânica clássica – tem instrumentos teóricos para se fazer previsões exatas sobre uma jogada individual. Se soubermos com bastante precisão a velocidade inicial da moeda, a rapidez com que gira, sua posição inicial e a direção inicial do seu movimento, podemos prever com exatidão qual lado sairá para cima. Não podemos na prática porque não conhecemos essas condições iniciais todas com precisão suficiente – e não porque a teoria não contenha instrumentos para fazê-lo.

Tanto que, se alguém jogar a moeda com cuidado, pode fazer com que ela dê duas voltas exatas enquanto cai e, assim, prever se dará cara ou cora – e ganhar desonestamente. Nesse caso, ele foi capaz de fazer uma previsão exata a partir do conhecimento preciso da situação inicial da moeda e da força com que foi jogada.

Já a mecânica quântica não produz resultados exatos nem mesmo quando se sabe com precisão a situação inicial de uma partícula subatômica. Voltando ao exemplo do experimento das duas fendas, com os fótons atingindo a placa fotográfica: a mecânica quântica consegue prever com grande precisão o padrão de listras na placa, mas não onde aparecerá cada ponto que vai formando as listas com o tempo (veja a última figura do experimento das duas fendas).


Deus joga dados?

Quinta pergunta: A coisa extraordinária é que, apesar de a mecânica quântica não ter instrumentos para prever com precisão eventos individuais, ela consegue prever médias e probabilidades com grande precisão! Como isso é possível? Afinal, a teoria está tirando média do que, se ela sequer considera os eventos individuais?

Esta figura esquematiza as faixas feitas de pontos da última figura sobre o experimento das duas fendas mais acima. A mecânica quântica consegue prever a luminosidade das faixas com perfeição, mas não diz nada sobre a posição de cada ponto individual.

Essa situação já era evidente mesmo antes das teorias de Heisenberg e Schrödinger. Por isso, alguns físicos achavam que a mecânica quântica estava incompleta – e que, no futuro, seria descoberto um aperfeiçoamento que lhe daria instrumentos para fazer previsões teóricas de eventos individuais, como a física clássica consegue (em teoria) para jogos de moedas ou de dados. No entanto, a mecânica quântica parecia “saber” antecipadamente que aperfeiçoamento seria esse, pois ela conseguia prever as médias!

O caso era tão grave que não houve consenso. A pequena comunidade de grandes físicos que lutava tateando no escuro para construir uma teoria quântica, na primeira metade do século, cindiu-se.

Um grupo, liderado por Albert Einstein, acreditava que a mecânica quântica estava incompleta. Desse grupo também fazia parte ninguém menos que Erwin Schrödinger, um dos dois autores da forma final da teoria

O outro grupo, liderado por Niels Bohr, achava que a mecânica quântica não podia prever casos individuais porque a natureza era assim. O indeterminismo seria uma característica intrínseca da própria natureza. Foram famosos os debates entre Einstein e Bohr sobre isso, nos anos 1920 e 1930. Ao lado, os dois (Bohr à esquerda) na casa do físico Paul Ehrenfest, na Holanda, em 1925.

Voltando ao experimento das duas fendas, com os fótons aparecendo em pontos específicos da placa fotográfica: a interpretação indeterminista diz que não há modo de se prever em qual ponto da tela o fóton se manifestará, porque a própria natureza se comportava de modo intrinsecamente indeterminista nessa “escolha”. Foi ao criticar essas idéias que Einstein cunhou a famosa frase “Deus não joga dados”.


O veredicto

Algumas tentativas de se completar a mecânica quântica foram feitas, mas, em 1965, John Bell descobriu um teorema muito geral que praticamente destruiu as possibilidades da recuperação do determinismo! A partir da análise teórica de um experimento simples com duas partículas distantes, ele mostrou que qualquer teoria que:
  1. reproduza os resultados da mecânica quântica (isso é necessário, pois a quântica concorda com as observações) e que
  2. pretenda recuperar o determinismo
deverá necessariamente envolver velocidades infinitas. Acontece que velocidades infinitas contradizem a teoria da relatividade especial, que está bem fundamentada e foi fartamente verificada em laboratórios.

Mesmo assim, Bell incluiu no seu teorema um teste experimental que serviria de tira-teima, baseado na mesma experiência com duas partículas. Ironicamente, essa experiência foi imaginada por Einstein em 1935 (junto com Podolski e Rosen) para provar que a mecânica quântica, como estava formulada, levava a consequências filosoficamente inaceitáveis. Bem, a partir de 1981, com o trabalho de Alain Aspect, conseguiu-se realizar esse experimento e o tira-teima foi... favorável ao indeterminismo quântico!

Ao que tudo indica, parece que a natureza é mesmo indeterminista. Mas isso não implica em que qualquer coisa possa acontecer. No mundo cotidiano, como há enorme quantidade de partículas, as médias quânticas são indistinguíveis das certezas previstas pela física clássica – da mesma forma que, se uma moeda é jogada para o alto cada vez mais vezes, podemos prever com cada vez mais certeza de que o número de caras será exatamente 50% do total. Mas, para situações que envolvam o comportamento de átomos, moléculas e partículas subatômicas, a mecânica quântica consegue fazer previsões mais precisas que a física clássica! (Lembre-se do sucesso da teoria de Planck.)


O quantum ao nosso redor

Tudo isso pode parecer muito “estratosférico”. Afinal, átomos e partículas subatômicas são muito pequenas e, no mundo real, e superposições quânticas são inobserváveis em objetos macroscópicos...

No entanto, muitos fenômenos físicos importantes para a tecnologia moderna envolvem o comportamento dos átomos e, assim, são afetados pelos fenômenos quânticos descobertos a partir de 1900. Correntes elétricas, por exemplo. Foi com a teoria quântica que John Bardeen, Walter Brattain e William Shockley inventaram o transistor em 1947. Esse dispositivo causou uma revolução na eletrônica e permitiu o aparecimento dos microcomputadores modernos. Tudo que usa chip, de telefones celulares a registros eletrônicos em contra-capas de livros, baseiam-se na teoria quântica.

Os lasers também são explicados e projetados com base nessa teoria – logo, sempre que usamos um CD, um DVD ou um blu-ray, estamos usando tecnologia projetada com base quântica. O mesmo para as usinas nucleares (que usam a quântica junto com a relatividade), tecnologias que usam materiais que emitem calor e luz, como resistências elétricas e filamentos de lâmpadas incandescentes (usam a fórmula de Planck para radiação térmica), e também células fotoelétricas e lâmpadas fluorescentes. Além disso, a teoria quântica é usada para explicar o funcionamento do Sol, para determinar a composição química das estrelas distantes a partir de sua luz e muitas outras coisas. Enquanto isso, novas tecnologias estão sendo nascendo, como o computador quântico.

Com o advento da tecnologia moderna, a humanidade passou a viver num mundo cercado de manifestações dos quanta.


A física se move

Se todas as partículas exibem fenômeno quânticos, então toda a física teve que ser alterada. Assim, além de uma mecânica quântica, existe hoje um a teoria quântica da eletricidade, do magnetismo, das forças nucleares e assim por diante. Mas isto ainda não terminou. Não existe ainda uma teoria quântica da gravidade. Esta é uma das principais fronteiras da física teórica atualmente. Há apenas algumas teorias hipotéticas (como a das supercordas), esperando pelos testes experimentais em laboratório. Uma das coisas que o famoso acelerador de partículas em Genebra, o LHC, deverá fazer é ajudar a testar essas teorias. Dificilmente haverá um teste tira-teima, pois isto exigiria um aparelho muitíssimo maior. Mas, se tivermos sorte, poderemos avançar muito neste conhecimento.

Um dos detectores de partículas do LHC. Repare o tamanho do homem perto dele.


Para saber mais - O livro de John Gribbin, "Fique por dentro da física moderna", contém informações muito acessíveis e didáticas sobre a mecânica quântica e o resto da física moderna (e um pouco de física clássica, também). Muito bom.


Resumo
  • A quantização da energia diz que a energia não é sempre contínua; há casos em que apenas alguns valores específicos são permitidos.

  • Para passar de um nível permitido para outro, a partícula não pode passar pelas energias intermediárias, "proibidas", então deve dar um "salto quântico".

  • Partículas (incluindo fótons de luz) têm comportamento dual: comportam-se como ondas enquanto estão transitando pelo espaço, mas podem comportar-se como corpúsculos quando interagem com a matéria.

  • A mecânica quântica é indeterminista: só prevê probabilidade e médias, não tendo instrumentos teóricos para fazer previsões precisas sobre eventos individuais.

  • Alguns cientistas, como Albert Einstein, acreditavam que o determinismo poderia ser recuperado se se completasse a mecânica quântica de alguma forma. O teorema de Bell, entretanto, sepultou essas esperanças.

  • Muitas tecnologias modernas estão baseadas na mecânica quântica, dos chips aos lasers.