terça-feira, 4 de agosto de 2020

Novidades sobre o bóson de Higgs

Depois que essa partícula subatômica, o bóson de Higgs, foi observada pela primeira vez em 2012, os cientistas passaram a investigar como ela interagia com as outras partículas conhecidas - elétrons, prótons etc. Quer dizer, como se atraem, se repelem e se transformam por meio de forças elétricas, magnéticas e nucleares. Esta matéria da Revista Fapesp, na qual esta postagem se baseia, fala em "acoplamento"; trata-se de um jargão para "interação".

Segundo um físico entrevistado na matéria do link, de lá para cá as observações têm confirmado as previsões da teoria. A teoria mais aceita hoje para as interações entre as partículas chama-se "Modelo Padrão". É ela que previa a existência do tal bóson de Higgs. O Higgs não é uma partícula como as outras: para que a teoria fosse consistente, era necessário que ela existisse - por isso a confirmação pelo experimento foi importante. Além disso, ele é a "atriz" principal de um processo físico chamado "mecanismo de Higgs", sem o qual a teoria diria que as partículas não teriam massa (e, portanto, seria inconsistente com as observações). O mecanismo só funciona para as partículas que interagem com o bóson de Higgs.

As pesquisas sobre o Higgs estão sendo feitas no acelerador de partículas LHC, no Centro Europeu de Pesquisas (CERN), em Genebra. Primeiro verificaram a teoria com as partículas mais pesadas (como as partículas W e Z, menos conhecidas do grande público), depois com cada vez mais leves - porque a interação do bóson com estas últimas é mais fraca e mais difícil de ser quantificada. A matéria da Revista Fapesp diz que agora conseguiram ultrapassar um limite importante, pois entraram numa classe de partículas leves chamadas léptons, da qual faz parte o elétron e cujas interações com o Higgs ainda não foram exploradas. A primeira desse grupo para a qual conseguiram quantificar a interação foi o múon. A façanha foi da equipe CMS, uma das que observaram o Higgs há 8 anos (a outra foi a ATLAS)..


O que acontece se não confirmarem a teoria?

Na verdade, o que muitos físicos buscam mesmo não é tanto confirmar a teoria, mas, ao contrário, procurar violações dela, pois aí é possível descobrir novos fenômenos físicos desconhecidos e construir uma teoria que vá além do Modelo Padrão. Essa teoria é muito boa (concorda muito bem o que se observa nos laboratórios), porém incompleta - p. ex., não abarca a interação gravitacional. Candidatas para uma teoria mais completa existem, como a famosa Teoria das Cordas, mas por enquanto são meras hipóteses.

Para saírem desse "limbo" de apenas hipóteses, elas precisam ter suas previsões teóricas verificadas nos laboratórios (e aí veremos qual delas, se alguma, é a mais adequada). É outra busca almejada pelos físicos hoje. Mas os fenômenos previstos por essas "teorias-hipóteses" que diferem dos previstos pelo Modelo Padrão envolvem colisões com energias muito grandes (os experimentos nos aceleradores de partículas são feitos colidindo partículas entre si) e até agora o LHC não foi capaz de alcançá-las.

domingo, 15 de julho de 2012

O bóson de Higgs: teorias novas à vista?

Os cientistas procuraram avidamente o bóson de Higgs para verificar uma previsão teórica chave do Modelo Padrão - como é chamada a teoria atual da física das partículas subatômicas (a propósito, se você não tem a mínima ideia do que seja o bóson de Higgs, talvez os primeiros parágrafos deste texto do Ciências e Adjacências o ajudem). Parece que no último dia 4 o encontraram mesmo, em um aparelho de 9 bilhões de dólares, o LHC, em Genebra. A coisa interessante é que, ao invés de confirmar a teoria, ele pode estar dizendo que ela não está muito correta e, ainda por cima, mostrando como melhorá-la.

O caso é que parecem existir algumas discrepâncias entre as previsões do Modelo Padrão e o comportamento do Higgs esperado pela teoria. Elas estão justamente naquilo que identifica se a partícula detectada é mesmo o bóson de Higgs: o modo como ela "decai" - como se transforma em outras partículas. O bóson de Higgs não é constituído por partículas menores, ele é uma "partícula elementar"; porém, mesmo partículas elementares podem se transformar em conjuntos de outras partículas, que aparecem por transformação de energia em matéria.


Bóson de Higgs x Modelo Padrão

O bóson de Higgs é produzido dentro do LHC a partir de colisões entre prótons extremamente violentas. Porém, dura muito pouco tempo e decai em outras partículas antes mesmo que possa alcançar os detectores do aparelho. O que os detectores permitem observar são essas partículas secundárias; a partir delas (quais são e de quanto são suas energias), pode-se inferir informações preciosas sobre a partícula que as originou.

Bem, em que partículas o Higgs decai? Há várias possibilidades (chamadas tecnicamente "canais"). As principais são essas cinco:
  • Um quark bottom e um antiquark bottom
  • Um partícula tau e uma antitau
  • Um par de fótons
  • Uma partícula W e uma antipartícula W
  • Um par de partículas Z 
Não se assustem com os nomes; são apenas membros da pequena fauna de partículas elementares disponíveis na Natureza. O importante é que são cinco "canais" e cada um contém um par de partículas. Para ser preciso, a maioria delas também decai em outras "terciárias" e essas, sim, serão detectadas. Pois bem, as energias dessas partículas secundárias (e "terciárias") deveriam coincidir razoavelmente com as previstas pela teoria, certo? Mas veja só a figura abaixo, que mostra as distâncias entre os dados encontrados pelo LHC e as previsões teóricas. A previsão teórica é representada pela barra verde vertical; os resultados experimentais são os quadrados pretos.

 Resultados teóricos (linha verde) e experimentais (quadrados pretos) 
do LHCpara os decaimentos do bóson de Higgs. Adaptado dos 
slides do seminário de Joseph Incandela no 
CERN, 04/07/2012, pág. 100. Link

Entendamos essa figura. Para os dois últimos casos (W e Z), os quadrados pretos caem dentro da faixa verde. Isso significa que os dados experimentais caíram dentro da "margem de erro" das previsões, de 68%. A margem de erro aqui funciona de modo análogo à margem de erro em pesquisas de eleições (se você compreender como funcionam as margens de erro de eleições, estará compreendendo também um importante aspecto das pesquisas sobre física, inclusive sobre o bóson de Higgs! Há uma boa explicação neste texto do Brasil Escola). No caso acima, fala-se em "nível de confiança" ao invés de margem de erro. Isso porque a interpretação corrente para ela é a seguinte: se o nível de confiança do resultado de um conjunto de dados experimentais é de 68%, significa que há 68% de probabilidade de esse resultado não ser uma coincidência fortuita, mas sim um aspecto concreto da realidade física. Bem, 68% não é nada tão grande; assim, cair um pouquinho fora dessa margem não é tão terrível. Mas a coisa muda de figura se cair muito fora.

A espessura da faixa verde indica o nível de confiança da previsão teórica; as barras vermelhas dos dois lados de cada quadrado preto indicam o nível de confiança dos resultados do LHC. Bem, os dados com W e Z parecem concordar bem com as previsões do Modelo Padrão, pois estão dentro do nível de confiança da teoria. Mas olhe só os outros. Parecem cair bem fora.

Na verdade, os dois casos de cima (bottom e tau) não são tão impressionantes, porque, segundo Joseph Incandela, ainda não há dados disponíveis em número suficiente para que esse resultado possa ser considerado preciso o bastante. Mas o LHC vai continuar funcionando e produzir dados mais confiáveis até o fim deste ano. Na analogia com a pesquisa eleitoral, seria o equivalente a entrevistar mais e mais pessoas, para diminuir a incerteza das previsões.


O trabalho do LHC até o fim do ano (ou um dos principais)

O que acontecerá é que, quanto mais dados, mais estreitas ficarão as barras vermelhas, pois maior o seu nível de confiança. Na verdade, o que realmente importa é se as barras vermelhas alcançam ou não a faixa verde (note que, no caso do tau, eles só encostam; já no caso do fóton, sequer chegam a tanto). Se, até o fim do ano, os quadrados ficarem onde estão, então as barras vermelhas se afastarão da faixa verde e a discrepância experimento-teoria ficará cada vez maior. Mas pode ser que até lá os quadrados pretos tenham se deslocado para dentro da faixa verde, indicando que sua estranha posição atual seja devida apenas a falta de precisão. Mas pode ser que não.

De qualquer forma, mesmo se o desvio sobreviver ao aumento da precisão, pode ser necessário fazer apenas alguma adaptação pequena na teoria, mantendo sua essência. Há inclusive várias alternativas já disponíveis, sendo uma das mais populares o Modelo Padrão Minimamente Supersimétrico (MSSM).

O caso do fóton, o terceiro de baixo para cima, é o mais problemático, porque ele é o que possui dados mais claros. Na verdade, os decaimentos do fóton, do W e do Z foram fundamentais para que se comprovasse que o bóson é mesmo o de Higgs, estando o fóton em primeiro lugar.

Mas falar de "distância grande" é muito vago; de quantos por cento estamos falando? É suficiente para culparmos a teoria? Na verdade, não. Citemos números. Quando a barra vermelha encosta na faixa verde, como no caso do tau, a probabilidade de o resultado experimental cair tão distante do teórico e mesmo assim a teoria ainda estar correta é de apenas 4,5%. Pode-se dizer que há 4,5% de chance de dados mais precisos no futuro levarem o quadrado preto do tau para dentro da faixa verde. Por outro lado, pode-se dizer que há 95,5% de chance de estarmos vendo sinais de fenômenos físicos desconhecidos. No caso do fóton, um pouco menos, pois está um pouco mais distante.

Por isso, os cientistas estão cautelosos e preferem esperar novos dados. Pois, se 95,5% pode parecer muito, para os cientistas é muito pouco. Para se ter uma ideia, o padrão para se considerar uma descoberta como "certeza científica" é um nível de confiança de nada menos que 99,99995% (tecnicamente, diz-se um "nível de confiança de cinco sigmas" - o de 68%, é de um sigma; o de 95%, usado em pesquisas eleitorais, é de dois sigmas). Há um longo caminho até alcançar esse número. Mas note que estou falando apenas dos experimentos de um dos dois grupos que obervaram o provável Higgs, o CDS. Há também o ATLAS, que observou resultados semelhantes (no início deste texto, aliás, há uma figura do detector do CDS - compare seu tamanho com o do homem vestido de azul ardósia na parte inferior).

Há ainda uma distância incômoda na massa medida do bóson de Higgs, de 125,3 GeV (gigaelétron-volts, uma unidade de medida de energia apropriada para partículas subatômicas, que pode também, com um pouco de "abuso de linguagem" corrente entre os físicos, ser usada para massa). A teoria não prevê, na verdade, a massa do bóson, mas ela contém uma relação entre ela e a massa de duas outras partículas, o W e o quark top (este observado apenas em 1995). A partir dessa relação e das massas dessas duas senhoras, a massa do bóson deveria ser de 94 GeV. Mas lembremos que o que importa não são tanto os números em si, mas as margens de erro ao seu redor. Nesse caso, o resultado do LHC caiu bem em cima do limite da margem de erro de um sigma da previsão "teórica". Tecnicamente, isso não invalida a teoria, mas alguns cientistas estão preocupados (ou excitados!) e esperam ansiosamente pelos dados mais precisos dos próximos meses.


Em busca dos cinco sigmas

Voltando aos sigmas, o LHC demorou tanto para apresentar seus resultados em boa parte justamente porque esperava que os dados se acumulassem o suficiente para alcançarem os cinco sigmas de confiabilidade para a existência do bóson de Higgs. Quando Incandela, visivelmente nervoso, fez seu seminário no dia 4, foi apresentando os dados do decaimento do Higgs em fótons, depois para o decaimento nas partículas Z, depois nas W - e, à medida que ia avançando, o nível de confiança estatístico aumentava, pois a possibilidade de a concordância com as previsões teóricas serem apenas coincidência ficava obviamente cada vez menor. Quando chegou no Z, o nível de confiança alcançou 5 sigmas. Nesse momento, ele foi interrompido por uma salva de aplausos que pareciam não querer terminar nunca. Os cientistas presentes haviam compreendido que aquilo significava, finalmente, a tão esperada descoberta do Higgs.

Incandela teve que interromper os aplausos continuando a falar. O vídeo está no Youtube, que inclui também o seminário de Fabiola Gianotti, do ATLAS (e, no final, um depoimento do próprio Peter Higgs, um dos cientistas que previram a existência do bóson com seu nome). No entanto, quando Incandela terminou de falar sobre os outros dois decaimentos, o nível de confiança havia baixado para 4,9 sigmas, porque os gráficos para o quark bottom e para a partícula tau não pareciam apontar qualquer relação com o bóson de Higgs. "Provavelmente devido a baixa estatística", argumentou o cientista (ou seja, devido a poucos dados).

Esperemos. No fim do ano, deveremos ter o Modelo Padrão corroborado ou então interessantíssimos e excitantes desvios que poderão apontar para fenômenos físicos ainda desconhecidos.

Obs.: Quem me deu a dica dessas discrepâncias foi a física Mara Senghi Soares, brasileira piracicabana, pesquisadora do Centro de Investigaciones Energeticas Medioambientales y Tecnologicas (CIEMAT), em Madrid, e que colabora com o LHC via CMS.

sábado, 1 de outubro de 2011

Neutrinos mais velozes que a luz: a reação dos cientistas

No dia 23 de setembro, os jornais anunciaram a suposta observação de partículas mais velozes que a luz em um laboratório em Gran Sasso, na Itália. A Colaboração OPERA, que envolve cientistas de cerca de 40 instituições de pesquisa europeias e asiáticas, detectou neutrinos com velocidades pouco mais de dois milésimos por cento acima da da luz. Neutrinos são partículas subatômicas extremamente leves (massa 350 mil vezes menor que a de um elétron, ou ainda mais leves) e interagem muito fracamente com a matéria. São só 0,00248% mais velozes que a luz, mas o experimento foi muito preciso e para muitos esse resultado, se correto, ameaçaria derrubar a teoria da relatividade especial. Acima, fotos dos enormes detetores do OPERA.

Como os cientistas estão reagindo a isso?


Com a palavra, os entendidos

No sábado, o blog do arXiv mostrou uma seleção de nove artigos sobre isso escritos desde o bombástico anúncio. Eles dão uma ideia interessante do que os cientistas andam pensando, como sustentam suas críticas, e como os teóricos pensam em lidar com a situação. Como são técnicos, vou tentar mostrar aqui o que dizem.

No caso geral, a maioria continua cética, mesmo que os cientistas do OPERA tenham sobrevivido a um interrogatório de especialistas no CERN (o mesmo centro de pesquisas que é responsável pelo acelerador LHC, em Genebra, Suíça). A razão é que o resultado parece contradizer frontalmente a teoria da relatividade especial. Não se trata apenas de conservadorismo acadêmico: esta teoria vem sendo confirmada espetacularmente em quase um século de testes.

Repare-se, aliás, que os próprios pesquisadores do OPERA foram os primeiros a dizer, no seu próprio artigo, que os resultados precisam ser confirmados por pesquisas independentes antes de se chegar a qualquer conclusão definitiva. É natural que os cientistas sejam cautelosos ao anunciar tal coisa. Um alarde exagerado seguido de uma refutação pode ser extremamente humilhante e tirar sua credibilidade junto aos colegas.

Mas os artigos selecionados pelo blog do ArXiv são muito variados, desde os que refutam frontalmente os resultados até os que já ensaiam os primeiros passos para reescrever a relatividade.

Como lembrou o cientista grego Alex Kehagias, da Universidade de Atenas, as explicações para os resultados do OPERA se encaixam em três tipos possíveis:

a) A anomalia é devida a algum erro dos autores;
b) A anomalia é real e indica uma violação da teoria da relatividade especial;
c) A anomalia é real, os neutrinos viajam mais rapidamente que a luz, mas a teoria da relatividade não é violada (sim, isso é possível, como veremos abaixo).

Além da relatividade - Apenas um dos nove artigos ousou encarar o desafio de construir uma teoria alternativa à relatividade especial. Foi de uma equipe de três cientistas do CERN e do King's College de Londres. Eles não fizeram uma teoria completa, nem perto disso, mas indicaram um método para fazê-lo e produziram com ele duas "teorias de brinquedo" ("toy theories"), isto é, modelos simplificados apenas para deixar claros os conceitos envolvidos e as técnicas matemáticas utilizadas. Também, mostraram como os cientistas poderiam verificar no laboratório se alguma teoria feita com esse método poderia estar correta.


Os descrentes

"Refutamos" - Entre os que simplesmente não acreditam nos novos dados, está ningúem menos que o prêmio Nobel de Física de 1979, Sheldon L. Glashow, da Universidade de Boston, nos EUA. "Refutamos a interpretação superluminal dos resultados do OPERA", dizem explicitamente no resumo do artigo, escrito junto com Andrew G. Cohen.

Claro que eles apresentam razões para sua descrença. Após alguns cálculos, concluíram que neutrinos naquela velocidade perderiam energia rapidamente - sua energia seria convertida em matéria no caminho, produzindo uma quantidade de elétrons e pósitrons (o pósitron é uma partícula idêntica ao elétron, só que com carga elétrica positiva). Pelas suas contas, os neutrinos não poderiam de jeito nenhum ter chegado com tanta velocidade no detector do OPERA, situado a 730 km da fonte que os produziu, no CERN, em Genebra.

Cuidado com o tempo - Outros apontam possibilidades de erros de interpretação por parte dos cientistas do OPERA. Aí há argumentos de toda espécie: Susan Gardner, da Universidade do Kentucky, nos EUA, chega a invocar efeitos cosmológicos relacionados com a matéria escura. Argumentos mais "terrestres" foram dados por Carlo Contaldi, do Imperial College de Londres. Ele acha que os pesquisadores foram "enganados" por uma sutileza relacionada com o tempo. Pela teoria da relatividade especial, naquelas velocidades o tempo se comporta de maneira bem diferente da usual e nossa intuição pode nos pregar peças desagradáveis. O próprio conceito de "simultaneidade" torna-se melindroso e é preciso escolher uma convenção clara e aferrar-se a ela, para não ser ludibriado pela própria intuição. É verdade que lidar com esses problemas é um ato corriqueiro em cálculos envolvendo velocidades próximas às da luz, mas as coisas podem se complicar muito em sistemas acelerados ou girantes - Contaldi tem dúvidas especificamente sobre os efeitos da rotação da Terra na convenção para se definir simultaneidade.

A estatística prega peças - No outro extremo está Robert Alicki, da Universidade de Gdánsk, na Polônia, que acha que as coisas são muito simples: tudo seria devido a um mero erro de interpretação estatística. A razão é que o dados colhidos pelo OPERA são em número gigantesco e devem ser analisados estatisticamente, o que é uma tarefa difícil e cheia de armadilhas conceituais - terreno fértil para especulações sobre algum erro sistemático cometido em Gran Sasso. Mas o paper de Alicki, de uma única página, é tão simples quanto difícil de acreditar, diante do cuidado extremo que os pesquisadores do OPERA parecem ter tomado em três anos de análise de dados.


Os conciliadores: relatividade com velocidade superluminal

Ao contrário do que normalmente se diz, velocidades maiores que a da luz não são necessariamente incompatíveis com a relatividade especial.

Os táquions - Em primeiro lugar, o que a relatividade especial proíbe é que se ultrapasse a velocidade da luz, e só isso. Ela é perfeitamente consistente com a hipótese de partículas viajando sempre mais rápido que a luz. Tais entidades são chamadas táquions. O problema é o preço conceitual disso: os táquions se acelerariam quando perdem energia, tendendo sempre a velocidades cada vez maiores, e também viajariam para trás no tempo...! Mais informações sobre táquions neste artigo da Ciência Hoje (em PDF).

Mas parece que os neutrinos não são táquions. Dois artigos da lista do blog do arXiv concluem que essa possibilidade não é compatível com o comportamento observado em neutrinos em outras situações, especificamente os vindos de supernovas. Um dos trabalhos foi assinado por quatro cientistas italianos e dinamarqueses e o outro por três, do Reino Unido e do CERN.

Outras dimensões - Há outra possibilidade: considerar dimensões espaciais extras além das três conhecidas. Apesar de soar bizarro, é uma estratégia bastante popular em teorias alternativas da física de partículas, como na teoria das cordas. Para entender o argumento, é útil uma analogia com a segunda dimensão. Imagine uma joaninha caminhando sobre um papel. Agora curve o papel, de forma a aproximar suas bordas.
Ali na beirada, a joaninha pode simplesmente, com um pouco de ginástica, passar de uma ponta a outra do papel. Ou pode haver até um "túnel" para ela passar, como na figura abaixo:


Para uma companheira que não tenha capacidade de perceber a dobra do papel e para a qual o mundo se reduz a apenas duas dimensões, parecerá que a outra percorreu o papel de lado a lado em uma velocidade alucinante.

A limitação dessa analogia é que nela a joaninha pareceria passar instantaneamente de um lado a outro, e não numa velocidade muito grande. No entanto, há várias teorias na física que tentam compatibilizar velocidades maiores que a da luz com configurações de espaços com quatro ou mais dimensões. São, obviamente, ainda especulativas. Um dos artigos da lista do ArXiv aplica exatamente isso para explicar os neutrinos superluminais e salvar a teoria da relatividade. Foi assinador por Steven Gubser, da Universidade de Princeton, nos EUA (coincidentemente, a mesma onde Einstein se empregou quando se mudou aos Estados Unidos).

Força desconhecida - Uma terceira possibilidade, uma ideia do grego Alex Kehagias, da Universidade de Atenas, é um tanto desconcertante. Ele supõe que a Terra produza um campo de forças ainda desconhecido (um campo quântico escalar), diferente do gravitacional ou do magnético. Curiosamente - por isso parece desconcertante -, seus cálculos mostram que esse campo é compatível com a relatividade e, ao mesmo tempo, capaz de produzir velocidades maiores que a da luz para os neutrinos!

Conclusão de tudo isso? Por enquanto, ainda é cedo para tanto. Provavelmente teremos que esperar para ver se outros grupos conseguem reproduzir os resultados do pessoal do OPERA. Isso pode levar alguns anos - só o experimento inteiro do OPERA já durou três.


Para saber mais:

Vídeo da palestra do pessoal do OPERA no CERN, explicando seus resultados (em inglês).

"Táquions - Mais velozes que a luz?" (Erasmo Recami e Michel Z. Rached) - Ciência Hoje 170 (2001). Disponível aqui (em PDF).

Este post no blog Física, futebol e falácias contém vários links para bons textos sobre o assunto.

Artigo científico original da Cooperação OPERA.

Neste outro artigo científico, de 2007, outra colaboração, o MINOS, do Fermilab, em Chicago, nos EUA, também diz ter observado neutrinos mais velozes que a luz.

terça-feira, 10 de maio de 2011

A vida depende de uma coincidência cósmica


Obs.: Para quem não tem muito tempo,
há uma versão curta deste post no Ciências e Adjacências.

Extraordinário, isso. Lendo um pouco de astrofísica do interior das estrelas, vi que a vida como a conhecemos só pôde aparecer por causa de uma coincidência espantosa que acontece no nível dos núcleos atômicos. Se as energias envolvidas nas reações nucleares que produzem o carbono fossem um pouco diferentes, a vida seria impossível. Explicar essa coincidência é que são elas.

Senão, vejamos. A vida na Terra é inteiramente baseada no carbono. Esse elemento químico forma as cadeias, ou esqueletos das moléculas orgânicas - proteínas, carboidratos, DNA, tudo. Aparentemente, só ele tem a capacidade de formar longas cadeias ramificadas, às vezes de milhares de átomos, que permitem a formação de moléculas imensas como a de DNA, fundamentais para qualquer vida terrestre.

Ora, tudo indica que os minutos logo após o Big-Bang só conseguiram produzir átomos de hidrogênio e hélio. Todos os outros elementos químicos tiveram que ser formados na fornalha nuclear do interior das estrelas. Inclusive o carbono.

Mas o processo de síntese do carbono nas estrelas tem características desconcertantes. Para explicar de que coincidências cósmicas estou falando, preciso entrar em mais detalhe. No nosso Sol, quase não existe carbono, só em estrelas mais pesadas. É que o Sol ainda está num estágio anterior, em que hidrogênio é transformado em hélio por fusão nuclear (é esse processo que produz a energia solar). Quando o hidrogênio chegar perto de acabar, o hélio se fundirá em berílio e em seguida em carbono, como esquematizado na figura abaixo:

Esquema da síntese do carbono no interior das estrelas. Primeiro, dois núcleos de hélio se fundem em um de berílio. Depois, o núcleo de berílio se funde com um terceiro núcleo de helio e produz o carbono.


Ou seja, o hélio sofre uma primeira fusão nuclear e produz berílio; e o berílio, por sua vez, se funde com outro núcleo de hélio e produz, finalmente, o carbono. Assim acontece em outras estrelas mais velhas observadas pelo espaço sideral afora.

Acontece que a energia do carbono é muito menor que a energia do hélio e do berílio somadas. A rigor, isso não impossibilita totalmente a formação do carbono, mas a torna extremamente improvável, de acordo com as leis que regem as reações nucleares. O carbono então praticamente nunca se formaria. Então como então pode haver tanto carbono na Terra?

Aí é que entra a coincidência interessante. O carbono, como qualquer outro núcleo, pode possuir outros estados com energias mais altas, com valores bem específicos - são os "estados excitados". Acontece que uma dessas energias é justamente muito próxima da soma do hélio com o berílio! Pronto, está salva a pátria. O que era extremamente improvável vira provável.



A segunda parte da figura anterior, mostrando que o estado excitado do carbono tem a mesma energia que a do hélio e do berílio somados.


Não há nenhuma lei da física que obrigue isso a acontecer. Ao que parece, é apenas uma coincidência. Ela foi prevista, na verdade, pelo físico britânico Fred Hoyle (1915-2001), em 1952. Ele afirmou que o carbono necessariamente deveria ter um estado excitado com essa energia, pois do contrário o carbono jamais poderia ser tão abundante na Terra. Isso foi confirmada no laboratório quatro anos depois.

Bem, coincidências assim não acontecem por acaso. Qual a razão desta?

Ninguém sabe.

Uma possibilidade vem de uma versão do "princípio antrópico": talvez as energias envolvidas sejam diferentes em várias partes do Universo e nós necessariamente só poderíamos nascer naquela região em que houvesse essa coincidência.

Outra possibilidade é que as energias variem aos poucos com o tempo. Como parece que não variaram tanto do Big-Bang para cá, isso só faz sentido em teorias alternativas em que o Universo é cíclico, com vários Big-Bangs. Necessariamente só poderíamos nascer numa época em que essa coincidência ocorresse.

A coisa interessante é que essas energias dependem de parâmetros chamados "constantes fundamentais da natureza" (como a constante de Planck e a velocidade da luz no vácuo), bem como das massas e cargas elétricas das partículas subatômicas como o elétron e o próton. Até onde se pôde observar, todas essas quantidades não mudam nem no espaço nem no tempo. Mas há várias especulações sobre se poderiam variar.

De qualquer forma, é um mistério muito curioso - não tanto pelo mistério em si, mas porque nele mora a razão por estarmos aqui.

P.S. - O tal estado excitado do carbono, chamado "estado de Hoyle", ainda é objeto de estudos. Acabou de aparecer na Physical Review Letters um trabalho no qual, pela primeira vez, se conseguiu calcular sua energia com cálculos teóricos usando supercomputadores. Um texto mais acessível sobre isto no blog Astropt e um mais técnico no blog Physics, da American Physical Society. O artigo original tem download livre (em PDF).

segunda-feira, 9 de maio de 2011

Críticas ao modelo atual da origem e evolução do Universo


Astrofísico dos EUA expõe críticas fortes ao paradigma dominante sobre a origem do Universo, a teoria inflacionária

Na última edição da Scientific American Brasil há um interessante artigo do astrofísico Paul Steinhardt com críticas fortes à teoria atual sobre a origem do Universo como o conhecemos, chamada teoria inflacionária – que é um refinamento da velha teoria do Big-Bang. Segundo ele, é bem possível que ela precise de uma revisão forte ou mesmo ser substituída. Não significa que o Big-Bang jamais tenha acontecido – as evidência são bastante contundentes –, mas que podem ter que procurar outro “refinamento”. Neste texto, procuro expor as ideias de Steinhardt com outra linguagem.


Mudando a teoria do Big-Bang: a inflação

A teoria inflacionária, proposta por Alan Guth em 1980, foi formulada para solucionar com uma só tacada vários problemas com a teoria original do Big-Bang. Sim, a teoria original tinha problemas sérios. Apesar de suas previsões concordavam muito bem com as observações astronômicas, havia problemas teóricos de outra ordem. Por exemplo, a teoria produzia um Universo que explodiria ou implodiria imediatamente após o Big-Bang, a não ser que a densidade média de matéria do Universo fosse igual a um parâmetro chamado “densidade crítica” com a absurda precisão de uma parte em 1062. E não havia razão aparente nenhuma para serem iguais. É o chamado “problema do ajuste fino”.

Além disso, o cosmo deveria parecer totalmente não-uniforme, pois não haveria tempo para a luz atravessar distâncias grandes, de modo que partes diferentes do céu deveriam estar totalmente desconexas. No entanto, apesar de acúmulos locais de matéria como galáxias e grupos de galáxias, em larga escala o Universo parece bastante uniforme (o chamado “problema do horizonte”).

A teoria da inflação basicamente postula que houve um período de expansão muito rápida logo no início. Atenção: quando um cosmólogo diz “muito”, ele quer dizer “muito”. Pela teoria, o cosmo expandiu-se 1078 vezes em 10-32 segundos...! Bem, isso foi suficiente para resolver os problemas acima. Com a inflação, qualquer que fosse a configuração inicial do Universo, ele teria convergido para um cosmo uniforme em larga escala. A inflação seria causada por um campo de forças chamado campo de inflatons, que permearia todo o espaço.

As previsões quantitativas da teoria foram confirmadas espetacularmente por observações astronômicas a partir de 1992 e rapidamente ela atingiu o nível da ortodoxia, ocupou capítulos inteiros de livros-textos básicos e tornou-se o paradigma dominante na área. Sobreviveu a novas descobertas de impacto, como as da a matéria escura e da energia escura, entidades misteriosas que perfazem juntas 96% da massa do Universo (a matéria e a energia comuns, que formam estrelas e planetas, dão só 4%), e cujas existências foram inferidas indiretamente nos anos 1990. A teoria da inflação, sua corroboração observacional e as descobertas seguintes talvez possam ser descritas como uma "revolução" na cosmologia.


Devemos mudar também a inflação?

Porém, com o tempo, uma melhor compreensão da teoria inflacionária mostrou que ela pode estar numa situação semelhante à do Big-Bang original. Suas previsões concordam com as observações espetacularmente bem, melhor ainda que o modelo anterior. No entanto, padece de problemas teóricos “macro” preocupantes. É o que Steinhardt expõe no seu artigo.

Na verdade, ele tenta colocar lado a lado os prós e os contras da teoria. Os prós são que a inflação resolveu várias inconsistências do Big-Bang original de uma só vez e que suas previsões quantitativas são corroboradas muito bem pelas observações – o que é o tira-teima final de qualquer teoria física.

Passemos às críticas. Primeira. Lembremos que a inflação resolveu o problema da especificidade exagerada das condições iniciais do Universo. Pois eis que agora é o campo de forças que produz a inflação (o campo de inflatons) que parece sofrer do mesmo problema.

A teoria só descreve as características gerais desse campo, não seus detalhes. Estes devem ser escolhidos de modo a fazer com que as previsões teóricas se adequem às observações. Até aí, tudo bem – é nada mais que um dos feijões-com-arroz da ciência. O problema é que, para que estrelas e galáxias pudessem se formar, seria preciso que o campo de inflatons tivesse uma forma extremamente específica. Se um de seus parâmetros tivesse um valor diferente por uma parte em 1015, o universo seria totalmente diferente. Haveria hoje muito mais espaço vazio do que efetivamente vemos (“muito” no sentido dos cosmólogos...!) e as galáxias estariam muito mais concentradas. Repete-se o problema do ajuste fino. Não é como o colossal 1062 da teoria original, mas ainda é uma coincidência que demanda uma explicação.

Um segundo problema é que hoje se sabe que, depois que a inflação pára (o que ocorre em apenas 10-32 segundos), ela continua em diminutas e raras porções do espaço. Essas poucas regiões retardatárias, porém, expandem-se exponencialmente (com a rapidez dramática típica das coisas relacionadas com a inflação), de modo que em pouco tempo o cosmo seria formado de universos-ilha permeadas de imensas regiões de espaço vazio – e uma dessas ilhas seria o Universo em que vivemos. Acontece que a imensa maioria desses universos-ilha não teria condições de formar estrelas e galáxias, e teria características muito diferentes do nosso. Isso pode ser fatal para a principal razão da popularidade da teoria inflacionária, que é a concordância entre suas previsões quantitativas e as observações astronômicas. Afinal, a previsão teórica não é a que vemos ao nosso redor, mas a imensa pluralidade de mundos possíveis em outras “ilhas”.

Representação do multiverso produzido pela inflação eterna. Nosso Universo seria apenas uma das bolhas mergulhadas no meio de um campo de forças chamado "falso vácuo" (representado em cinza) que se expandiria com velocidade exponencialmente crescente.


As dúvidas permanecem

Bem, tudo isso parece catastrófico. Porém, o que eu expus acima é a visão de Steinhardt, que a expôs de forma simplificada, sem espaço para detalhes que poderiam matizar essa impressão. Na verdade, a maior parte dos astrofísicos continua defendendo a inflação e ela continua sendo exposta em livros-textos de cosmologia, ignorando totalmente as críticas acima. Segundo o próprio Steinhardt, poucos pesquisadores têm prestado atenção a esses problemas. Mas ele mesmo diz que outros cientistas avaliam que tudo isso é uma “dor de dente” que será resolvida mais cedo ou mais tarde sem abdicar da ideia fundamental da inflação – assim com as inconsistências da teoria original do Big-Bang foram resolvidas acrescentando-se a inflação, sem rejeitar a ideia central.

Porém, a saída pode não ser tão suave. Nos anos 1980, Roger Penrose mostrou, por considerações teromdinâmicas muito gerais, algo desconcertante sobre o campo de inflatons. A maioria esmagadora das configurações desse campo produziria, sim, um Universo tão uniforme quanto é hoje, mas sem o período de inflação muito rápida! Essa observação abre a possibilidade de que haja um campo de inflatons que produza o universo como o conhecemos sem precisar de inflação.

Nos últimos meses, quando eu comecei a pesquisar mais a fundo as cosmologias alternativas, vi várias críticas à inflação, mas não podia saber se eram especulações sem grandes consequências (elas existem em todas as áreas) ou se eu as deveria levar a sério. Quando a maior parte dos cientistas da área parece ignorar uma crítica, isso pode um bom motivo para nós “meros mortais” confiarmos neles e permanecermos céticos. No entanto, o artigo de Steinhardt mostra que essas “especulações” estão saindo do seu limbo em rincões acadêmicos profundos e começam a emergir para uma região visível pelo público em geral.

Um outro problema, que Steinhardt não aborda, é o da singularidade inicial. O modelo diz que houve um momento inicial em que a densidade de matéria e de energia seriam infinitas. Como não deveria haver infinitos na natureza, apareceram dezenas de teorias alternativas, esperando que as observações astronômicas fiquem suficientemente precisas para "escolher" alguma delas - ou nenhuma. Várias prevêem até uma era pré-Big-Bang.

sexta-feira, 25 de março de 2011

O estranho mundo quântico captado em vídeo

É sabido que as coisas no mundo microscópio se comportam de modo muito diferente do que no macro - é por isso que foi necessária uma física nova para o extremamente pequeno, a física quântica. Este vídeo no Youtube, cujo link encontrei ontem no site de um professor da Unicamp, mostra isso de maneira dramática.

Ele apresenta simplesmente uma simulação por computador de duas partículas subatômicas se chocando e depois quicando nas paredes de uma caixa. Poderiam ser dois elétrons. Talvez você estranhe que eles apareçam como manchas coloridas na figura ao lado. É porque essas manchas não indicam as partículas em si, mas apenas as probabilidades de elas serem encontradas naquelas regiões coloridas (a mecânica quântica só lida com probabilidades).

Bom, em princípio, isso seria algo inteiramente análogo a duas bolas de bilhar colidindo e depois batendo vezes seguidas nas beiradas da mesa. Mas... veja só o que acontece quando as partículas colidem:


Aparecem franjas entre elas. Como isso é possível? Na verdade, é uma manifestação da "dualidade onda-partícula" - o que chamamos "partícula", na verdade, comporta-se como onda. As duas manchas coloridas no início são dois "pulsos" de onda propagando-se pelo espaço. Sim, as "manchas que indicam probabilidades" representam também as próprias ondas. Essas "entidades" podem também se comportar como corpúsculos, dependendo da situação, mas aqui sobressai o seu aspecto ondulatório (afinal, são ondas ou corpúsculos? Nem um nem outro; são alguma outra coisa - que não sabemos o que é - e que se comportam ora como onda, ora como corpúsculo).

Acontece que ondas são capazes de interferir uma com a ontra, somando-se ou subtraindo-se. Na figura acima, vemos as ondas das duas partículas interferindo-se mutuamente.

Agora, veja o que acontece quando as partículas batem nas paredes da caixa:


Aparecem também as franjas de interferência! Mas agora as partículas não estão interferindo uma com a outra - elas estão em cantos opostos da caixa. Suas ondas estão interferindo com elas mesmas - à medida que uma parte reflete na parede e volta, ela interfere com a outra parte, que continua se aproximando.

O que se segue no vídeo é uma sucessão de diferentes padrões, como este abaixo:


Agora, não é possível distinguir as duas partículas, pois as suas ondas se misturaram. As franjas de interferencias ocuparam todo o interior da caixa. Aí desembocamos em outra característica da mecânica quântica, a indistinguibilidade. Duas partículas idênticas, como dois elétrons, são indistinguíveis num sentido completo, ontológico: não é sequer possível "seguir" a trajetória de um deles, como fazemos com formiguinhas caminhando em fila para ter certeza de que estamos seguindo sempre a mesma. Isso acaba tendo efeitos mensuráveis (altera o formato das franjas de interferência, as energias dos elétrons nos átomos etc.). Elas são indistinguíveis mesmo no início do vídeo, quando aparecem duas manchas bem distintas - lembrando que as manchas só indicam as probabilidades, elas não dizem que partícula se manifestará em cada mancha quando formos observá-las.

Mas isso não é o fim da história. As regiões bem delimitadas ressurgem e se dissovem novamente, como abaixo, alternando-se com os padrões:


Aparecem acima quatro regiões, como se fossem agora quatro partículas. Em outras partes do vídeo, aparecem 8 regiões e, em outras, 12! Significa isso que as partículas se dividiram? Não: lembremos que o que essas manchas representam é a probabilidade de se encontrar uma partícula em cada região do espaço. As partes vermelhas são os locais mais prováveis. Então continuam sendo duas partículas, só que agora cada uma pode ser encontrada em alguma das quatro regiões distintas do espaço. Observe que parecem ser quatro metades, como se fossem duas divididas entre dois lados opostos da caixa.

Agora, veja que desenho curioso aparece um pouco mais adiante:


Aparecem de novo quatro regiões concentradas, mas com listas de interferência!

A partir daí, a evolução faz todo o caminho de volta até as duas manchas iniciais aparecerem novamente.

É por essas e outras que a mecância quântica me parece tão fascinante: é um mundo inteiramente diferente, que funciona com regras diferentes, totalmente diversas do que diz a intuição. Os físicos têm que construir novas intuições à medida que avançam nos seus estudos.

Obs.: Um resumo deste artigo aparece no blog Ciências e Adjacências, com mais três vídeos semelhantes no final.

domingo, 13 de março de 2011

Aprendendo com falsos fósseis

Uma interessante dica para professores e estudantes de paleontologia pode ser a foto ao lado, que apareceu no Earth Science Picture of the Day do último dia 10. Foi tirada pelo o físico e astrônomo amador Mário Sérgio Teixeira de Freitas, de Curitiba. Parece a marca de um fóssil, talvez de alguns milhões de anos, não é? Mas é apenas o "registro" de um raminho de árvore com um par de folhas que caiu no cimento fresco em uma calçada de Brasília.

A ideia do Mário, professor da Universidade Tecnológica Federal do Paraná (UTFPR), é que o processo de formação desse baixo-relevo tem algumas semelhanças com o da constituição de fósseis reais e por isso pode servir de metáfora para ajudar a compreensão dos fenômenos naturais por detrás dos mesmos. Ou seja, entender um processo natural de pelo menos 10 mil anos, praticamente inacessível à percepção humana, por meio de um análogo enolvendo escalas de tempo muito menores e perfeitamente assimiláveis. Ora, as folhas, levadas pelo vento, simplesmente "pousaram" no cimento Portland fresco, que rapidamente secou, perpetuando suas marcas; depois, provavelmente, as intempéries destruíram seus tecidos, deixando apenas a impressão no chão. O resultado foi um registro suficientemente detalhado para que se possa identificar sua origem, por meio da observação da forma das nervuras: trata-se de folhas de goiabeira!

De brinde, a analogia também reforça a necessidade de se distinguir os inúmeros fósseis falsos dos reais, um problema sério tanto para paleontólogos profissionais como para os amantes desses fascinantes registros de eras arcanas.