quinta-feira, 13 de outubro de 2016

O TEMPO PODE EXISTIR APENAS NA SUA MENTE



Se alguém me dissesse que o tempo não existe, eu ia ficar bem irritada. Afinal de contas, tudo na nossa vida gira em torno dele: nossos compromissos, nossas memórias, nossos planos. Todas as pressões que enfrentamos no cotidiano, inclusive a de não perder tempo, apontam para seu efeito profundo.
Mas é exatamente isso que pesquisadores da Universidade de Harvard e do Instituto Astellas de Medicina Regenerativa estão sugerindo: que o tempo é algo completamente subjetivo e só existe na nossa cabeça.

Seta do tempo

O novo estudo afirma que a gravidade não é forte o suficiente para forçar todos os objetos do universo para a frente – o que bagunça a teoria da “seta do tempo”.
Graças à seta virada para a frente do tempo, o jovem torna-se velho, o passado torna-se o presente, etc. Você não pode “descozinhar” um ovo, certo?
Mas, se esquecermos a nossa própria perspectiva por um segundo, e olharmos para o universo como um todo, tanto quanto podemos dizer, a única coisa que governa o comportamento do universo são as leis da física.
E o problema é que todas, menos uma dessas leis, são reversíveis – o que significa que os mesmos efeitos ocorrem independentemente de se o tempo está correndo para a frente ou para trás. A gravitação de Newton, a eletrodinâmica de Maxwell, a relatividade especial e geral de Einstein, a mecânica quântica… Nenhuma dessas equações que melhor descrevem nosso universo depende do tempo.

Termodinâmica

Um exemplo desta qualidade “reversível” do universo é o caminho de um planeta orbitando uma estrela, de acordo com a força da gravidade. Não importa se o tempo corre para a frente ou para trás, órbitas planetárias seguem exatamente os mesmos caminhos. A única diferença é a direção da órbita.
Sendo assim, seria o tempo subjetivo?O sim seria definitivo, não fosse uma coisa chamada segunda lei da termodinâmica.
De acordo com a segunda lei da termodinâmica, conforme o tempo passa, a quantidade de desordem – ou entropia – no universo sempre aumenta. Isso explica os ovos cozidos – eles foram desordenados para ser cozinhados, e não podemos voltar atrás e diminuir a quantidade de distúrbio aplicada a um sistema particular.
Por esta razão, a segunda lei da termodinâmica pode ser considerada a fonte da seta do tempo.

Universos paralelos

Muitos físicos suspeitam que, quando a gravidade força suficientes partículas minúsculas a interagir umas com as outras, a seta virada para a frente do tempo emerge, e a entropia pode aumentar.
As regras, em seguida, mudam para favorecer um universo mais “sem direção”, uma vez estas partículas minúsculas começam a interagir com coisas muito maiores.
Mas, para que isso funcione, a entropia deve ter aumentado, o que significa que o universo tinha que ter começado mais ordenado do que é agora – algo que alguns físicos têm tentado explicar ao sugerir que existem universos paralelos onde o tempo corre para a frente, para trás, para os lados, para qualquer direção.

Decoerência

Em um esforço para chegar ao fundo de um dos maiores enigmas da ciência moderna, dois físicos decidiram testar a hipótese de que a gravidade é a força por trás de toda essa loucura.
O ponto em que as partículas fazem a transição de ser governadas pela seta do tempo a ser regida pelas leis sem direção do universo é conhecido como decoerência.
A hipótese mais proeminente para explicar a decoerência é a equação Wheeler-DeWitt, que prevê que as “costuras” entre mecânica quântica e clássica são apagadas graças à gravidade.
Mas quando os físicos Dmitry Podolsky, da Universidade de Harvard, e Robert Lanza, do Instituto Astellas de Medicina Regenerativa, fizeram medições da gravidade através da equação de Wheeler-DeWitt, eles descobriram que ela não explica como a direção do tempo emerge.
Na verdade, de acordo com os seus resultados, os efeitos da gravidade são lentos demais para explicar uma seta universal de tempo.

Subjetividade

Se a gravidade é muito fraca para ser a coisa que segura uma interação entre moléculas conforme elas fazem a transição – a decoerência -, não pode ser forte o suficiente para forçá-las na mesma direção de tempo.
“Nosso trabalho mostra que o tempo não existe, mas sim é uma propriedade emergente que depende da capacidade do observador de preservar informações sobre acontecimentos vividos”, explica Lanza para o portal Discover Magazine.
Isto sugere que a seta do tempo é subjetiva e determinada pelo observador. “Em seus trabalhos sobre a relatividade, Einstein mostrou que o tempo existe em relação ao observador. Nosso papel dá um passo adiante, argumentando que o observador, na verdade, cria o tempo”, Lanza disse ao portal Wired.

Polêmica

A ideia é, naturalmente, controversa. Outros cientistas, como o físico Yasunori Nomura, da Universidade da Califórnia em Berkeley, apontam falhas no estudo, como o fato de que a dupla não levou em conta o tecido do espaço-tempo, e que introduziu uma qualidade na equação – “tempo do observador” – que ninguém sabe se é de fato real.
“A resposta depende se o conceito de tempo pode ser definido matematicamente sem incluir observadores no sistema”, argumenta Nomura.
Ainda não podemos explicar a estranheza do tempo no universo, mas Lanza e Podolsky indicam que talvez não estejamos considerando sua natureza subjetiva.

Os níveis de CO2 da Terra acabaram de cruzar um limite realmente assustador – e é permanente


De acordo com dados recentes, os níveis de carbono atmosférico ultrapassaram oficialmente 400 partes por milhão (ppm), e não devem retornar nunca mais a níveis seguros.
Ou seja, a situação é permanente.

Níveis perigosos

O nível “seguro” de dióxido de carbono, ou CO2, na atmosfera é considerado 350 ppm.
A última vez que a Terra experimentou níveis consistentemente tão altos foi aproximadamente 4 milhões de anos atrás, de acordo com estudos.
Agora, pesquisadores do Instituto Scripps de Oceanografia, nos EUA, afirmam que o valor de CO2 para setembro de 2016 será definitivamente acima de 400 ppm, provavelmente em torno de 401 ppm.
O que é pior é que setembro normalmente tem os mais baixos níveis de CO2 atmosféricos no ano. Logo, é bastante possível que outubro produza um valor mensal ainda superior.

Cenário sombrio

Segundo Ralph Keeling, diretor do programa de CO2 do Instituto Scripps, até novembro deste ano, podemos até mesmo quebrar a barreira de 410 ppm.
“Parece cauteloso concluir que não veremos um valor mensal inferior a 400 ppm este ano – ou nunca mais para o futuro indefinido”, disse.Mesmo se, por algum milagre, todos nós parássemos de emitir dióxido de carbono amanhã, levaria décadas para voltar abaixo do limite de 400 ppm. E isso não deve acontecer, como todos nós bem sabemos.
“Na melhor das hipóteses (nesse cenário), pode-se esperar um equilíbrio no curto prazo, e assim os níveis de CO2 provavelmente não mudariam muito – mas só iria começar a cair em uma década ou mais”, explica Gavin Schmidt, climatologista-chefe da NASA. “Na minha opinião, nós nunca mais vamos ver um mês abaixo de 400 ppm”.

Medições

Em 2013, o Observatório Mauna Loa, no Havaí, o melhor para medir dióxido de carbono do mundo, atingiu a marca de 400 ppm e, gradualmente, todas as outras estações de observação seguiram o exemplo.
Em maio de 2016, o mundo passou coletivamente para o limite de 400 ppm, com o Observatório Polo Sul, na Antártida, sendo o último a atingir a marca.

Quando foi a última vez que o planeta teve níveis de CO2 como este?

A análise dos níveis de carbono em núcleos de gelo pode nos dar indicações do nível de CO2 atmosférico na Terra até 800.000 anos atrás. Os cientistas estimam que é “inconcebível” que eles teriam sido muito superiores a 300 ppm até então.
De acordo com David Etheridge, principal pesquisador da Organização de Pesquisa da Comunidade Científica e Industrial, da Austrália, a análise de sedimentos marinhos pode nos dar estimativas de níveis históricos de CO2 que vão mais longe, até cerca de 2 milhões de anos atrás.Um estudo de 2009 publicado na revista Science concluiu que a última vez na história da Terra que os níveis foram tão altos por um período sustentado foi entre 15 e 20 milhões de anos atrás.
Mais recentemente, um estudo de 2011, publicado em Paleoceanography, disse que os níveis poderiam ter sido comparáveis aos de hoje muito mais tarde do que isso – entre 2 e 4,6 milhões de anos atrás.
Independentemente de ter sido a 15 ou 4 milhões de anos atrás, os seres humanos nunca passaram por isso, visto que na era humana os níveis nunca estiveram tão altos. Isso significa que não podemos realmente dizer o que vai acontecer a seguir

Fotossíntese artificial está a um passo da aplicação prática

Fotossíntese artificial está a um passo da aplicação prática
Este é o módulo de fotossíntese artificial, que produz hidrogênio ao ser exposto ao Sol - a água entra por um dos canos laterais, e o hidrogênio é extraído pelo outro. [Imagem: Forschungszentrum Jülich]


Usina de fotossíntese artificial
Tido como promissora há décadas, a tecnologia da fotossíntese artificial acaba de criar o primeiro projeto prático para separação fotoeletroquímica da água, usando energia solar para produzir hidrogênio.
Este é um passo decisivo para a aplicação da tecnologia em escala comercial, tornando realidade a promessa de criação de uma fonte de energia sustentável e totalmente limpa.
A fotossíntese artificial emprega uma combinação de células solares e de eletrolisadores, convertendo diretamente a energia solar no "meio de armazenamento universal", o hidrogênio, que pode ser queimado ou usado em células a combustível para produzir eletricidade sem poluição.
O conceito apresentado por uma equipe alemã é flexível tanto no que diz respeito aos materiais utilizados, como ao tamanho do sistema.
Usina modular
O sistema criado por Burga Turan e seus colegas da Universidade Julich é bastante diferente das abordagens em escala de laboratório apresentadas até agora.
Em vez de pequenos componentes individuais interligados por fios, Turan idealizou um sistema compacto e autônomo, construído com materiais facilmente disponíveis e de baixo custo, e permitindo a conexão de qualquer tipo de célula solar.
Com uma área superficial de 64 cm², o protótipo ainda parece ser pequeno para um projeto que se apresenta como a caminho do uso prático, mas a vantagem está justamente nesse esquema modular: basta repetir a unidade básica e ir conectando uma por uma, até se alcançar a potência desejada.
Fotossíntese artificial está a um passo da aplicação prática
Esquema (em cima) e protótipo da célula de fotossíntese artificial (embaixo), medindo 64 cm². [Imagem: Bugra Turan et al. - 10.1038/NCOMMS12681]
Lançamento no mercado
No momento, a eficiência na conversão solar para hidrogênio do protótipo é de 3,9%.
Se parece pouco, é bom lembrar que a fotossíntese natural só atinge uma eficiência de 1%. Além disso, a equipe afirma que já tem planos para que essa eficiência chegue a 10% dentro de um período de tempo "relativamente curto".
Isto sem contar a possibilidade de tirar proveito do desenvolvimento de novas categorias de células solares, como as de perovskitas, que já bateram na casa dos 20% de eficiência em protótipos de laboratório.
"Esta é uma das grandes vantagens do novo design, que permite que os dois componentes principais sejam otimizados separadamente: a parte fotovoltaica, que produz eletricidade a partir da energia solar, e a parte eletroquímica, que usa esta energia para a separação da água," disse Turan.
"Pela primeira vez, estamos trabalhando no sentido de um lançamento no mercado. Nós criamos a base para tornar isto uma realidade," acrescentou seu colega Jan-Philipp Becker.
Bibliografia:
Upscaling of integrated photoelectrochemical water-splitting devices to large areas
Bugra Turan, Jan-Philipp Becker, Félix Urbain, Friedhelm Finger, Uwe Rau, Stefan Haas
Nature
DOI: 10.1038/NCOMMS12681

Risco de outro Chernobyl ou Fukushima é maior que anunciado

Risco de outro Chernobyl ou Fukushima é maior que anunciado
A equipe disponibilizou seu banco de dados em código aberto, listando todos os eventos nucleares analisados - 216 ao todo. [Imagem: Spencer Wheatley et al.]


Riscos da energia nuclear
Uma equipe de especialistas em análise de risco, que acaba de publicar a maior avaliação já feita até hoje sobre os acidentes nucleares, adverte que o próximo desastre na escala de Chernobyl ou Fukushima pode acontecer muito mais cedo do que o público se dá conta.
Os pesquisadores da Universidade de Sussex, na Inglaterra, e do instituto ETH de Zurique, na Suíça, analisaram mais de 200 acidentes nucleares e, estimando e levando em conta os efeitos das respostas da indústria aos desastres anteriores, forneceram uma avaliação sombria dos riscos da energia nuclear.
Eles estimam que catástrofes na escala de Fukushima e Chernobyl têm maior chance de ocorrer do que de não ocorrer de uma a duas vezes por século, e que acidentes na escala do colapso da usina Three Mile Island, em 1979, nos EUA (com danos de cerca de 10 bilhões de dólares) são mais propensos a ocorrer do que a não ocorrer a cada 10 a 20 anos.
Fiscalização e promoção da indústria nuclear
Dados públicos "falhos e lamentavelmente incompletos" da indústria nuclear estão levando a uma atitude de excesso de confiança quanto ao risco da indústria nuclear, adverte o estudo.
A equipe aponta para o fato de que sua análise independente contém três vezes mais dados do que os fornecidos publicamente pela própria indústria. Isto, argumentam, provavelmente se deve ao fato de que a Agência Internacional de Energia Atômica, que compila os dados, tem um duplo papel de regulação do setor e de promovê-lo.
"Nossos resultados são preocupantes. Eles sugerem que a metodologia padrão usada pela Agência Internacional da Energia Atômica para prever acidentes e incidentes - particularmente quando foca as consequências dos eventos extremos - é problemática. O próximo acidente nuclear pode ocorrer muito mais cedo ou ser mais mais grave do que o público imagina," disse o professor Benjamin Sovacool, coautor do trabalho.
A equipe pede também uma reconsideração total da forma como os acidentes nucleares são classificados, argumentando que o método atual (a escala INES de sete pontos) é "altamente imprecisa, mal definida e muitas vezes inconsistente".
Banco de dados de acidentes nucleares
Os 15 eventos nucleares mais caros da história analisados pela equipe são:
  1. Chernobyl, Ucrânia (1986) - $259 bilhões
  2. Fukushima, Japão (2011) - $166 bilhões
  3. Tsuruga, Japão (1995) - $15.5 bilhões
  4. TMI, Pensilvânia, EUA (1979) - $11 bilhões
  5. Beloyarsk, União Soviética (1977) - $3.5 bilhões
  6. Sellafield, Reino Unido (1969) - $2.5 bilhões
  7. Athens, EUA (1985) - $2.1 bilhões
  8. Jaslovske Bohunice, Tchecoslováquia (1977) - $2 bilhões
  9. Sellafield, Reino Unido (1968) - $1.9 bilhões
  10. Sellafield, Reino Unido (1971) - $1.3 bilhões
  11. Plymouth, EUA (1986) - $1.2 bilhões
  12. Chapelcross, Reino Unido (1967) - $1.1 bilhões
  13. Chernobyl, Ucrânia (1982) - $1.1 bilhões
  14. Pickering, Canadá (1983) - $1 bilhões
  15. Sellafield, Reino Unido (1973) - $1 bilhões
A equipe disponibilizou seu banco de dados em código aberto, listando todos os eventos nucleares analisados - 216 ao todo - incluindo datas, locais, o custo em dólares norte-americanos e as classificações oficiais de magnitude do acidente.
Este, que é o maior banco de dados público de acidentes nucleares já compilado, pode ser acessado no endereço https://innovwiki.ethz.ch/index.php/Nuclear_events_database.
Bibliografia:
Reassessing the safety of nuclear power
Spencer Wheatley, Benjamin K. Sovacool, Didier Sornette
Energy Research & Social Science
Vol.: 15: 96
DOI: 10.1016/j.erss.2015.12.026

Of Disasters and Dragon Kings: A Statistical Analysis of Nuclear Power Incidents and Accidents
Spencer Wheatley, Benjamin Sovacool, Didier Sornette
Risk Analysis
DOI: 10.1111/risa.12587

Magnetismo oceânico mostra lado elétrico da Terra

Magnetismo oceânico mostra lado elétrico da Terra
Acredita-se que o campo magnético da Terra funciona como uma "bolha" que nos protege dos rigores do espaço e de suas partículas energéticas - mas como ele é gerado ainda é uma incógnita. [Imagem: ESA]


Campo magnético da Terra
Que a Terra possui um campo magnético é algo bem estabelecido porque é possível medi-lo.
Mas o que gera esse campo magnético é algo que a ciência ainda luta por descobrir.
Já sabemos que o campo magnético tem origem em diferentes partes da Terra e que cada uma dessas fontes gera um magnetismo de intensidade diferente. Já sabemos também que o campo magnético da Terra está enfraquecendo. Mas exatamente como ele é gerado e por que ele tem intensidades diferentes é algo por se esclarecer.
Foi em busca de novos conhecimentos nesta área que, em 2013, a ESA (Agência Espacial Europeia) lançou o seu trio de satélites Swarm.
Agora, os dados dos três observatórios trouxeram informações sobre uma fonte de magnetismo em nosso planeta que poucos se dão conta: as marés oceânicas.
E, de forma um tanto surpreendente, os primeiros dados, que ainda precisarão ser monitorados por um prazo mais longo para ajudar na questão do magnetismo terrestre, trouxeram informações inéditas sobre o interior da Terra e o funcionamento das placas tectônicas.
Magnetismo das marés oceânicas
Magnetismo oceânico mostra lado elétrico da Terra
O movimento da água salgada dos oceanos ao longo do campo magnético da Terra gera uma corrente elétrica, que por sua vez influencia a Terra até quilômetros de profundidade. [Imagem: ESA/DTU Space]
Graças às medições de grande precisão da missão Swarm, pareadas com as da missão Champ - uma missão que terminou em 2010, depois de medir os campos gravitacionais e magnéticos da Terra por mais de 10 anos - os cientistas conseguiram "pinçar" o campo magnético gerado pelas marés dos oceanos no meio dos dados, um feito inédito, que ajuda a entender um pouco da variabilidade do nosso escudo protetor.
Mas o melhor estava por vir: a equipe descobriu que o campo magnético gerado pelo movimento dos oceanos funciona como uma "bobina de acoplamento" que permite fazer um retrato da natureza elétrica do manto superior da Terra, centenas de quilômetros abaixo do fundo do oceano.
Quando a água salgada do mar flui através do campo magnético terrestre, esse movimento gera uma corrente elétrica que, por sua vez, induz uma resposta magnética que adentra profundamente, abaixo da crosta terrestre, atingindo o manto.
"Os satélites Swarm e Champ permitiram que distinguíssemos entre a litosfera 'rígida' do oceano e a 'astenosfera' mais flexível por baixo," explicou Alexander Grayver, do ETH de Zurique, na Suíça.
Campo magnético e placas tectônicas
"Estes novos resultados são importantes para a compreensão das placas tectônicas, a teoria que argumenta que a litosfera da Terra consiste em placas rígidas que deslizam sobre a astenosfera mais quente e menos rígida e que serve como um lubrificante, permitindo o movimento das placas," disse Grayver.
A litosfera é a parte externa rígida da Terra, que consiste na crosta e no manto superior, enquanto a astenosfera fica logo abaixo da litosfera e é mais quente e mais fluida do que a litosfera.
"O trabalho mostra que, até cerca de 350 km abaixo da superfície, o grau no qual o material conduz correntes elétricas está relacionado com a composição [da crosta]. Além disso, a análise mostra uma clara dependência da configuração tectônica da placa oceânica. Estes novos resultados indicam também que, no futuro, poderemos ter uma visão completa 3D da condutividade abaixo do oceano," disse Roger Haagmans, cientista da missão Swarm.
"Temos muito poucas formas de explorar profundamente a estrutura do nosso planeta, mas a Swarm está dando uma contribuição valiosa para a compreensão do interior da Terra que aumenta o nosso conhecimento de como a Terra funciona como um sistema num todo," completou Rune Floberghagen, diretor da missão Swarm.
Bibliografia:

Satellite tidal magnetic signals constrain oceanic lithosphere-asthenosphere boundary
Alexander V. Grayver, Neesha R. Schnepf, Alexey V. Kuvshinov, Terence J. Sabaka, Chandrasekharan Manoj, Nils Olsen
Science Advances
Vol.: 2, no. 9, e1600798
DOI: 10.1126/sciadv.1600798

terça-feira, 30 de agosto de 2016

Quinta força fundamental da natureza pode ter sido descoberta

Quinta força fundamental da natureza pode ter sido descoberta
O sinal da nova partícula, uma espécie de fóton com massa, é conhecida como anomalia do berílio 8 (8Be).[Imagem: Jonathan L. Feng et al.]


Revolucionário

Experimentos realizados por físicos húngaros em meados do ano passado podem ter descoberto uma nova partícula subatômica que revela a existência de uma quinta força fundamental da natureza.
"Se for verdade, é revolucionário," disse Jonathan Feng, da Universidade da Califórnia, nos EUA, cuja equipe está apresentando uma nova teoria para tentar explicar a anomalia encontrada pelos físicos húngaros.
"Há décadas nós conhecemos as quatro forças fundamentais: gravitação, eletromagnetismo e as forças nucleares forte e fraca. Se for confirmada por outros experimentos, esta descoberta de uma possível quinta força vai mudar completamente a nossa compreensão do Universo, com consequências para a unificação das forças e para a matéria escura," acrescentou.
Nova partícula de luz
Em 2015, uma equipe da Academia de Ciências da Hungria estava à procura de "fótons escuros", partículas que poderiam explicar a elusiva matéria escura, que os físicos dizem que compõe cerca de 85% da massa do Universo.
Eles não encontraram exatamente o que procuravam, mas descobriram uma anomalia no decaimento radioativo que aponta para a existência de um fóton com massa, uma partícula de luz exatamente 30 vezes mais pesada do que um elétron.
"Os experimentalistas não foram capazes de afirmar que era uma nova força," disse Feng. "Eles simplesmente viram um excesso de eventos que indica uma nova partícula, mas não estava claro para eles se era uma partícula de matéria ou de uma partícula que transmite força".
O grupo de Feng então reuniu, além desses novos dados, todos os outros experimentos anteriores na área e demonstrou que as evidências desfavorecem fortemente tanto partículas de matéria quanto os fótons escuros.
Eles então propuseram uma nova teoria que sintetiza todos os dados existentes e determina que a descoberta pode indicar uma quinta força fundamental da natureza.
Quinta força fundamental da natureza pode ter sido descoberta
[Imagem: Marc Airhart (UTexas-Austin)/Steve Jacobsen (Northwestern University)]
Vários experimentos já levantaram a possibilidade da existência de uma Quinta Força Fundamental da natureza

Bóson X protofóbico
 
A nova teoria estabelece que, em vez de ser um fóton escuro, a nova partícula pode ser um "bóson X protofóbico". Enquanto a força elétrica normal age sobre elétrons e prótons, este bóson recém-descoberto interage apenas com elétrons e nêutrons - e em uma gama extremamente limitada.
"Não há nenhum outro bóson que tenhamos observado que tenha essa mesma característica. Nós simplesmente o chamamos de 'bóson X', onde X significa desconhecido," explicou Timothy Tait, coautor da nova teoria.
Feng destaca que novos experimentos são cruciais, o que não será difícil, já que a partícula não é muito pesada e há vários laboratórios ao redor do mundo que conseguem gerar a energia necessária para que ela apareça: "Mas a razão pela qual tem sido difícil encontrá-la é que suas interações são muito fracas. Como a nova partícula é tão leve, existem muitos grupos experimentais que trabalham em pequenos laboratórios ao redor do mundo que podem seguir as indicações iniciais, agora que eles sabem onde procurar".
Força mais fundamental e Setor Escuro
Como tantas outras descobertas científicas, esta abre campos inteiramente novos de investigação.
Uma possibilidade intrigante é que essa potencial quinta força fundamental pode se juntar às forças eletromagnética e nuclear forte e fraca como "manifestações de uma força maior, mais fundamental," defende Feng.
Citando o entendimento que os físicos têm do Modelo Padrão, ele especula que pode haver também um "setor escuro" inteiro, com sua própria matéria e suas próprias forças - englobando assim, a matéria escura e a energia escura.
"É possível que estes dois setores [o normal e o escuro] falem um com o outro e interajam através de interações de alguma forma veladas, mas fundamentais," propõe ele. "Esta força do setor escuro pode se manifestar como esta força protofóbica que estamos vendo como resultado do experimento húngaro. Num sentido mais amplo, ela se encaixa com a nossa pesquisa original para compreender a natureza da matéria escura." Bibliografia:
Particle Physics Models for the 17 MeV Anomaly in Beryllium Nuclear Decays
Jonathan L. Feng, Bartosz Fornal, Iftah Galon, Susan Gardner, Jordan Smolinsky, Tim M. P. Tait, Philip Tanedo
Physical Review Letters
DOI: 10.1103/PhysRevLett.116.042501
http://arxiv.org/abs/1608.03591

Protophobic Fifth Force Interpretation of the Observed Anomaly in 8Be Nuclear Transitions
Jonathan L. Feng, Bartosz Fornal, Iftah Galon, Susan Gardner, Jordan Smolinsky, Tim M. P. Tait, Philip Tanedo
https://arxiv.org/abs/1604.07411

Observation of Anomalous Internal Pair Creation in 8Be: A Possible Signature of a Light, Neutral Boson
A. J. Krasznahorkay, M. Csatlós, L. Csige, Z. Gácsi, J. Gulyás, M. Hunyadi, T. J. Ketel, A. Krasznahorkay, I. Kuti, B. M. Nyakó, L. Stuhl, J. Timár, T. G. Tornyi, Zs. Vajta
Physical Review Letters
http://arxiv.org/abs/1504.01527


Fonte: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=quinta-forca-fundamental-natureza-ter-sido-descoberta&id=010130160819&ebol=sim#.V8YrLDU70g4

segunda-feira, 30 de maio de 2016

Relógio nuclear: 10 vezes mais preciso que relógio atômico

Relógio nuclear
O núcleo de um isômero do elemento tório é único que se conhece que pode se tornar a base de um relógio nuclear. [Imagem: Christoph Düllmann]
Relógio atômico e relógio nuclear
Parecia improvável que alguém pudesse reclamar da precisão dos relógios atômicos, nossos cronômetros mais precisos. O recordista atual atrasaria no máximo um segundo em 20 bilhões de anos - o que é bastante se comparado com os 13,7 bilhões de anos que os cientistas calculam como sendo a idade do Universo.
Pois não apenas é desejável superar essa precisão para inúmeras aplicações práticas, como também agora é possível fazer isso.
Mas o que pode superar a precisão dos relógios atômicos?
Os relógios nucleares que, em vez de se basearem no átomo inteiro, usarão apenas seu núcleo, que é 100 mil vezes menor e, portanto, está muito menos sujeito a interferências externas.
Núcleo atômico único
Os físicos sonham com os relógios nucleares há muito tempo, mas só agora Lars von der Wense e seus colegas da Universidade Ludwig-Maximilians de Munique, na Alemanha, conseguiram demonstrar experimentalmente um estado de energização há muito tempo procurado - um isômero nuclear em um isótopo do elemento tório (Th).
Embora sejam conhecidos mais de 3.300 tipos de núcleos atômicos, apenas o núcleo do isótopo de tório com massa atômica 229 (Th-229m) oferece uma base adequada para um relógio nuclear. Ele é o único a apresentar um estado de excitação - ganho de energia - que fica apenas ligeiramente acima do seu estado fundamental.
Como ele não ocorre naturalmente, há 40 anos os físicos tentavam produzi-lo em laboratório para ver se a teoria está correta.
"Espera-se que o Th-229m apresente uma meia-vida muito longa, entre minutos e várias horas. Assim, deve ser possível medir com precisão extremamente alta a frequência da radiação emitida quando o estado nuclear excitado cair de volta para o estado fundamental," explica o professor Peter Thirolf.
Relógio nuclear será 10 vezes mais preciso que relógio atômico
O experimento tour de force exigiu o desenvolvimento de um complexo sistema sensor para capturar e medir o núcleo atômico de tório. [Imagem: Lars von der Wense/LMU Munich]
Meia-vida
A possibilidade de construir um relógio nuclear tornou-se realidade quando a equipe conseguiu detectar diretamente pela primeira vez a transição do Th-229m.
Eles usaram urânio-233 que, ao sofrer um decaimento radioativo alfa, gerou o tório-229, que foi então isolado na forma de um feixe de íons. Parece fácil, mas eles descreveram seu experimento como um tour de force, uma proeza fruto de muito esforço e habilidade - basta ver que ninguém mais havia conseguido em mais de 40 anos de tentativas.
O próximo passo será caracterizar as propriedades da transição nuclear do tório 229 de forma mais precisa, particularmente a meia-vida do isômero, e checar se a diferença de energia entre os dois estados bate com o que a teoria prevê.
Esses dados permitirão definir um laser que possa ser ajustado para a frequência de transição, o que é um pré-requisito para um controle óptico dessa transição, tornando então realidade o relógio nuclear.
http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=relogio-nuclear&id=010130160520&ebol=sim#.V0zsiSE72hE

terça-feira, 22 de março de 2016

Descoberto exoplaneta do tamanho da Terra na zona habitável

Descoberto exoplaneta parecido com a Terra na zona habitável
A anã vermelha Kepler-186 é muito menor e mais fria do que o Sol - mas a "exoterra" está bem mais próxima dela do que a Terra do Sol.[Imagem: NASA Ames/SETI Institute/JPL-Caltech]
Outras Terras
Aconteceu o que todos sabiam ser uma questão de tempo: acaba de ser encontrado um exoplaneta muito parecido com a Terra, tanto em termos de dimensões, quanto na proximidade "certa" da sua estrela.
Este é um marco no caminho para a descoberta de planetas habitáveis orbitando outras estrelas.
Nos últimos anos tem havido um progresso contínuo na busca por exoplanetas que orbitam estrelas semelhantes ao Sol, incluindo alguns exoplanetas situados na zona habitável.
Nenhum deles, porém, tinha o tamanho da Terra - os que estavam na zona habitável não tinham o tamanho da Terra, e os parecidos com a Terra não estavam na zona habitável.
Agora, depois de anos estudando dados do telescópio espacial Kepler, Elisa Quintana e seus colegas detectaram cinco planetas orbitando uma estrela conhecida como Kepler-186, situada a 500 anos-luz da Terra.
E o planeta mais distante da estrela, chamado Kepler-186F, parece estar precisamente na zona habitável da Kepler-186, é rochoso e tem praticamente o mesmo tamanho da Terra - ele é apenas 10% maior do que o nosso planeta.
Segundo os pesquisadores, essa "outra Terra" recebe a quantidade certa de radiação solar - nem demais e nem de menos - que, e aqui é bom prestar atenção no "se", se o Kepler-186F tiver água em sua superfície, essa água pode teoricamente estar no estado líquido.
Descoberto exoplaneta parecido com a Terra na zona habitável
Ilustração artística de uma "exoterra": se o Kepler-186F tiver água em sua superfície, essa água pode teoricamente estar no estado líquido. [Imagem: NASA Ames/SETI Institute/JPL-Caltech]
Geração espontânea
Como a água líquida é fundamental para a vida na Terra, muitos astrônomos acreditam que a busca por vida extraterrestre deve se concentrar em planetas onde haja possibilidade de ocorrer água em estado líquido.
O Sol, por exemplo, é distante da Terra o suficiente para não vaporizar os oceanos, mas perto o bastante para manter a água em estado líquido, o que é exigido pela maior parte da vida como a conhecemos.
A Kepler-186 é uma estrela classe M - também conhecida como anã vermelha - muito menor e mais fria do que o Sol. Contudo, o exoplaneta Kepler-186F está muito mais próximo da estrela do que a Terra do Sol, com seu ano durando 130 dias.
Muito comuns na Via Láctea, essas estrelas têm algumas características que as tornam alvos promissores para se procurar vida extraterrestre.
Por exemplo, estrelas pequenas vivem muito mais tempo do que as estrelas maiores, o que significa que há um período muito mais longo de tempo para que ocorram as reações químicas que se acredita darem origem à vida e, eventualmente, a evolução biológica - a teoria científica atual, conhecida como abiogênese, defende que a vida surge por geração espontânea, a partir de reações entre compostos inertes.
Por outro lado, as estrelas pequenas tendem a ser mais ativas do que as estrelas do tamanho do nosso Sol, o que significa que elas apresentam mais erupções solares, potencialmente disparando mais radiação em direção aos seus planetas

Fonte: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=exoplaneta-tamanho-terra-zona-habitavel&id=020130140417#.VvHmnTE8pb0

Quais ETs vão nos ver primeiro?


Quais ETs vão nos ver primeiro?
A projeção da órbita da Terra em direção à esfera celeste traça uma área de busca que é apenas dois milésimos do céu inteiro. [Imagem: René Heller/Ralph Pudritz]
Trânsito planetário
A busca por vida fora da Terra - de ETs inteligentes em particular - tem ocupado muitas mentes, telescópios e radiotelescópios há anos.
René Heller e Ralph Pudritz, do Instituto Max Planck, na Alemanha, acreditam que é possível otimizar essa busca invertendo o raciocínio usado até agora para procurar pelos ETs.
As técnicas mais utilizadas visam a chamada zona habitável das estrelas, onde os exoplanetas têm temperaturas capazes de manter água em estado líquido.
Na técnica do trânsito planetário, o exoplaneta é detectado quando ele passa à frente de sua estrela em relação à Terra, o que causa uma variação no brilho da estrela, uma variação pequena, mas detectável. E já está em desenvolvimento a "espectroscopia de trânsito", uma técnica que permitirá estudar a atmosfera dos exoplanetas, detectando, por exemplo, sinais de uma civilização industrial.
Ocorre que essas técnicas não conseguem enxergar todos os exoplanetas de todas as estrelas porque os dois devem estar em um ângulo preciso quando vistos a partir da Terra.
Trânsito alienígena
Ora, e se observadores extraterrestres estiverem procurando por alienígenas - nós - usando esses mesmos métodos?
Então, se eles estão lá, podemos concentrar nossas buscas na parte do céu a partir da qual os habitantes de um exoplaneta conseguiriam detectar a Terra pela técnica do trânsito. Assim, aumentariam nossas chances de detectar sinais de uma civilização alienígena que nos visse e pudesse estar tentando se comunicar conosco.
A ideia parece boa porque a projeção da órbita da Terra ao redor do Sol em direção à esfera celeste traça uma área que equivale a apenas dois milésimos do céu inteiro. Assim, poderíamos concentrar nossas buscas nessa faixa, aumentando as chances de encontrar em planeta habitado cujos habitantes também estejam tentando fazer contato.
"O ponto-chave desta estratégia é que ela limita a área de pesquisa a uma parte do céu muito pequena. Como consequência, pode levar um tempo menor que a duração de uma vida humana para descobrirmos se existem ou não astrônomos extraterrestres que encontraram a Terra. Eles podem ter detectado a atmosfera biogênica da Terra e começado a entrar em contato com quem quer que esteja em casa," disse Heller.
Se for assim, é importante que alguém esteja de prontidão para quando o telefone tocar, defendem os dois pesquisadores. E, como já temos os radiotelescópios para tentar detectar essas ligações, bastará apontá-los para as regiões mais promissoras.

Quais ETs vão nos ver primeiro?
Projeção no céu das estrelas de onde seria possível enxergar a Terra pela técnica do trânsito planetário. [Imagem: René Heller/Ralph Pudritz]
Estrelas candidatas
Um levantamento inicial indicou cerca de 100.000 estrelas que podem ter planetas na posição adequada para ver a Terra pela técnica do trânsito.
Como isso ainda é muito, a dupla levou em conta a idade das estrelas, já que é importante que elas não sejam jovens demais para que a vida tenha tido tempo para se desenvolver e restringiu a distância máxima às nossas vizinhanças cósmicas. O resultado é uma lista de 82 estrelas parecidas com o Sol que satisfazem todos os critérios para ter um exoplaneta cujos hipotéticos habitantes possam nos encontrar e que não estejam longe demais.
A dupla afirma que seu catálogo pode ser usado imediatamente, por exemplo, pelo Instituto SETI, que busca sinais de vida alienígena inteligente.
"É impossível prever se os extraterrestres usam as mesmas técnicas observacionais que nós. Mas eles têm de lidar com os mesmos princípios físicos que nós, e os trânsitos solares da Terra são um método óbvio para nos detectar," concluiu Heller
Fonte: http://www.inovacaotecnologica.com.br/index.php

quarta-feira, 9 de março de 2016

Terapia contra o câncer tem resultados surpreendes, curando 94% dos pacientes

Publicado em 17.02.2016
terapia cancer promiss
É importante ser cauteloso antes de anunciar “milagres da medicina”, mas uma nova terapia contra o câncer tem tido bons resultados e o otimismo dos últimos testes pode ser justificado.
O tratamento personalizado, chamado de imunoterapia, conseguiu fazer com que 94% dos pacientes entrassem em remissão, sendo que em todos eles a quimioterapia tinha falhado anteriormente.
O estudo é encabeçado por Stanley Riddell, do Fred Hutchinson Cancer Research Center, uma instituição de pesquisa sobre o câncer que fica em Seattle, nos EUA. Um artigo sobre os resultados da pesquisa está sendo revisado para ser publicado.

Engenharia genética

O tratamento se concentra em componentes do sistema imunológico chamados de células T.
Naturalmente, essas células passam seus dias passeando pelo corpo atrás de ameaças e matando todos os invasores ou células cancerosas com que se deparam. Porém, muitas vezes elas não são potentes ou persistentes o suficiente para lidar com tumores se dividindo rapidamente.
Com os avanços da engenharia genética, os cientistas perceberam que poderiam explorar essas células, aumentando suas habilidades inatas para que visem especificamente tumores.

A técnica

Riddell e seus colegas modificaram células T para fabricar um receptor que reconhece uma molécula chamada CD19. Como este receptor encontra-se quase exclusivamente em um tipo de células brancas do sangue chamado de célula B, isto melhora sua capacidade de reconhecer e destruir tumores originários a partir destas células, tais como certas leucemias e linfomas.
Depois de as células T do paciente serem removidas, o gene para este receptor sintético é adicionado. Duas semanas mais tarde, as células modificadas são colocadas de volta no paciente.
Os cientistas utilizam um subconjunto específico de células T que apresentam uma elevada capacidade regenerativa, o que significa que elas permanecem no corpo durante períodos de tempo prolongados após o transplante. Isto tem a vantagem adicional de oferecer proteção a longo prazo contra o câncer, uma vez que dá ao sistema imunitário uma memória duradoura que pode ser resgatada caso o tumor reapareça.

Resultados promissores

Os testes realizados pela equipe têm sido até agora pequenos, mas promissores.
Os resultados mais impressionantes vieram de um grupo de 35 pacientes com leucemia linfoblástica aguda, em que 94% entraram em remissão.
E em mais de 40 indivíduos com linfoma, mais do que 50% também viram seus sintomas cancerosos desaparecem. Considerando que outros tratamentos tinham falhado nesses pacientes e muitos só tinham alguns meses de vida, esses resultados soam ainda mais impressionantes.
É importante notar, entretanto, que alguns pacientes experimentaram efeitos colaterais graves com o tratamento, incluindo problemas neurológicos e diminuição da pressão arterial. Agora, os pesquisadores vão trabalhar para reduzir esses efeitos, e mais estudos serão feitos para determinar se eles são duradouros

Célula solar-eletroquímica armazena luz do Sol e gera hidrogênio
Protótipo do reator fotoeletroquímico, que opera nas temperaturas elevadas encontradas nas usinas termossolares. [Imagem: TU Wien]

Célula solar-eletroquímica armazena luz do Sol e gera hidrogênio



Célula fotoeletroquímica
As células fotovoltaicas convertem a luz solar em eletricidade, mas sua eficiência diminui a temperaturas elevadas.
Outra linha de trabalho tenta usar a energia elétrica produzida pelas células solares para a produção de hidrogênio, um combustível limpo, mas a eficiência energética desse processo ainda é limitada.
Pesquisadores da Universidade Tecnológica de Viena, na Áustria, desenvolveram agora um novo conceito: eles conseguiram combinar a energia fotovoltaica gerada em altas temperaturas com uma célula eletroquímica, que poderá produzir hidrogênio.
A luz ultravioleta do Sol é usada diretamente para bombear íons de oxigênio através de um eletrólito sólido, o que significa que a energia da luz UV é armazenada quimicamente. Com as adaptações necessárias, este método também pode ser usado para quebrar as moléculas da água em hidrogênio e oxigênio.
"Isso nos permitirá concentrar a luz solar com espelhos e construir plantas de grande escala com um alto índice de eficiência. As células fotovoltaicas comuns, no entanto, só funcionam bem até 100º C. Uma planta com concentradores solares opera em temperaturas muito mais elevadas," disse Georg Brunauer, idealizador da nova célula.
Fotovoltaica com eletroquímica
O que Brunauer fez foi combinar diversos óxidos metálicos para montar uma célula que combina a energia fotovoltaica com a eletroquímica.
A chave para o sucesso foi uma escolha bem feita dos materiais usados. Em vez do silício tradicionalmente usado nas células fotovoltaicas, ele optou pelas perovskitas, tidas como o material do futuro não apenas para células solares, mas também para LEDs e memórias RAM.
"Nossa célula consiste de duas partes diferentes - uma parte fotoelétrica na parte superior e uma parte eletroquímica embaixo. Na camada superior, a luz ultravioleta cria portadores de carga livres, assim como em uma célula solar padrão," explica Brunauer.
Os elétrons nesta camada são imediatamente capturados e dirigidos para a camada inferior, da célula eletroquímica. Uma vez lá, esses elétrons são usados para ionizar o oxigênio. Esses íons de oxigênio negativos deslocam-se então através de uma membrana na parte eletroquímica da célula, onde são armazenados.
O protótipo funcionou a contento, mas a tensão gerada - 0,9 Volt - não é suficiente ainda para a produção direta de hidrogênio. "Esse objetivo está ao nosso alcance, agora que demonstramos que a célula funciona," disse Brunauer.
 Bibliografia: UV-Light-Driven Oxygen Pumping in a High-Temperature Solid Oxide Photoelectrochemical Cell
Georg Christoph Brunauer, Bernhard Rotter, Gregor Walch, Esmaeil Esmaeili, Alexander Karl Opitz, Karls Ponweiser, Johann Summhammer, Juergen Fleig
Advanced Functional Materials
DOI: 10.1002/adfm.201503597


Fonte: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=celula-solar-eletroquimica-armazena-luz-sol-gera-hidrogenio&id=010115160307&ebol=sim
 

Usinas solares começam a flutuar pelo mundo

Usinas solares começam a flutuar pelo mundo
[Imagem: United Utilities/Divulgação]

Usinas solares flutuantes
A maior fazenda solar flutuante da Europa está sendo construída em um reservatório na Inglaterra.
Mais de 23.000 painéis solares fotovoltaicos estão sendo colocados na superfície do reservatório Rainha Elizabeth II, perto de Surrey.
A fazenda, que terá o tamanho equivalente a oito campos de futebol contíguos, deverá gerar 5,8 megawatts-hora (MWh) de eletricidade.
Parte dessa energia será usada para alimentar o sistema de tratamento de água instalado na própria represa.
O empreendimento é uma obra conjunta entre a empresa de abastecimento de água e a concessionária de energia que atende a região.
Usinas solares começam a flutuar pelo mundo
O processo de montagem é simples e rápido. [Imagem: LightSource/Divulgação]
Construção em terra
A plataforma flutuante terá 57.500 metros quadrados, composta por mais de 61.000 flutuadores e 177 âncoras.
Os painéis solares estão sendo instalados sobre a plataforma em um sistema de construção simples e de baixo custo, com as peças sendo montadas em terra e simplesmente lançadas sobre a água.
A maior usina solar flutuante na Europa até agora também está na Inglaterra, tendo sido inaugurada perto de Manchester no Natal passado, medindo 45.500 metros quadrados.
Usinas solares começam a flutuar pelo mundo
A fazenda solar vai sendo montada e simultaneamente lançada na água. [Imagem: LightSource/Divulgação]
Maior usina solar flutuante do mundo
As duas usinas inglesas parecem pequenas perto da maior usina solar flutuante do mundo, que está sendo construída no Japão.
A fabricante de painéis solares Kyocera está construindo a fazenda solar em Chiba, na represa Yamakura.
Ela terá 180.000 metros quadrados quando concluída, fornecendo energia suficiente para abastecer 4.970 casas no padrão de consumo japonês - a fazenda solar inglesa conseguirá abastecer 1.800 casas.
Usinas solares começam a flutuar pelo mundo
Protótipo da fazenda solar brasileira, lançado na represa de Balbina. [Imagem: Bianca Paiva/Agência Brasil]
Fazendas solares brasileiras
O Brasil também está começando a investir na exploração de energia solar em lagos de usinas hidrelétricas.
A utilização dos lagos das hidrelétricas permite aproveitar as subestações e as linhas de transmissão das usinas, evitar a desapropriação de terras e ainda proteger o reservatório, evitando a evaporação.
O primeiro projeto foi lançado na semana passada na Hidrelétrica de Balbina, no município de Presidente Figueiredo, no Amazonas.
As placas fotovoltaicas flutuantes no reservatório da usina amazonense vão gerar, inicialmente, um 1 MW de energia. A previsão é que, até outubro de 2017, a potência seja ampliada para 5 MW.
Um projeto semelhante, com a mesma capacidade de geração de energia solar de Balbina, será lançado nesta semana na Hidrelétrica de Sobradinho, na Bahia.

Fonte: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=usinas-solares-comecam-flutuar-pelo-mundo&id=010115160308&ebol=sim#.VuDH9kA8pb0
 

quarta-feira, 2 de março de 2016

A Força | Nerdologia 115

Como as ondas gravitacionais podem revolucionar a astronomia

astronomia ondas
Na esteira do anúncio histórico da semana passada da descoberta das ondas gravitacionais pelo Laser Interferometer Gravitational-Wave Observatory (LIGO), o físico britânico e teórico de buracos negros Stephen Hawking foi rápido em parabenizar a colaboração liderada pelos Estados Unidos, compartilhando seu entusiasmo pela histórica notícia para a astronomia.
“Estes resultados confirmam várias previsões muito importantes da teoria da relatividade geral de Einstein”, disse Hawking em uma entrevista à BBC. “Ela confirma a existência de ondas gravitacionais diretamente”.
Como é evidente, a detecção direta destas ondulações no espaço-tempo não só confirma a famosa teoria da relatividade geral de Einstein, mas também abre nossos olhos para um universo anteriormente “obscuro”. A astronomia usa o espectro electromagnético (como a luz visível, raios-X, infravermelho) para estudar o universo, mas os objetos que não irradiam no espectro eletromagnético passam despercebidos. Agora que sabemos como detectar ondas gravitacionais, pode haver uma mudança de paradigma na forma como detectar e estudar alguns dos fenômenos cósmicos mais energéticos.
“As ondas gravitacionais fornecem uma maneira completamente nova de olhar o universo”, disse Hawking. “A capacidade de detectá-las tem o potencial de revolucionar a astronomia”.

Evidência observacional

Usando as estações gêmeas de observação do LIGO, localizadas na Louisiana e em Washington, nos EUA, os físicos não só detectaram ondas gravitacionais; as ondas gravitacionais que foram detectadas tinham um sinal muito claro que estava estreitamente alinhado a modelos teóricos de uma fusão entre buracos negros a cerca de 1,3 bilhões de anos-luz de distância. A partir da análise inicial do sinal de fusão de buracos negros, Hawking percebeu que o sistema parece alinhar-se com as teorias que ele desenvolveu na década de 1970.
“Esta descoberta é a primeira detecção de um sistema binário de buracos negros e a primeira observação de buracos negros em uma fusão”, disse ele. “As propriedades observadas deste sistema são consistentes com as previsões sobre os buracos negros que eu fiz em 1970 aqui em Cambridge”, apontou.
Hawking talvez seja mais conhecido por seu trabalho que une teoria quântica com a física dos buracos negros, percebendo que os buracos negros evaporam ao longo do tempo, levando à sua participação no fascinante “Paradoxo Firewall”, que continua a ressoar em toda a comunidade física teórica. Mas aqui ele se refere ao seu teorema da área do buraco negro, que constitui a base da “segunda lei” da mecânica do buraco negro. Esta lei estabelece que a entropia, ou o nível de desorganização da informação, não pode diminuir dentro de um sistema de buraco negro ao longo do tempo. Uma consequência disto é que quando dois buracos negros entram em fusão, como o evento de 14 de setembro, a área dos horizontes de eventos combinados “é maior do que a soma das áreas dos buracos negros iniciais”. Além disso, Hawking ressalta que esse sinal de onda gravitacional parece estar de acordo com as previsões com base no “teorema da calvície” dos buracos negros, o que significa, basicamente, que um buraco negro pode ser simplesmente descrito por seu momento angular, massa e carga.
Os detalhes por trás de como esse primeiro sinal de ondas gravitacionais de uma fusão entre buracos negros concorda com a teoria são complexos, mas é interessante saber que esta primeira detecção já permitiu que os físicos confirmem teorias com décadas de idade e que, até agora, tinham pouca ou nenhuma evidência observacional.

Enigma do crescimento

“Esta descoberta apresenta ainda um enigma para os astrofísicos”, disse Hawking. “A massa de cada um dos buracos negros é maior do que o esperado para aqueles formados pelo colapso gravitacional de uma estrela – então como é que ambos os buracos negros se tornaram tão grandes?”.
Esta questão toca em um dos maiores mistérios da astronomia que cercam a evolução dos buracos negros. Atualmente, os astrônomos estão tendo dificuldades em compreender como os buracos negros crescem e ficam tão grandes. Em um extremo da escala, há buracos negros com “massa estelar” que se formam imediatamente após uma estrela massiva se tornar uma supernova, e também temos uma abundância de evidências para a existência dos buracos negros gigantes e supermassivos que vivem nos centros da maioria das galáxias. Há uma desconexão, no entanto.
Se os buracos negros crescem através da fusão e do consumo de matéria estelar, deveria haver evidência de buracos negros de todos os tamanhos. Mas buracos negros de massa “intermediária” e buracos negros com algumas dezenas de massas solares são surpreendentemente raros, o que coloca algumas teorias da evolução dos buracos negros em dúvida.
Com a detecção das ondas gravitacionais veio a constatação de que uma fusão binária entre buracos negros as causou. Dois buracos negros, pesando 29 e 36 massas solares, colidiram e se fundiram em um só, gerando um sinal de onda gravitacional muito claro. Mas, como apontado por Hawking, como buracos negros desta massa específica vieram a existir poderia fornecer algumas pistas de como os buracos negros crescem. [Space.com]

Fonte: hypescience.com 

Um meteoro explodiu a 1.900 km do Rio de Janeiro

Publicado em 24.02.2016
um-meteoro-explodiu-a-1850-km-do-rio-de-janeiro-3
No dia 2 de fevereiro, um meteoro com cerca de 7 metros de diâmetro explodiu sobre o Oceano Atlântico, e os cientistas estimam que seja a maior explosão atmosférica desde Chelyabinsk.
Segundo dados da Nasa, a explosão aconteceu às 14h UTC no sul do Oceano Atlântico, liberando uma energia de 13.000 toneladas de TNT, viajando a uma velocidade de 15,5 km/s e desintegrando-se a uma altitude de cerca de 31 km. É quase a mesma energia liberada pela Bomba de Hiroshima, que soltou energia equivalente a 15.000 toneladas de TNT.
Como foi uma explosão no meio do Atlântico, não foi registrada por nenhuma câmera. A detecção da explosão atmosférica foi feita provavelmente pelos militares dos Estados Unidos, e comunicada à Nasa. Eles podem ter registrado a explosão com um satélite, ou então detectado a onda de choque ou o som da explosão usando microfones supersensíves.
Apesar de tanta energia, este meteoro perdeu para o de Chelyabinsk, que liberou o equivalente a 450.000 toneladas de TNT, cerca de 40 vezes mais. Se tivesse acontecido sobre o Rio de Janeiro, talvez causasse alguma vibração em janelas e assustasse as pessoas.
A Nasa estima que meteoritos de cerca de 10 metros atinjam a Terra uma vez a cada 10 anos, mas este número está sendo questionado. Um dos problemas com a estimativa é que depende do registro destes eventos, e como 3/4 da superfície do planeta são cobertos por água, a maioria não tem testemunhas. [IFLScienceBadAstronomy]

Fonte: hypescience.com

5 boatos sobre o vírus da Zika que não passam de boatos

Embora não haja nenhuma prova absoluta de que o vírus da Zika esteja por trás da onda de microcefalia no Brasil e surtos de síndrome de Guillain-Barré em seis países diferentes, as principais autoridades de saúde do mundo estão quase certas de que esta relação é verdadeira.
“A cada dia que passa, a evidência de que ele é a causa destes problemas aumenta”, disse recentemente Thomas R. Frieden, diretor dos Centros de Controle e Prevenção de Doenças, órgão do governo dos EUA.
Bruce Aylward, que está liderando a resposta da Organização Mundial da Saúde, afirma: “Neste momento, o vírus é considerado culpado até que se prove o contrário”.
Mesmo assim, muitos rumores culpando outras causas potenciais surgiram recentemente, e as autoridades têm trabalhado duro para desmascarar os boatos. A seguir, você vê quais são as teorias mais proeminentes que estão surgindo nas redes sociais, juntamente com as respostas dos cientistas.

5. Os mosquitos geneticamente modificados são a verdadeira causa dos defeitos de nascimento?

rumores zika 5
 
Esse som de zumbido que você está ouvindo é um “não”.
A empresa britânica Oxitec lançou mosquitos geneticamente modificados no Brasil em uma tentativa de controlar a dengue. Mas os surtos de microcefalia posteriores a isso ocorreram em lugares distantes. Por exemplo, a maior parte da liberação de mosquitos foi em Piracicaba, que fica a quase 3 mil quilômetros de Recife, onde a microcefalia é mais comum. Os mosquitos também foram liberados nas Ilhas Cayman, na Malásia e no Panamá, sem causar problemas do tipo.
Mosquitos voam menos de dois quilômetros em suas vidas. Além disso, apenas mosquitos machos foram liberados. Eles não mordem os seres humanos ou causam a propagação da doença, e foram geneticamente programados para morrer rapidamente.

4. Poderia um larvicida na água potável estar causando a microcefalia?

rumores zika 4 Não.
Entomologistas têm taxado como “ridícula” a ideia de que o larvicida Pyriproxyfen poderia ter causado uma onda tão grande de defeitos de nascimento. Ele não ataca as células nervosas; o larvicida é um mímico químico de um hormônio dos insetos que sinaliza às larvas a parar de crescer, e hormônios de insetos não colocam os seres humanos em perigo.
O Pyriproxyfen foi aprovado nos Estados Unidos em 2001 e é vendido como um tratamento de pulgas para cães e gatos e como um spray de tapete para matar pulgas. Os bebês têm passado perto do material por anos sem dano aparente. E no Brasil e na Polinésia, a lesão cerebral ocorreu às crianças em muitas comunidades onde o larvicida não foi usado.

3. A culpa é das vacinas?

rumores zika 3 Não é plausível.
Rumores culparam tanto um “lote ruim de vacina contra a rubéola” quanto a introdução de uma nova vacina contra a coqueluche no Brasil, ou o alumínio presente nesta vacina. Também não é plausível.
Não houve surto de rubéola entre as mulheres grávidas e nenhuma evidência de um “lote ruim”. Nenhuma vacina é usada apenas no nordeste do Brasil. A nova vacina contra a coqueluche tem sido usada desde a década de 1990 em muitos países. Ela foi introduzida porque uma versão mais antiga estava causando dor, febre e, em casos raros, convulsões. Não microcefalia.

2. E se outra doença está causando microcefalia e síndrome de Guillain-Barré?

rumores zika 2 Evidências crescentes apontam para o Zika.
O surto de microcefalia começou em cidades brasileiras da região nordeste, onde os médicos já haviam visto milhares de pessoas com uma “doença misteriosa”, que mais tarde foi provada ser causada pelo vírus Zika. Embora não haja nenhum teste rápido para o Zika, os sintomas são facilmente reconhecidos – erupções cutâneas, olhos vermelhos, febre e dor nas articulações, em grande número de pacientes que quase nunca estão perigosamente doentes.
Embora inicialmente tenham diagnosticado de forma equivocada, os médicos brasileiros sabiam há meses que tinham um grande surto de uma doença incomum em suas mãos. A mesma coisa aconteceu em Yap Island na Micronésia em 2007 e na Polinésia Francesa em 2013.
Dentro de algumas semanas após a “doença misteriosa” ter aparecido, os médicos começaram a notar um aumento na paralisia em adultos – sintoma da síndrome de Guillain-Barré, uma doença auto-imune que pode ser desencadeada por infecções virais. Houve uma oscilação semelhante nos casos na Polinésia Francesa, em 2013, e os casos estão agora surgindo na Colômbia, El Salvador, Suriname, Venezuela e Martinica – sempre em sintonia com surtos da Zika. Em alguns casos, o vírus Zika foi encontrado no sangue ou na urina das vítimas.
Cerca de um ano após o surto ter começado no nordeste do Brasil, os casos de microcefalia começaram a aparecer entre os recém-nascidos da região. Patologistas no Brasil, Estados Unidos e Europa têm encontrado agora o vírus da Zika no tecido cerebral de fetos microcéfalos natimortos e abortados e no líquido amniótico em torno deles.

1. O Brasil não poderia estar apenas subestimando a microcefalia durante anos?

rumores zika 1
É possível, mas não por margens suficientemente grandes para explicar o surto atual.
Alguns pesquisadores acreditam que o Brasil já relatou casos de forma imprecisa, mas não por uma grande margem. Definições de microcefalia variam, mas os países europeus e norte-americanos relatam aproximadamente entre um caso a cada 5.000 nascidos vivos e um caso a cada 10.000. Antes do aparecimento da Zika, o Brasil relatava um caso a cada 20.000 nascidos vivos – em outras palavras, a metade ou um quarto de quantos poderiam realmente ter acontecido.
Antes do surto, os sete estados no nordeste do Brasil, onde a microcefalia apareceu pela primeira vez, relatavam cerca de 40 casos de microcefalia em um ano. Em outubro, neurologistas de Recife, que normalmente viam bebês microcéfalos muito raramente, tiveram que lidar com o tratamento de cinco ou mais de cada vez. Até 17 de novembro, apenas os sete estados tiveram 400 casos notificados. Um mês depois, apenas um deles, Pernambuco, informou mais de 600.
Eventualmente, o Ministério da Saúde decidiu que os médicos estavam fazendo um “sobreregistro” dos casos. Por isso, em dezembro, as autoridades de saúde do país decidiram mudar sua definição para incluir apenas as crianças com cabeças com menos de 32 centímetros de circunferência na definição de microcefalia, em vez de 33, como era feito até então. Mas os casos continuaram a crescer. Mesmo a subestimação anterior não explicaria a enorme onda que se seguiu ao surgimento da Zika.

Espalhando os boatos

Rumores como estes geralmente surgem nos primórdios das epidemias com frequência. “Os rumores são a alma de qualquer epidemia”, afirma o Dr. Howard Markel, historiador médico da Universidade de Michigan, nos EUA.
Ele fornece vários exemplos: na Idade Média, a peste foi atribuída a judeus, que foram acusados ​​de envenenamento de poços. Quando a doença irrompeu na Chinatown de San Francisco, nos EUA, em 1900, as autoridades locais culparam as “dietas de arroz”. Um surto de cólera em 1892 em Nova York foi atribuído a peixes contaminados.
Nos primeiros dias da AIDS, rumores persistiram durante anos dizendo que a doença não acontecia devido a um vírus, mas que era uma “doença do estilo de vida gay”, e que o sistema imunológico era comprometido por uma combinação de promiscuidade sexual e drogas como o nitrato de amilo, teoricamente usadas pelos homens exaustos pelas noites nas discotecas. Quando descobriu-se que a AIDS também era difundida na África, os mesmos “negadores” culparam uma combinação de febres crônicas, perda de peso, diarreia e tuberculose.
Mas por que os rumores se espalham de forma tão eficaz?
Há três razões.
Primeiro, afirma Markel, porque muitos contêm algumas pitadas de verdade. Mosquitos geneticamente modificados foram lançados no Brasil e o larvicida foi realmente usado em algumas cidades.
Em segundo lugar, porque muitos rumores têm um bode expiatório conveniente. Doenças já foram atribuídas a grupos étnicos. Agora, corporações são as principais suspeitas. O Pyriproxyfen no Brasil foi feito pela Sumitomo, uma empresa química japonesa, e rumores sobre ele enfatizaram a parceria anterior da Sumitomo com a Monsanto, uma empresa americana vista com desconfiança por muitos ambientalistas.
Em terceiro lugar, porque alguns rumores são espalhados por pessoas proeminentes. O rumor sobre o larvicida foi iniciado por um grupo que se autodenomina “médicos das cidades pulverizadas”. Entre os que negavam a AIDS estavam Peter H. Duesberg, um biólogo molecular premiado, e Thabo Mbeki, que adotou a opinião do Dr. Duesberg enquanto presidente da África do Sul. [NY Times]

Fonte: http://hypescience.com/