Entrevista: Roberto Kraenkel
Pesquisador do IFT é um dos criadores do site Águas Futuras, que faz previsões sobre os níveis de água do sistema Cantareira
Roberto Kraenkel é físico e pesquisador no Instituto de Física Teórica da Unesp. Com o colega Paulo Inácio Prado, biólogo da USP, e o pós-doutorando Renato Mendes Coutinho, criou o site Águas Futuras, que faz previsões sobre os níveis de água do Sistema Cantareira. A página da Internet foi colocada no ar dia 14 de abril, e é muito mais do que um modelo matemático para saber se o volume do Cantareira irá aumentar ou diminuir nos próximos dias; é, também, uma tentativa de tornar mais qualificada a discussão sobre um gravíssimo problema que afeta a maior cidade do país, e de mostrar como a ciência pode contribuir para resolvê-lo, evitar novas crises e melhorar a gestão de recursos hídricos do estado e do país.
Conheça o site Águas Futuras: http://cantareira.github.io/
Ricardo Aguiar – Prof. Kraenkel, como surgiu a ideia de fazer esse projeto?
Roberto Kraenkel – Ao longo do ano passado, acompanhamos a grave crise de água que afetou, e ainda está afetando, a cidade e o estado de São Paulo. Percebemos que as discussões a respeito desse assunto eram extremamente desqualificadas. Queríamos entender melhor esse problema e tentar contribuir para tornar essa discussão pública mais qualificada.
Como trabalhamos com modelos matemáticos, buscamos entender a dinâmica de um reservatório de água – por exemplo, a taxa de absorção de água depende do volume do sistema naquele momento? Quais são os fatores mais importantes para prever e evitar crises como essa?
RA – Como funciona o modelo que criaram?
RK – Para construir o modelo usamos dados do Sistema Cantareira. O volume de água do sistema depende da quantidade de água que entra – a vazão afluente – e da quantidade de água que sai – a vazão efluente.
A quantidade que entra depende das chuvas, mas depende também do volume do sistema. Quando cheio, o sistema absorve mais água – a chuva cai diretamente na água do reservatório. Quando vazio, o sistema absorve menos água – a chuva cai também sobre o solo, que a absorve.
A quantidade que sai depende de quanta água a Sabesp retira por dia. Essa quantidade antes da crise era, em média, de 33m3/s. Com a crise, passou para 14m3/s. Embora não se fale em racionamento, fica claro que a Sabesp está enviando menos água para abastecer a cidade.
Para fazer as projeções, nos baseamos nas taxas de chuva de anos anteriores. Fizemos projeções baseadas em três cenários: com as chuvas desse ano se mantendo na média dos anos anteriores; com as chuvas desse ano ficando abaixo da média; e com as chuvas desse ano ficando acima da média. Desse modo, contemplamos desde o cenário mais pessimista até o cenário mais otimista.
RA – Como está a atual situação do Sistema Cantareira e quais as previsões mais otimistas e pessimistas?
RK – O Sistema Cantareira ainda não conseguiu recuperar o volume morto utilizado na crise.
O volume morto representa cerca de 22,6% do volume total do sistema. Atualmente, o Cantareira está com pouco mais de 15% de seu volume. Isso significa que precisamos subir mais 7 pontos percentuais para recuperarmos o volume morto.
Para manter nossas projeções precisas, fazemos previsões para no máximo 30 dias. No momento, a previsão mais otimista para daqui um mês é que o Sistema Cantareira esteja com 17,6% de sua capacidade. O mais pessimista é que esteja com apenas 12,9%.
Todas as outras projeções podem ser encontradas em nosso site.
RA – Como foi acessar os dados da Sabesp?
RK – Tivemos muita dificuldade para acessar os dados da Sabesp. Todas as informações estão disponíveis em uma página da Internet, porém não há links para essa página. Conseguimos achá-la através de contatos que temos, e se não fosse por isso não teríamos conseguido fazer o modelo.
Gostaríamos de usar esse modelo para fazer projeções para outros reservatórios também, mas é justamente pela dificuldade de acessar informações que ainda não conseguimos. Em outros estados, simplesmente não há dados disponíveis.
RA – Quais os próximos passos do projeto?
RK – Gostaríamos de elaborar um modelo que pudesse prever crises com antecipação.
O Cantareira tinha um sistema que previa crises. Até o início de 2014, esse sistema não indicava crise alguma. Hoje sabemos que ele estava errado e falhou.
Entretanto, volto a dizer que nosso objetivo é tornar a discussão pública sobre esse gravíssimo problema mais qualificada. Criamos um site, totalmente público, para que todos possam ter acesso a essa informação. Não queríamos simplesmente publicar mais um artigo científico; queríamos contribuir para a resolução de um problema na sociedade.
Continue Reading | Comments Off on Entrevista: Roberto Kraenkel
Cem anos da Relatividade Geral
Teoria, proposta por Albert Einstein em 1915, revolucionou a Física e mudou a maneira de entender o espaço, o tempo, a luz e o universo
A Teoria da Relatividade Geral, proposta por Albert Einstein em 1915, revolucionou a Física e mudou a maneira como nós entendemos o espaço, o tempo, a luz e o universo. Cem anos depois ela continua a ter uma importância fundamental, e prevê fenômenos, como as ondas gravitacionais, que foram detectadas indiretamente apenas na década de 70. Entretanto, há observações que a teoria não explica. Além de ser incompatível com a Mecânica Quântica, a Relatividade Geral não prevê a expansão acelerada do universo e não descreve corretamente a velocidade de rotação de estrelas em torno do centro de galáxias. A melhor solução para esses mistérios são a energia escura e a matéria escura, substâncias cujas existências ainda não foram comprovadas.
“Matéria escura e energia escura são maneiras de entender certas anomalias”, diz Scott Dodelson, pesquisador norte-americano do Fermilab e professor na Universidade de Chicago. “Na verdade, elas podem nem mesmo existir. Pode ser que a nossa compreensão da gravidade esteja errada e que a teoria da Relatividade Geral precise ser modificada para que possamos entender o que observamos. Atualmente, uma pergunta fundamental é: será que precisamos modificar a teoria ou será que essas substâncias realmente existem?”
Matéria e energia escura
Uma das anomalias citadas por Dodelson é a velocidade com que estrelas giram em torno do centro de galáxias. A velocidade real é maior do que a prevista pela teoria para a quantidade de matéria que conseguimos ver – a matéria gera força gravitacional, responsável pelo movimento das estrelas. Quanto mais matéria, maior a velocidade de rotação.
Recentemente esse fenômeno foi comprovado também entre o Sol e o centro da Via Láctea. O trabalho foi feito por Fabio Iocco, do IFT/Unesp e do ICTP-SAIFR, em colaboração com pesquisadores europeus.

Foto da Via Láctea vista do hemisfério sul; o círculo azul no centro ilustra onde haveria matéria escura, de acordo com o estudo de Iocco.
“Há uma possibilidade de a matéria escura não existir, mas, para mim, ela é atualmente a melhor explicação, pois descreve o problema para diferentes escalas e corpos astronômicos”, diz Iocco. “Não sabemos exatamente o que ela é, mas sabemos que é matéria, por gerar força gravitacional, e que não interage com luz. Acredito que nosso trabalho contribuirá com estudos que buscam compreender o que a matéria escura realmente é e como ela está distribuída no universo”.
Outra anomalia é a aceleração de expansão do universo. Para a Relatividade Geral o universo não poderia estar acelerando, pois a matéria como a conhecemos atrai outros corpos, o que desaceleraria a expansão. Os físicos atribuem a aceleração à chamada energia escura, que continua a ser um mistério para a ciência.
Ondas gravitacionais
Uma das previsões corretas da Relatividade Geral são as ondas gravitacionais. Antes da teoria, acreditava-se que o efeito da gravidade era instantâneo. Para isso, a velocidade de propagação da força teria que ser infinita. Em sua Teoria da Relatividade Especial, contudo, Einstein previu que nada viaja em velocidades superiores à da luz. A gravidade teria que se propagar através das ondas gravitacionais.
Por interagirem muito fracamente com a matéria, essas ondas são difíceis de detectar. A comprovação de que elas existiam foi feita em 1974 por Russell Hulse e Joseph Taylor, ao notarem que a órbita de duas estrelas de nêutrons, que giravam uma ao redor da outra, estava diminuindo. O sistema estava perdendo energia, que era liberada na forma de ondas gravitacionais.
Atualmente, grandes experimentos, como o Virgo, na Itália, e o LIGO, nos Estados Unidos, tentam fazer a detecção direta dessas ondas. Como elas causam uma perturbação no espaço ao se propagar, é possível notar seu efeito em um sistema preciso de lasers e espelhos – a onda alteraria a distância entre os espelhos, em cerca de um milionésimo de um bilionésimo de metro, e o tempo para o laser completar o circuito mudaria.
“A detecção direta de ondas gravitacionais seria importante por diversos motivos”, diz Riccardo Sturani, pesquisador do ICTP-SAIFR e membro da colaboração LIGO. “Poderíamos ver corpos que não emitem luz, mas que emitem ondas gravitacionais, e poderíamos comparar as ondas observadas com as previstas pela Relatividade Geral para verificar se a teoria está realmente correta”.
Relatividade Especial e Relatividade Geral
A Teoria da Relatividade Especial foi formulada por Einstein e outros pesquisadores em 1905 e revolucionou a Física por mudar a forma como vemos o tempo e o espaço.
“Na física Newtoniana esses conceitos eram absolutos”, diz o físico Alberto Saa, da Unicamp. “Ou seja, independentemente de você estar parado ou em movimento, o tempo passa de forma igual e o espaço é o mesmo. Já a Relatividade Especial, como o próprio nome diz, mostrou que o tempo e o espaço são relativos – eles dependem do observador e de sua velocidade. Quanto mais alta a velocidade de um corpo, mais devagar o tempo passará para ele, e mais o espaço se contrairá à sua frente”.
Depois, com Teoria da Relatividade Geral, a gravidade deixou de ser vista como uma interação entre corpos e passou a ser vista como uma deformação no espaço-tempo. A massa de um corpo é responsável por causar uma curvatura que afeta o movimento de outros corpos, atraindo-os para perto de si. Quanto maior a massa, maior a deformação.
Além disso, para Newton, a força gravitacional não influenciava a luz. Já para Einstein, massa e energia são equivalentes – como diz sua famosa equação, energia é igual a massa multiplicada pela velocidade da luz ao quadrado, ou E = mc2. Assim, a trajetória de um feixe de luz pode ser alterada pela gravidade.
Uma importante aplicação dessas teorias está nos Global Positioning Systems, os GPSs. Como os satélites que estão em órbita da Terra estão sujeitos a uma força gravitacional diferente da nossa, a teoria de Einstein prevê que seus relógios andariam mais rápido. Quando o primeiro satélite de GPS foi colocado em órbita, o fenômeno foi comprovado experimentalmente. Sem os ajustes que a teoria propõe, o GPS não funcionaria.
Outras teorias
A Relatividade Geral explica fenômenos de escalas macroscópicas, porém não se sabe como aplicá-la em escalas subatômicas. Para estudar esses fenômenos, a Mecânica Quântica é usada. A conciliação entre as duas é um grande desafio para a Física, e algumas teorias, formuladas ao longo do último século, caminham nessa direção.
A Gravitação Teleparalela, ou Teleparalelismo, é uma delas. Criada na década de 50, ela descreve a gravitação através da torção do universo, e não através da curvatura, como a Relatividade Geral. O Teleparalelismo se encaixa dentro do esquema das Teoria de Gauge, que explicam, por relações de simetria, as demais interações da natureza – a eletromagnética, a Força Fraca e a Força Forte.
“Uma das principais características do teleparalelismo é que, diferente da Relatividade Geral, ele permite separar a gravitação de efeitos inerciais”, diz José Geraldo Pereira, pesquisador do IFT/Unesp que, junto com Ruben Aldrovandi, contribuiu para a consolidação da teoria e escreveu o primeiro livro dedicado exclusivamente a ela, Teleparallel Gravity: An Introduction, publicado em 2012. “Podemos, assim, definir inequivocamente a energia do campo gravitacional, o que é impossível com a Relatividade Geral. O teleparalelismo também parece ser mais apropriado para estudar fenômenos gravitacionais na escala quântica”.
A Teoria das Cordas também é bastante estudada e tenta complementar a Relatividade Geral para explicar a gravitação na escala quântica. Elaborada na década de 70, ela também é baseada em simetrias e prevê que as partículas são espécies de cordas unidimensionais que estão em constante vibração.
“Atualmente, a Teoria das Cordas é o modelo mais bem aceito para unir a Relatividade Geral com a Mecânica Quântica”, diz Nathan Berkovits, diretor do ICTP-SAIFR e pesquisador do IFT/Unesp. “Com ela conseguimos prever o espalhamento de ondas gravitacionais, incluindo os efeitos quânticos”.
Para Dodelson, a unificação das teorias é um problema teórico, pois não há observações que exijam que elas sejam conciliadas. O pesquisador acredita que ao longo da próxima década, com experimentos em escalas maiores, obteremos mais dados e alguns modelos serão eliminados. A busca por uma “teoria de tudo” continuará.
“Um grande triunfo da Física é sua habilidade de explicar uma abrangente gama de fenômenos com algumas poucas leis”, diz ele. “Esse reducionismo atingiria o seu limite se todas as leis pudessem ser unificadas em uma única teoria. O problema é que, na maioria dos casos, a unificação de ideias é difícil, quando não é impossível, de se testar”.
*Texto publicado na revista Unesp Ciência, número 62, abril/2015. Veja a versão em PDF clicando aqui.
Continue Reading | Comments Off on Cem anos da Relatividade Geral
ICTP-SAIFR faz novas parcerias com institutos europeus
Acordos com centros de pesquisa em física teórica de Madrid e Paris promoverão intercâmbio de alunos e professores e organização de eventos
O ICTP-SAIFR assinou, em março, dois novos acordos internacionais que irão facilitar e promover colaborações com o Institut de Physique Théorique (IPhT) CEA-Saclay, de Paris, e o Instituto de Física Teórica UAM-CSIC, de Madrid. As parcerias encorajarão o intercâmbio de alunos de doutorado, pós-doutorado e professores entre os centros de pesquisa, e a organização de cursos e workshops em áreas de comum interesse. Os acordos têm uma duração inicial de dois anos, mas há a possibilidade de renovação por um período de mais dois anos.
Intercâmbio e eventos
Um dos principais aspectos das parcerias é a promoção de intercâmbios, com o objetivo de estimular a criação de vínculos e colaborações internacionais entre alunos e pesquisadores desses institutos.
Entre as áreas de pesquisa de maior interesse do IPhT, destacam-se física de altas energias, física matemática, matéria condensada, gravidade quântica e teoria das cordas. Já o instituto espanhol se concentra mais em áreas como cosmologia e astrofísica.
Além dos intercâmbios, as parcerias também estimularão professores de todos os centros de pesquisa a proporem e organizarem projetos de pesquisa e eventos em conjunto, como workshops e cursos. Para isso, cada instituto terá um coordenador que irá receber as propostas e julgá-las.
Para saber mais, os acordos, e todas as informações sobre eles, podem ser acessados no site do ICTP-SAIFR.
Outros acordos
O ICTP-SAIFR também renovou recentemente acordos com o CERN e o Perimeter Institute, do Canadá.
A parceria com o CERN, que abriga o LHC – atualmente o maior acelerador de partículas do mundo -, estimulará colaborações na área de Física de Partículas e promoverá intercâmbios com o centro de pesquisa da Suiça. Já a parceria com o Perimeter Institute, que proporcionou eventos no ICTP-SAIFR como o “Programa em Integrabilidade, holografia e o Conformal Bootstrap” e um minicurso sobre Teoria Quântica de Campos, encorajará pesquisas na área de Teoria de Campos.
O ICTP-SAIFR ainda possui acordos em andamento com outros grandes centros de pesquisa em física teórica do mundo. Entre eles, além do ICTP-Trieste, se destacam o Fermilab, em Chicago – maior centro de pesquisa em Física de Partículas do continente, com o qual o ICTP-SAIFR realizará um curso sobre neutrinos em agosto desse ano – e o NORDITA (Instituto de Física Teórica Nórdico), que tem sede na Suécia e faz pesquisas em diversas áreas, como astrofísica, matéria condensada e física de altas energias.
Continue Reading | Comments Off on ICTP-SAIFR faz novas parcerias com institutos europeus
Curso no ICTP-SAIFR busca ensinar e divulgar métodos numéricos espectrais
George Rawitscher, da Universidade de Connecticut, está ministrando um curso sobre esses métodos computacionais para a solução numérica de equações complexas
Métodos numéricos espectrais são o tema de um curso de um mês de duração que está sendo realizado pelo ICTP-SAIFR e ministrado por George Rawitscher, da Universidade de Connecticut. As aulas, que começaram dia 18 de março e vão até 15 de abril, são abertas a todos os interessados e tem como principal objetivo divulgar e ensinar esses métodos computacionais de resolver equações complexas, que embora criados na década de 70, ainda não são muito conhecidos e utilizados pela comunidade científica.
“Estou muito feliz com essa oportunidade de falar sobre métodos numéricos espectrais aqui no Brasil”, diz Rawitscher, que tem uma conexão especial com o país por ter feito sua graduação na Universidade de São Paulo (USP). “Eles são mais precisos e mais rápidos que outros geralmente utilizados, como os métodos numéricos à diferença finita e a elementos finitos”.
O curso abordará as principais propriedades dos métodos espectrais e várias de suas aplicações, com ênfase na resolução da equação de Schroedinger para problemas de uma dimensão.
Precisão
A principal diferença e vantagem dos métodos espectrais é sua precisão.
Para resolver equações diferenciais ou integrais, por exemplo, os métodos computacionais fazem aproximações, pois precisam transformar um espaço contínuo, com infinitos pontos, em um espaço discreto, com um número finito de pontos. Os métodos de diferença finita e elementos finitos precisam levar em consideração um número muito maior de pontos desse espaço para terem a mesma exatidão dos métodos espectrais.

Métodos espectrais podem ser utilizados para obter uma função de onda a partir do cálculo de sua amplitude e de sua fase.
A cada cálculo, devido à precisão de apenas 8 casas decimais da maior parte dos computadores, surgem erros de arredondamento, que vão se acumulando. Métodos espectrais diminuem esses erros e conseguem obter um resultado bem mais preciso. A principal desvantagem do método é o fato de ser mais complexo e mais difícil de ser ensinado aos alunos.
“Métodos espectrais não usam matrizes esparsas, como os demais”, diz Rawitscher. “As matrizes desse método são não-esparsas, e por isso eles requerem um maior conhecimento sobre matemática para serem dominados. Entretanto, além de serem mais precisos, esses métodos podem ser também mais rápidos. Para obter um resultado com uma precisão semelhante, os métodos espectrais podem ser até 20 vezes mais rápidos”.
Aplicações
O curso de Rawitscher focará principalmente nas aplicações dos métodos espectrais na área de Física, especialmente para resolver a equação de Schroedinger para problemas de uma dimensão. Entretanto, esses métodos podem ter diversas outras aplicações. Ainda dentro da Física, ele pode ser usado na resolução de problemas quânticos que buscam estudar as interações entre átomos que estão distantes entre si.
Já um exemplo de aplicação fora da Física está na área de Geologia: os métodos espectrais podem ser usados para calcular como ondas que causam terremotos se propagam pela Terra. Na Medicina, segundo Rawitscher, os métodos também podem ser usados na análise de dados de exames de tomografia.
“Métodos de diferença finita e elementos finitos são bons, mas foram superados pelos métodos espectrais”, afirma Rawitscher. “Gostaria de popularizar esses métodos na comunidade científica, e esse curso é uma oportunidade para isso”.
Continue Reading | Comments Off on Curso no ICTP-SAIFR busca ensinar e divulgar métodos numéricos espectrais
ICTP-SAIFR realiza cursos em Biofísica e Interação de Proteínas
Eventos discutiram o processo de enovelamento de proteínas e como essas moléculas interagem entre si e com o ambiente ao seu redor
Entre os dias 8 e 13 de março, o ICTP-SAIFR realizou dois eventos dedicados à Biofísica. A área usa ferramentas da física para entender fenômenos biológicos e também se baseia em problemas da biologia para desenvolver ideias de Física. A semana contou com um minicurso de José Nelson Onuchic, pesquisador da Rice University e co-diretor do Center for Theoretical Biological Physics – instituição apoiada pela National Science Foundation, dos Estados Unidos – e com a Escola de Biofísica em Interação de Proteínas.
“É a primeira vez que temos no Brasil um evento, no formato de Escola, dedicado à essa área”, diz Fernando Luís Barroso da Silva, pesquisador da USP e um dos organizadores da Escola. “A Biofísica ganha cada vez mais importância no mundo, mas no Brasil ainda é incipiente, com poucos grupos de pesquisa. Por isso, eventos como esse são importantes para incentivar o desenvolvimento da área no país e estimular colaborações”.
Os cursos tiveram um aspecto bastante interdisciplinar. Os alunos eram provenientes de diversas áreas e níveis de formação: desde biólogos e farmacêuticos até físicos e desde alunos de graduação até doutores. Marcelo Poleto, por exemplo, é formado em bioquímica e faz mestrado na Universidade Federal do Rio Grande do Sul na área de Biologia Celular e Molecular.
“Durante a Escola tivemos a oportunidade de discutir em detalhes essa área, tanto em grupos de alunos como com professores já experientes”, diz ele. “Espero que o evento tenha outras edições”.
Proteínas
Como uma espécie de introdução à Escola, José Nelson Onuchic ministrou um pequeno curso sobre Biofísica no dia 8 de março. Entre os principais temas abordados por ele estavam a predição de estruturas e sistemas dinâmicos de proteínas: como funcionam as máquinas moleculares dentro de nossas células?
Desde a metade do século passado, sabemos que o DNA codifica proteínas, que são formadas por cadeias de aminoácidos. As proteínas podem ser encontradas em formas não-funcionais e funcionais. Para se tornarem funcionais precisam assumir uma estrutura tridimensional – processo chamado de enovelamento. Com simulações feitas em computador e experimentos em laboratório, Onuchic tenta prever a estrutura que uma proteína terá baseado em uma sequência inicial de aminoácidos e também entender como proteínas assumem essa estrutura 3D.
“Quando temos cadeias de aminoácidos em condições fisiológicas ideais, eles conseguem formar uma proteína enovelada”, diz o pesquisador. “Queremos entender melhor como ocorre o processo de enovelamento e como funciona a produção de proteínas a partir do DNA”.
Estudos nessa área podem contribuir para uma melhor compreensão das bases moleculares de doenças como Alzheimer e Parkinson, e eventualmente levar à produção de novos fármacos mais eficientes. Além disso, a Biofísica é aplicada também na indústria de alimentos.
“Para fazer com que um chocolate tenha um aroma ou sabor de outro alimento, como laranja, por exemplo, é usada uma técnica chamada de microencapsulamento, desenvolvida em laboratórios de Biofísica”, conta Barroso.
Interações com o ambiente e estudo com o vírus Influenza
Como as proteínas estão imersas dentro de nossas células, para entender sua interação com o ambiente é fundamental entender sua interação com a água. Esse foi um dos temas abordados por Roland Netz, pesquisador da Freie Universität Berlin, da Alemanha, e um dos organizadores da Escola.
Netz busca entender não apenas como proteínas interagem com água, mas também a interação de membranas celulares com o ambiente extracelular. No início desse ano, o pesquisador colaborou com um trabalho que pode, a longo prazo, resultar em uma nova droga capaz de prevenir infecções do vírus da gripe.
“Estamos tentando desenvolver uma molécula que se ligue na superfície do vírus Influenza, causador de gripes, para evitar que ele se ligue em células do nosso corpo e cause uma infecção”, diz ele. “Nos próximos anos, serão realizados novos projetos e testes para, por exemplo, verificar a toxicidade dessa molécula”.
Continue Reading | Comments Off on ICTP-SAIFR realiza cursos em Biofísica e Interação de Proteínas
Vencedores recebem prêmio IFT/ICTP para Jovens Físicos 2014

Na foto, da esquerda para direita, vemos Rogério Rosenfeld (vice-diretor do ICTP-SAIFR), Anderson Seigo Misobuchi, Caique Meira Ronqui, Rodrigo Voivodic, Rodrigo Andrade e Silva e Nathan Berkovits (diretor do ICTP-SAIFR).
O prêmio IFT/ICTP para Jovens Físicos 2014 foi entregue no dia 9 de março em cerimônia realizada no auditório do instituto. A competição premia os 5 melhores colocados em uma prova de física, elaborada por pesquisadores do IFT, que aborda temas como mecânica clássica, mecânica quântica, mecânica estatística e termodinâmica, eletromagnetismo, relatividade especial e física matemática. O teste foi realizado em novembro de 2014 e contou com a inscrição de 61 alunos de idade igual ou inferior a 21 anos.
“Em minha iniciação científica, trabalhei com temas de relatividade geral e gravitação quântica“, diz Rodrigo Andrade e Silva, aluno de física da USP – São Carlos e primeiro lugar do prêmio. Rodrigo fez 49,5 pontos de um total de 60 e teve a maior nota de todas as edições da competição. “Pretendo continuar estudando esses temas no mestrado e seguir carreira acadêmica“.
Já Rodrigo Voivodic, aluno da USP – São Paulo e segundo lugar do Prêmio em dois anos consecutivos, se interessa pela área de Cosmologia. “Também pretendo trabalhar com gravitação quântica no mestrado e continuar na área acadêmica”.
Os demais vencedores dessa edição foram: Guilherme Andretta Faustino (Unicamp), Caique Meira Ronqui (USP – São Paulo) e Anderson Seigo Misobuchi (USP -São Paulo).
O Prêmio IFT/ICTP para Jovens Físicos é realizado todos os anos pela Unesp e incentiva alunos de graduação e pós-graduação a seguirem estudando e pesquisando em áreas de física. Mais informações podem ser encontradas no site do ICTP.
Continue Reading | Comments Off on Vencedores recebem prêmio IFT/ICTP para Jovens Físicos 2014
Temas de vanguarda são discutidos na 3rd Joint Dutch-Brazil School on Theoretical Physics
O Amplituhedron, novo método para estudar a colisão de partículas em aceleradores como o LHC, foi um dos temas abordados
O ICTP-SAIFR promoveu, entre os dias 2 e 6 de fevereiro, a terceira edição de um curso em Física Teórica para discutir temas de vanguarda da área. O evento é realizado em parceria com a Escola de Pesquisa Holandesa de Física Teórica (DRSTP) e trouxe para o Brasil pesquisadores de algumas das melhores universidades do mundo, como Cumrun Vafa, de Harvard, Nima Arkani-Hamed, do Instituto de Estudos Avançados em Princeton, e Jan de Boer, da Universidade de Amsterdã.
O curso foi voltado para alunos de pós-graduação e pesquisadores interessados em Física de Altas Energias. Trinta doutorandos vieram da Holanda especialmente para o evento, com todas as despesas pagas pela DRSTP. Entre os temas discutidos estavam amplitudes de espalhamento e o amplituhedron, emaranhamento e teoria das supercordas.
Amplituhedron
Para estudar partículas subatômicas, entender do que são feitas e como interagem, uma das maneiras utilizadas pela física é mais simples do que se possa imaginar: joga-se uma partícula contra outra e observa-se o que acontece. É o método dos aceleradores, como o LHC. Partículas, como prótons, são arremessadas com grande energia umas contra outras e os cientistas analisam o resultado da colisão.
O mesmo experimento, no entanto, pode apresentar resultados diferentes quando é repetido exatamente da mesma maneira. O termo amplitude de espalhamento refere-se ao estudo das probabilidades de cada um desses resultados possíveis.
Porém, mesmo os processos mais simples exigiam cálculos tão longos e complexos que apenas os mais potentes computadores podiam realizá-los. Modelos matemáticos foram então desenvolvidos para obter o resultado final de modo mais simples e rápido. Um dos mais recentes é baseado em uma estrutura geométrica chamada de Amplituhedron.
“Com o Amplituhedron, podemos simflificar uma equação com milhares de termos em uma equação com um único termo”, diz Arkani-Hamed, um dos pesquisadores que ajudaram a desenvolver o modelo. “Acredito que com essas novas ferramentas teremos grandes progressos nos próximos anos nessa área da física que busca entender a estrutura fundamental da matéria”.
Emaranhamento
Outro tema discutido foi o fenômeno do emaranhamento e suas possíveis aplicações.
Toda partícula tem uma característica intrínseca chamada de spin, um tipo de orientação magnética. Duas partículas estão emaranhadas quando a medida do spin de uma delas permite saber o spin da outra, independente da distância entre elas. Assim, é possível saber a propriedade de uma segunda partícula a partir de uma primeira.
Uma das aplicações do emaranhamento é na área de computação quântica. Diferente de computadores tradicionais, baseados em bits, computadores quânticos seriam baseados em qubits – bits quânticos.
“Os qubits se baseiam no spin de elétrons e, por isso, conseguiriam armazenar uma quantidade muito maior de informação”, explica de Boer. “O próximo passo para o desenvolvimento dos computadores quânticos é melhorar o armazenamento dos qubits, pois caso os spins mudem a informação pode se perder”.
*Texto publicado no Jornal da Unesp, número 308, edição de março/2015.
Continue Reading | Comments Off on Temas de vanguarda são discutidos na 3rd Joint Dutch-Brazil School on Theoretical Physics
Resenha: “O Cerne da Matéria – A aventura científica que levou à descoberta do Bóson de Higgs”, de Rogério Rosenfeld
O físico do IFT/Unesp e do ICTP-SAIFR conta de uma perspectiva única, para cientistas e não cientistas, a fascinante história que culminou na descoberta do Bóson de Higgs
Em 4 de julho de 2012, o Large Hadron Collider (LHC), acelerador de partículas do CERN, anunciou a descoberta do Bóson de Higgs. Na sala da Divisão de Teoria, Rogério Rosenfeld, que passava um ano sabático no laboratório europeu, acompanhava ao vivo o evento histórico. O livro que estava escrevendo durante sua visita ganhava um emocionante capítulo. Em “O Cerne da Matéria – A aventura científica que levou à descoberta do Bóson de Higgs”, lançado em 2013 e 2º lugar do Prêmio Jabuti 2014 na categoria Ciências Exatas, Tecnologia e Informática, não apenas temos a oportunidade de conhecer a perspectiva de quem estava dentro do CERN naquele ano, mas também aprendemos, com uma linguagem compreensível a todos, sobre a história da Física de Partículas e sobre a evolução dos aceleradores, que culminou em uma das mais importantes descobertas da ciência.
“Na época em que estava decidindo onde passar o ano sabático, ainda havia muita incerteza sobre o CERN”, diz Rosenfeld. “Em 2008, ocorreu um grave acidente que adiou o início das atividades do LHC em mais de um ano. E, em 2010, quando começou a funcionar, seu desempenho foi muito abaixo do esperado. Muitos estavam pessimistas. Mas o que aconteceu lá nos anos seguintes superou a expectativa de todos”.
Nessa resenha, destacarei alguns dos muitos aspectos interessantes de “O Cerne da Matéria”.
A história da Física de Partículas – A transição entre o estudo de raios cósmicos e os aceleradores
Antes de falar sobre aceleradores e o Bóson de Higgs, o livro nos conta um pouco da história da Física de Partículas.
A pergunta fundamental que essa área tenta responder é: do que é feito o universo? Quais são as partículas mais fundamentais da natureza, aquelas que compõe toda a matéria e explicam todas as forças? Os aceleradores de partículas são atualmente o melhor método para tentar responder essas perguntas, mas como eram os estudos da área antes deles?

Os raios cósmicos ajudaram, por exemplo, na descoberta do píon. (Fonte da figura: “O papel das emulsões nucleares na institucionalização da pesquisa em física experimental no Brasil”)
“Os aceleradores começaram a ser desenvolvidos na década de 1930”, fala Rosenfeld. “Antes disso, a busca por novas partículas se dava pelo estudo de raios cósmicos – era preciso esperar a incidência desses raios na atmosfera terrestre para tentar detectar novas partículas”. O processo era lento e difícil de replicar.
Já nos aceleradores, a ideia é arremessar partículas em altas velocidades e energias umas contra as outras, dentro de um sistema extremamente controlado. A colisão de partículas, como prótons, pode gerar novas partículas, como quarks, que são detectadas e estudadas. A construção de um acelerador, entretanto, é um processo complexo e exige um planejamento de longo prazo.
A evolução dos aceleradores de partículas
Rogério Rosenfeld nos conta que o primeiro acelerador de partículas, construído em 1931 por Ernest O. Lawrence e chamado de Cíclotron, usava uma energia de 2 mil volts para acelerar prótons a uma energia de 80 mil elétron-volts (80 keV). O aparelho tinha um diâmetro de 11cm. O LHC, em 2012, acelerou prótons a uma energia de 4 TeV em seus túneis de 27km de extensão. Isso é 50 milhões de vezes mais do que o Cíclotron construído por Lawrence.
Para obter tal energia, o campo magnético do LHC chega a 8,4 Tesla, cerca de 100 mil vezes maior que o campo da Terra. Os 1232 eletroímãs responsáveis por gerar esse campo pesam 35 toneladas cada e são mantidos a uma temperatura de 271,3 oC abaixo de zero, para evitar perda de energia devido à resistência elétrica.
Em “O Cerne da Matéria”, Rosenfeld nos mostra toda a evolução de ideias e de tecnologia que possibilitaram a construção do faraônico LHC – isso tudo sem esquecer dos aspectos políticos e econômicos: a forte competição entre Europa e Estados Unidos pelo melhor acelerador de partículas do mundo e a corrida pela descoberta do Bóson de Higgs.
A descoberta do Bóson de Higgs, o Modelo Padrão e o futuro da Física de Partículas
O Bóson de Higgs era a última peça de um quebra-cabeça, a última partícula que faltava para que o Modelo Padrão ficasse completo. O modelo previa a existência do Campo de Higgs, que seria o responsável por dar origem à massa de todas as partículas elementares. Com a confirmação de que a partícula desse campo realmente existe, o quebra-cabeça está montado, a teoria está completa.
Além do Campo de Higgs, o Modelo Padrão também explica três das quatro forças da natureza – o eletromagnetismo, a Força Forte e a Força Fraca. Entretanto, há fenômenos que o modelo não consegue explicar. A gravidade, por exemplo, não está contida nele. A matéria escura e a energia escura, que juntas compõe aproximadamente 95% do universo, também não são explicadas.
Um dos maiores desafios da Física é conciliar a explicação de todos esses fenômenos. Esse é o objetivo de teorias como as supersimétricas, a Teoria das Cordas e a teoria do Higgs composto.
“Não existe nenhuma evidência de desvio do Modelo Padrão em aceleradores de partículas”, diz Rosenfeld. “Não há evidências de que a Teoria das Cordas esteja correta nem de que o Bóson de Higgs seja composto. Achava-se que a supersimetria seria descoberta com o LHC, pois uma de suas previsões é a existência de partículas supersimétricas para cada partícula do Modelo Padrão. Porém, isso não aconteceu. Se elas existirem, tem uma massa maior do que é possível detectar atualmente. O LHC será ligado de novo em meados desse ano, com uma energia de 13 TeV. Não sei dizer se novas partículas serão descobertas. Só posso dizer que espero que sim”.
Continue Reading | Comments Off on Resenha: “O Cerne da Matéria – A aventura científica que levou à descoberta do Bóson de Higgs”, de Rogério Rosenfeld
A teoria da Relatividade Geral precisa ser modificada?
Cem anos após sua criação, cientista sugere que a teoria talvez precise de alterações para melhor explicar o universo
Scott Dodelson é pesquisador do FermiLab (Fermi National Accelerator Laboratory) e professor de astronomia e astrofísica na Universidade de Chicago. É autor de mais de 130 artigos científicos e do livro “Modern Cosmology”. Nessa entrevista, o cientista fala sobre como a teoria da Relatividade Geral talvez precise ser modificada para que possa explicar melhor o universo.
Professor Dodelson, quais são suas principais linhas de pesquisa e como a teoria da Relatividade Geral se relaciona com sua área de trabalho?
Eu trabalho com a análise de dados coletados em grandes telescópios. Isso inclui, por exemplo, dados de telescópios ópticos, como os utilizados em experimentos de energia escura, e também dados de experimentos de radiação de fundo.
Esses dados fornecem informações sobre a evolução do universo. A maior parte desse trabalho é feito com base nas ideias teóricas da Relatividade Geral. Porém, não conseguimos explicar tudo usando essa teoria. Quando tentamos, surgem anomalias. E essas anomalias têm se mostrado bastante frutíferas na geração de novas ideias.
Por que não é possível explicar todos os dados usando a Relatividade Geral?
A teoria não funciona com o tipo de matéria que conhecemos. A Relatividade Geral prevê, por exemplo, que o universo deveria estar desacelerando, e não acelerando. De modo similar, se olhamos a órbita de estrelas em torno de galáxias, a Relatividade Geral prevê que as mais distantes do centro deveriam se mover mais devagar em relação às mais próximas. Porém, observações mostram que todas as estrelas se movem, aproximadamente, com a mesma velocidade. Essas diferenças são, geralmente, atribuídas à energia escura e à matéria escura.
Algumas décadas atrás, a Física descobriu que apenas cerca de 5% do universo é formado por matéria como a conhecemos. O restante seria composto por energia escura e matéria escura – cerca de 68% e 27%, respectivamente. O que são energia escura e matéria escura?
Matéria escura e energia escura são maneiras de entender as anomalias que citei na primeira resposta. Na verdade, elas podem nem mesmo existir. Pode ser que a nossa compreensão da gravidade esteja errada. Pode ser que a teoria da Relatividade Geral precise ser modificada para que, então, possamos entender os dados. Atualmente, uma pergunta fundamental é: será que precisamos modificar a teoria da gravidade ou será que essas novas substâncias realmente existem?
E como podemos responder essa pergunta?
Obtendo mais dados. Conforme conseguimos mais informação sobre o universo, somos mais capazes de olhar para o passado e entender como galáxias e conglomerados de galáxias evoluíram. Veremos, então, se os dados são consistentes com a Relatividade Geral ou com modelos de gravitação modificada. No caso da aceleração do universo, por exemplo, temos diversos modelos que foram desenvolvidos nos últimos cinco anos que já conseguem prever essa aceleração, mas que ainda não conseguem prever exatamente como as galáxias se formam.
Na sua opinião, ainda estamos longe da resposta?
Acho que ao longo da próxima década teremos respostas cada vez mais precisas. Conforme fazemos experimentos em escalas maiores, a margem de erro diminui e poderemos eliminar alguns modelos de gravitação modificada.
Seria possível formular uma teoria que unifique a Relatividade Geral com a Mecânica Quântica?
Eu não sei. Muitas pessoas passaram muito tempo trabalhando nisso nos últimos 30 anos, especialmente na área de Teoria de Cordas. Os tipos de resultados obtidos, porém, não foram aqueles que esperávamos. Entretanto, há muitos bons cientistas que acreditam na importância de se continuar trabalhando nisso.
A conciliação das duas teorias, na verdade, é um problema teórico. Não há observações que exijam que elas sejam conciliadas. Nós apenas gostaríamos de uni-las. Como são incompatíveis em escalas microscópicas, fazer com que funcionem juntas seria muito interessante.
Um grande triunfo da Física é sua habilidade de explicar uma abrangente gama de fenômenos com apenas algumas poucas leis básicas. Esse reducionismo atingiria o seu limite extremo se todas as leis pudessem ser unificadas em uma única teoria. Até hoje nós não atingimos esse limite, mas muitas pessoas estão tentando atingi-lo. O problema é que, na maioria dos casos, a unificação de ideias é difícil, quando não é impossível, de se testar.
*Publicado no Caderno Fórum do Jornal da Unesp, número 307, edição Janeiro/Fevereiro 2015.
Continue Reading | Comments Off on A teoria da Relatividade Geral precisa ser modificada?
“Pela primeira vez, podemos afirmar: há matéria escura entre o Sol e o centro da nossa galáxia!”
Fábio Iocco, do IFT/Unesp e do ICTP-SAIFR, é o primeiro autor de um artigo que comprova a presença de matéria escura nessa região do universo
A matéria escura, que vem intrigando os cientistas nas últimas décadas, definitivamente existe também entre o Sol e o centro da Via Láctea. O artigo, “Evidence for dark matter in the inner Milky Way”, publicado hoje na conceituada revista científica Nature Physics, verificou esse fato com altíssima precisão. Essa comprovação pode ser um importante passo para uma melhor compreensão do que é a matéria escura e de como é a sua distribuição no universo.
“As velocidades com que estrelas e outros componentes visíveis da galáxia giram em torno do seu centro é diferente da velocidade calculada com base na quantidade de matéria que conseguimos ver”, diz Iocco. “Então deve existir matéria que não conseguimos ver, a matéria escura”.
Para chegar a essa conclusão, o trabalho de Iocco foi realizado em duas partes. Primeiro, ele e seus colaboradores analisaram as velocidades reais de rotação de estrelas em torno do centro da galáxia para inferir a massa total da Via Láctea. Depois, previram qual deveria ser essa velocidade, baseados na força de gravidade exercida por toda a massa visível da galáxia.

No gráfico acima, retirado do artigo de Iocco, a faixa cinza representa a velocidade de rotação esperada em função da distância do centro da galáxia. Os pontos em vermelho representam as velocidades reais observadas.
Os cientistas, então, compararam as duas velocidades. Mesmo levando em conta uma grande margem de erro, as velocidades previstas eram muito menores do que as velocidades reais. Assim como acontece em outras galáxias em espiral, há menos massa visível do que massa total. Isso significa que há massa que não conseguimos ver, ou seja, matéria escura, nessa região analisada. Na verdade, a quantidade de matéria escura pode ser até cinco vezes maior do que a quantidade de matéria visível.
“Pela primeira vez, podemos dizer com certeza que há matéria escura entre o Sol e o centro da Via Láctea”, diz Iocco. “Acredito que nosso trabalho contribuirá com experimentos que buscam compreender o que a matéria escura realmente é e como ela está distribuída no universo”.
O que é matéria escura?
Quando pensamos em uma galáxia, o formato que nos vêm à mente é o de uma galáxia em espiral. É o formato da Via Láctea. Vista de cima, se assemelha a um disco do qual partem vários braços, como um ventilador que tem hélices curvadas.
O que muitas vezes esquecemos é que toda essa estrutura, incluindo estrelas e nuvens de gás, está em constante rotação ao redor do próprio centro. A velocidade com que cada parte da estrutura gira depende da distância que está do centro. Mais especificamente, depende da quantidade de massa que existe entre elas e o centro. A massa exerce força gravitacional, e a força gravitacional gera velocidade. Quanto mais massa, mais força, e maior a velocidade.

Dados do artigo de Iocco inseridos em uma foto da Via Láctea. O círculo azul-escuro ilustra a região onde deve existir matéria escura segundo a análise dos pesquisadores (Crédito da foto da Via Láctea: Serge Brunier – http://apod.nasa.gov/apod/ap080104.html).
Nas décadas de 70 e 80, cientistas começavam a fazer experimentos para medir a massa de estrelas de outras galáxias, que não necessariamente tinham o formato em espiral, e essa velocidade de rotação de estrelas. Para fazer isso, analisavam a luz que emitiam e que chegava até nós.
No entanto, encontraram um problema. A velocidade que eles observavam era diferente da velocidade prevista pelas equações. Estava faltando massa. Os físicos, então, denominaram essa massa que não conseguiam observar de matéria escura: matéria porque gera força gravitacional; e escura porque não interage com a luz – ela não emite nem absorve sinais luminosos e, portanto, não conseguimos vê-la.
Hoje, sabemos que a matéria escura existe em diversos sistemas do universo, incluindo galáxias em espiral, como a Via Láctea, e galáxias de formatos diferentes. Porém, os elementos que a compõe e o que ela é exatamente continua a ser um mistério.
Continue Reading | Comments Off on “Pela primeira vez, podemos afirmar: há matéria escura entre o Sol e o centro da nossa galáxia!”