A tecnologia quântica de segunda geração vai chegar ao Brasil?
Reportagem por Ana Clara Moreira
No dia 30 de janeiro, teve início o evento internacional “Tecnologias Quânticas para São Paulo, Brasil e América Latina”, realizado pelo Instituto Principia e o ICTP-SAIFR. Com encerramento no dia 16 de fevereiro, o workshop reunirá membros da academia e da indústria para debater o estado da arte do desenvolvimento de tecnologias quânticas na região, além de delimitar metas e estratégias para estimular o avanço na área. O encontro acontecerá presencialmente em São Paulo e surgiu da necessidade de estreitar a relação entre a pesquisa e a indústria, visando o aprimoramento das tecnologias quânticas no Brasil, tornando-o uma potência no campo.
Marcelo Terra Cunha é professor da Unicamp e um dos organizadores do evento, e explica que o olhar da física quântica vem mudando com o tempo: “Muito tempo se passou desde que ela se preocupava com os átomos e com a compreensão das propriedades da matéria. Uma consequência indireta e não planejada nos estudos de física quântica foi a descoberta da teoria quântica. Ela possibilita descrever experimentos e calcular as probabilidades de cada possível resposta para cada medição, além de apresentar “características informacionais”. Nesse sentido, uma das descobertas informacionais foi a teleportação quântica, que permite o transporte de informação.
Hoje, as tecnologias quânticas estão em sua segunda geração. Aquelas conhecidas como sendo de “primeira geração” são tecnologias que estão no dia-a-dia, como os semicondutores minúsculos que compõem os chips de computadores e celulares ou os lasers em aparelhos de cd e dvd, que lêem os arquivos de áudio e vídeo. “As tecnologias quânticas de primeira geração estão no nosso cotidiano e são parte essencial do PIB mundial, é graças a elas que conseguimos viver nessa era de informação quase instantânea”, explica Terra Cunha. “Essas tecnologias usam o primeiro ponto da teoria quântica, referente a parte da descrição atômica dos fenômenos, relacionado aos níveis discretos”, completa.
Já as tecnologias quânticas de segunda geração são representadas pela computação quântica, pela comunicação quântica e por sensores quânticos. Elas exploram outras características da teoria quântica, como a coerência quântica. Esse fenômeno lida com a ideia de que todos os objetos têm propriedades semelhantes a ondas. Se o estado ondulatório de um objeto for dividido em dois, então as duas ondas podem interferir uma na outra de maneira coerente, de modo a formar um novo estado único, a partir da superposição desses dois estados. Ou seja, na superposição, um único estado quântico consiste em múltiplos estados, equivalente a um bolo de camadas: o bolo final existe graças à combinação de camadas diferentes de bolo.
Ao ser questionado sobre o papel do Brasil no desenvolvimento das tecnologias quânticas, Terra Cunha afirma com certeza que o país não fica para trás no quesito de investimento na área. O professor relembra que, no fim dos anos 90, foi criado o Instituto do Milênio de Informação Quântica e logo depois o Instituto Nacional de Ciência e Tecnologia Quântica. Em termos de comunidade, o Brasil também está bem posicionado pois existe uma comunidade grande de físicos trabalhando no campo.
Entretanto, para que os avanços sigam ocorrendo, é preciso investir em propostas de curto e longo prazo que consistem, principalmente, na formação de engenheiros quânticos. Terra Cunha conta como, no Brasil, ainda faltam profissionais com formação em engenharia trabalhando em campos de tecnologia quântica e permitindo a interação entre pesquisa teórica e aplicações práticas.
Para lidar com essa problemática, o pesquisador defende a ideia de cooperações internacionais, especialmente no continente latino-americano. “Na Argentina, por exemplo, existem grandes líderes mundiais em tecnologias quânticas, como o Juan Pablo Paz que é Secretário de Articulação Científica e Tecnológica do Ministério de Ciência, Tecnologia e Inovação da Argentina. Paz, inclusive, convidou o Brasil para participar do programa argentino. Além disso, o Chile também tem uma grande experiência em óptica quântica, então uma união entre as universidades e empresas latino-americanas faz todo mundo ganhar”, afirma. O professor também explica que, no futuro, o Brasil se tornará um consumidor de tecnologias quânticas e, por conta disso, seria interessante que o país também se tornasse criador e exportador dessas tecnologias, integrando e criando um ecossistema mundial de cooperação.
Tendo isso em mente, Terra Cunha, juntamente com pesquisadores de outras regiões do Brasil, dos Estados Unidos e da Holanda organizaram o encontro que terá início nesta semana, objetivando desenvolver um plano para colocar em prática ações para posicionar o Brasil em um cenário de destaque no campo de tecnologias quânticas nos próximos anos. “Para isso, nas duas primeiras semanas do evento, os participantes debaterão um tema específico a cada dia, que posteriormente irão compor capítulos do documento oficial do planejamento”, explica Terra Cunha.
Entre os temas que serão debatidos, estão as perspectivas de aplicações de tecnologias quânticas para a agricultura e saúde, ponto que é visto com entusiasmo pelo pesquisador, uma vez que o Brasil é um dos maiores exportadores de commodities agrícolas do mundo. “Seria ótimo que esse tipo de tecnologia pudesse ser desenvolvida aqui, pois naturalmente vamos usar e precisar dela”, comenta Terra Cunha. Na agricultura, algumas das tecnologias quânticas usadas são os sensores quânticos: equipamentos que utilizam propriedades quânticas que possibilitam maior sensibilidade e com menor dano. Por isso, uma das apostas do evento é nos sensores, pois acredita-se que eles têm o potencial de apresentar o melhor ganho por real investido, além de poderem ser aplicados também na área da saúde, tanto animal quanto vegetal.
Um exemplo de sensor quântico é o gravímetro. Essa tecnologia é desenvolvida a partir do conceito de sobreposição atômica, para medir o nível de variação gravitacional da Terra. Ela pode ser utilizada, por exemplo, para identificar quais tipos de solos e sedimentos existem em um determinado lugar, sem ser necessário escavar a região. Essa utilização permite, também, encontrar objetos enterrados ou submersos a um certo nível de profundidade.
Apesar do impacto positivo para a indústria agrícola, Terra Cunha defende que o Brasil tem capacidade para ir além. “O Brasil tem condições de dar esse salto e ser bom em produzir tecnologias e avanços científicos, ele não precisa continuar sendo um país agrícola para sempre. Aqui, nós temos a vantagem de não estarmos começando do zero. Outros países, como Singapura e os Emirados Árabes, que começaram do zero já estão desenvolvendo esse tipo de tecnologia”, finaliza.
Continue Reading | Comments Off on A tecnologia quântica de segunda geração vai chegar ao Brasil?
Formação em Biologia e Ecologia Quantitativas realizada por ICTP-SAIFR e Instituto Serrapilheira começa em julho
Reportagem por Yama Chiodi e Malena Stariolo
Na próxima segunda, dia 4 de julho, começa a segunda edição do Programa de Formação em Biologia e Ecologia Quantitativas. Após uma primeira edição online, realizada em 2021, em 2022 o curso será presencial e contará com a participação de pesquisadores de ponta, que ministrarão minicursos para os 31 estudantes selecionados de diversas áreas e vindos de várias partes do Brasil e da América Latina. O programa surgiu a partir de uma parceria entre o Instituto Serrapilheira e o ICTP-SAIFR, visando cobrir uma demanda pela criação de uma comunidade de cientistas capazes de aplicar métodos matemáticos e computacionais à biologia e à ecologia no Brasil.
Ricardo Martínez-García, pesquisador do ICTP-SAIFR e coordenador científico das duas primeiras edições do programa, conta que o ICTP-SAIFR surgiu como um ótimo instituto parceiro, por sua tradição e objetivo de impulsionar a pesquisa em física teórica na América Latina e por realizar, desde 2012, a escola de verão de Biologia Matemática, organizada pelo pesquisador Roberto Kraenkel. “Pra mim foi como colocar juntos esses dois interesses, do ICTP-SAIFR de criar oportunidades para jovens cientistas latino-americanos, e do Serrapilheira de ter esse foco muito claro no treinamento de cientistas para estudar sistemas biológicos complexos”, afirma ele.
Durante os cinco meses de duração do programa, os participantes terão aulas com pesquisadores de ponta das áreas de biologia e ecologia quantitativas, além de terem a oportunidade de conviver uns com os outros, em um ambiente estimulante para trocas de ideias e experiências. Segundo a pesquisadora Flávia Marquitti (Unicamp), que participa da coordenação científica deste ano e liderará a terceira edição prevista para 2023, a presença de colegas e professores de origens, universidades e grupos de pesquisa diversos vai expor os alunos a diferentes formas do fazer científico e enriquecer eventuais trabalhos feitos após o treinamento oferecido pela formação.
A interdisciplinaridade é uma das grandes características do programa, nesse contexto Marquitti avalia que há poucos espaços interdisciplinares na pós-graduação no Brasil, o que acaba criando um vácuo na formação de cientistas capazes de solucionar problemas que só poderão ser resolvidos no trabalho conjunto entre biologia, matemática e outras áreas. Para ela, as disciplinas têm suas próprias abordagens e enxergam possibilidades distintas para problemas em comum. A pesquisadora comenta: “quando diferentes disciplinas trabalham juntas elas não são só uma soma. Falando especificamente da aplicação, de usar modelos matemáticos nas áreas biológicas, a gente ganha muita informação e consegue generalizar algumas coisas que só com o conhecimento das biológicas a gente não conseguiria”.
O caminho contrário também é verdadeiro. Se a matemática pode ajudar as ciências biológicas a construir formalismos e generalizações, os cientistas das exatas vão aprender que a biologia impõe importantes limites no que pode ser generalizável. A professora acrescenta que “não dá pra fazer uma teoria de tudo na biologia. Então, quando a gente une as duas áreas, as exatas aprendem a conhecer os limites biológicos, para só então conseguir modelos que sejam aplicáveis pras ciências da vida”.
Ambos os coordenadores científicos compartilham da opinião de que os espaços para formação e pesquisa interdisciplinar ainda são incipientes no Brasil e que, geralmente, aparecem muito tarde na carreira do pesquisador. Martínez-García diz que, no programa, os alunos vão ser treinados para problemas que não podem ser resolvidos por uma pessoa ou mesmo por um grupo de pessoas da mesma área de formação, segundo ele: “problemas como a perda de diversidade e as mudanças climáticas não vão ser resolvidos por pessoas de só uma expertise. Vão ser necessárias equipes transdisciplinares e eles vão ter que aprender a falar uns com os outros. Físicos e ecólogos normalmente não falam a mesma língua, por exemplo”. É por essa razão que Marquitti considera que o programa é de fato um treinamento, diferente de cursos acadêmicos tradicionais.
A expectativa é que, ao fim do programa, os alunos consigam trabalhar juntos em áreas interdisciplinares, além disso, outro objetivo é formar uma rede de pesquisadores que contribuirá para o avanço da ciência. Para isso, Martínez-García comenta que estão previstos encontros anuais entre os ex-alunos do programa, que poderão estreitar laços profissionais e de pesquisa. Entre 4 de julho até 2 de dezembro serão realizados minicursos, seminários de pesquisa, sessões de debate, journal clubs e outras atividades que os selecionados do programa poderão participar. Para conhecer em detalhe todas as atividades, palestrantes, temas e participantes, basta acessar o site do programa no endereço https://www.ictp-saifr.org/qbioprogram/.
Criado em 2017, o Instituto Serrapilheira é a primeira instituição privada de apoio à ciência e à divulgação científica no Brasil. Sem fins lucrativos e com recursos oriundos de um fundo patrimonial, já apoiou 150 projetos de pesquisa e 58 de divulgação científica.
O ICTP-SAIFR é um centro de pesquisa em Física Teórica, vinculado ao IFT-UNESP e ao Abdus Salam International Centre for Theoretical Physics em Trieste, com apoio financeiro da FAPESP, UNESP e Instituto Serrapilheira. O ICTP-SAIFR realiza diversas atividades de treinamento para pesquisadores, como workshops e escolas, o cronograma pode ser acessado no site do instituto: http://ictp-saifr.org. Além disso, o SAIFR também organiza atividades de divulgação e extensão para professores e estudantes de Ensino Médio e para o público geral, confira a programação em: http://outreach.ictp-saifr.org.
Continue Reading | Comments Off on Formação em Biologia e Ecologia Quantitativas realizada por ICTP-SAIFR e Instituto Serrapilheira começa em julho
Pesquisa sobre competição subterrânea entre plantas na revista Science
Abaixo da superfície, plantas travam uma constante disputa pelo espaço e recursos presentes no solo. Embora ocorra escondida do olhar humano, o entendimento da complexa dinâmica de raízes no subsolo pode trazer consequências muito significativas para a sociedade, abrangendo desde a criação de plantios mais sustentáveis e eficientes, até o estabelecimento de estratégias de mitigação de efeitos climáticos. No estudo The exploitative segregation of plant roots, publicado em 4 de dezembro na revista Science, é apresentado um modelo matemático capaz de mapear as interações entre raízes de plantas que acontecem embaixo da terra, dando uma nova luz ao entendimento de um mecanismo ecológico fundamental. O trabalho foi desenvolvido por um grupo de pesquisadores de instituições do Brasil, Espanha e Estados Unidos, e contou com a participação de Ricardo Martínez-García, professor SIMONS-FAPESP no Instituto Sul-Americano para Pesquisa Fundamental (ICTP-SAIFR) e no Instituto de Física Teórica da UNESP (IFT-UNESP), como um dos principais autores da pesquisa.

Raízes tingidas de plantas de pimenta. O tingimento é empregado como método de diferenciação entre raízes de plantas vizinhas para facilitar o estudo de sua interação. Imagem cedida por Ciro Cabal.
Em entrevista concedida por videoconferência ao ICTP-SAIFR, o professor Martínez-García fala sobre algumas das motivações do trabalho: “Muito da dinâmica dos ecossistemas na verdade acontece abaixo da terra. Se nós pretendemos entender como os ecossistemas funcionam, e como, por exemplo, respondem a mudanças globais, nós precisamos compreender o que acontece no subsolo. Não basta apenas entender a parte que conseguimos observar.” Martínez-García dedica sua pesquisa à área da Física aplicada à Biologia, em especial ao desenvolvimento de modelos físico-matemáticos para estudar sistemas ecológicos complexos, e foi um dos responsáveis pelo desenvolvimento teórico neste estudo.
O modelo apresentado neste trabalho simula o balanço entre a quantidade de energia gasta por uma planta para produzir uma certa quantidade de raiz em uma dada direção, em relação ao ganho de recursos – nesse caso, absorção de água – que a planta terá ao produzi-la. O professor exemplifica: “Em cada ponto do espaço, uma planta somente vai colocar raízes se o recurso nesse ponto é suficientemente alto para devolver um benefício para ela. (…) Para uma planta absorver recursos a 2 m do seu caule, é mais custoso do que a 10 cm, pois como ela não pode se deslocar, precisa fazer uma raiz mais longa. Construir todo esse mecanismo mais longo é energeticamente mais custoso para ela. Então esse é o balanço.” A presença de uma segunda planta na vizinhança muda a dinâmica dessa balanço, pois nesse cenário os dois organismos passam a competir pela água disponível no solo ao redor. Dessa maneira a distribuição de raízes no solo ganha um grau de complexidade maior. “Imagine que você tem uma certa quantidade de água em um ponto do espaço. Esse ponto fica a 2 m de uma planta e a 0,5 m de outra. Mesmo que as duas dividissem essa quantia de água de maneira idêntica, para uma planta o custo seria menor do que para a outra. O benefício da planta que está mais perto é maior, por isso as plantas se espalham menos quando têm vizinhas.”
Embora essa relação seja simples o bastante de compreender, o caminho para se chegar a um modelo matemático capaz de simular precisamente a proporção em que esse balanço ocorre exige uma base matemática muito forte. De fato, uma das coisas mais interessantes sobre o modelo, explica o professor, é o fato de ele ter sido inspirado por uma aparente contradição existente em modelos predecessores. “Dentre os grupos de pesquisa que já buscaram entender esse processo, de como plantas mudam seu sistema de raízes na presença de outras plantas, tinha duas maneiras de responder essa pergunta: havia grupos de pesquisadores que não consideravam a distribuição no espaço, medindo apenas a massa total de raiz produzida. Desses estudos concluiu-se que se uma planta tem uma vizinha próxima, ela irá gerar mais raiz: a resposta de uma planta a uma competição por recursos seria ter mais raízes, para tentar absorver mais, e mais rápido.”
“Outro grupo apenas mediu quanto espaço a planta cobre com suas raízes. No lugar de se perguntar quanta massa de raiz as plantas geram, perguntou-se de que maneira o território do qual a planta absorve água muda na presença de uma vizinha. A conclusão foi que neste caso as plantas ocupam um território menor, espalhando-se menos. Aí ficou uma contradição, pois se há um espalhamento menor, como você produz mais raiz?”, aponta o professor. Uma maior densidade de raízes, explica, poderia responder essa aparente contradição, mas os modelos até então não possuíam informação suficiente para afirmar que este seria o caso. “Então o que nós fizemos foi um modelo geral que introduz o espalhamento das plantas junto com a quantidade de raiz em cada local do espaço. Leva em consideração as duas coisas. E com a técnica experimental que usamos, conseguimos fazer uma reconstrução espacial completa. (…) A conclusão geral na qual chegamos foi justamente que: sim, as plantas se espalham menos na presença de uma vizinha, sendo mais locais na procura de recursos, mas nas suas proximidades elas se tornam mais agressivas, isto é, produzem mais raízes perto do próprio caule.”

Ricardo Martínez-García é professor SIMONS-FAPESP no ICTP-SAIFR e no IFT-UNESP. Sua pesquisa busca empregar técnicas computacionais e de Física Estatística para examinar a formação de padrões de organização em sistemas biológicos complexos, e abrange desde estudos com micróbios até plantas e paisagens inteiras. Imagem cedida por Ricardo Martínez-García.
As predições do modelo foram testadas em um experimento conduzido no Instituto de Ciências Agrárias de Madri, na Espanha. O teste foi feito em uma variedade de espécies de plantas de pimenta, cultivadas em estufa por 11 meses sob condições muito controladas para esse experimento. “É comum na Biologia você fazer um experimento com uma espécie modelo. (…) Nós usamos a planta de pimenta pois o Ciro Cabal, que é o autor principal do artigo, já conhecia o organismo para cultivá-lo de uma maneira mais controlada. Uma vez que você descobre um mecanismo num organismo modelo, aí vem a questão de como generalizar para outras espécies, do quão geral o modelo é etc.” É a mesma lógica, comenta o professor, do uso de ratos de laboratório em estudos sobre doenças humanas. Após o crescimento das plantas, caules e folhas foram cortados e colhidos. As raízes, ainda no solo, foram tingidas com pigmentos de cores diferentes, a fim de permitir o reconhecimento de cada planta em meio ao emaranhado de raízes. “Depois de colorir as plantas, fizemos diversas pequenas divisões no solo, e então pudemos ver o quanto cada planta possuía de raiz em cada divisão. Com isso, conseguimos construir um mapa espacial das raízes de cada planta.”
“Quando o Ciro Cabal escreveu para mim com os resultados dos experimentos realizados, e a figura do experimento era a mesma que uma das figuras do nosso modelo, para mim essa foi a maior satisfação. Não apenas de um ponto de vista pessoal, mas por se tratar de um mecanismo fundamental da Ecologia que ainda não era conhecido.”, relata o professor. Para além da contribuição para a ciência de base, a existência de um modelo matemático como esse, capaz de descrever a competição entre plantas que se passa no subsolo, pode trazer implicações muito expressivas para a maneira como é feita agricultura, permitindo a criação de um sistema de plantio otimizado e o aumento da produção de alimentos. “Se eu colocar 15 cm entre as minhas plantas, elas irão investir menos em produção de raízes e mais em produção de frutas, por exemplo. Isso pode aumentar muito a eficiência de cultivos com um investimento de água menor.”, conjectura o professor. Além disso, as raízes constituem uma grande reserva de carbono, que armazena aproximadamente um terço de toda a biomassa de plantas do planeta. Por isso, uma melhor compreensão do seu comportamento permitirá o desenvolvimento de melhores modelos de grande escala, com os quais cenários de mudanças climáticas podem ser simulados.
Desse ponto em diante, o trabalho de Martínez-García e seus colaboradores deve seguir rumo ao aprofundamento do modelo: estudar as interações envolvendo sistemas com mais de duas plantas, espécies diferentes e em condições climáticas distintas — esses são alguns dos próximos passos na lista dos pesquisadores. “O que fizemos foi uma primeira contribuição, dar uma ideia dos mecanismos que dominam esses padrões espaciais de raízes. Evidentemente há muito mais trabalho para fazer, mas encaixar a primeira peça é uma grande satisfação.”, conclui o professor.
——————————————————————————————————————————-
O artigo The exploitative segregation of plant roots, publicado em 4 de dezembro de 2020 na revista Science, é de autoria de Ciro Cabal (Universidade de Princeton, Estados Unidos), Ricardo Martínez-García (ICTP-SAIFR/IFT-UNESP, Brasil), Aurora de Castro (Museu Nacional de Ciências Naturais, Espanha), Fernando Valladares (Museu Nacional de Ciências Naturais/Universidade Rei Juan Carlos, Espanha) e Stephen W. Pacala (Universidade de Princeton, Estados Unidos).
Continue Reading | Comments Off on Pesquisa sobre competição subterrânea entre plantas na revista Science
A importância ecológica de uma vida solitária
A organização coletiva é uma estratégia de sobrevivência observada em muitas espécies, das formas de vida microscópicas até alguns dos maiores animais conhecidos. Mas indivíduos solitários – aqueles deslocados, que não seguem as tendências do grupo – são quase tão comuns quanto, e, de acordo com um estudo publicado no último mês de março no periódico Plos Biology, os solitários podem servir também a um propósito crucial para a conservação da espécie. A descoberta foi possível graças a experimentos realizados com a ameba Dictyostelium discoideum na Universidade de Princeton, em Nova Jersey, Estados Unidos, por uma equipe multidisciplinar e internacional que contou com o pesquisador Ricardo Martinez-Garcia, professor SIMONS-FAPESP no ICTP-SAIFR e no Instituto de Física Teórica da UNESP, em São Paulo.

Corpo multicelular da ameba Dictyostelium discoideum. Indivíduos unicelulares se agregam para formar uma estrutura de caule e esporos como estratégia de sobrevivência. Foto: Tyler Larsen/Creative Commons.
Desde os movimentos de migração coletiva feitos por algumas espécies de aves ou mamíferos, até o florescimento sincronizado de certas plantas, ecólogos sempre observaram a existência de certos indivíduos de um grupo que parecem se recusar a seguir o mesmo comportamento da maioria. Do ponto de vista biológico, estes solitários sempre foram encarados como pontos fora da curva, isto é, casos de comportamento anômalo, erros na tentativa de coordenar uma ação coletiva complexa. No entanto, o artigo publicado na edição de 19 de março no periódico Plos Biology sugere que tal comportamento pode também fazer parte de uma estratégia biológica de sobrevivência e promoção de diversidade.
A vida da ameba D. discoideum possui duas fases, marcadas por uma manobra de sobrevivência peculiar: enquanto as amebas estiverem inseridas em um meio com disponibilidade de alimento, vivem como organismos unicelulares individuais, porém, ao encararem a escassez, as amebas iniciam um movimento auto-organizado de agregação, formando um organismo multicelular em formato de um caule com uma aglutinação de amebas em forma de esporos na sua ponta. As células que formam o caule acabam morrendo, mas aquelas no topo possuem maior chance de acabar entrando em contato com insetos ou animais passageiros e assim serem transportadas para um novo local, com maior quantidade de alimentos disponíveis. Muitos estudos têm focado no entendimento da transição de fases do ciclo de vida dessa ameba, mas pouca atenção havia sido dada até então às células solitárias.
Um dos autores do trabalho, o Dr. Ricardo Martinez-Garcia dedica-se à área da física aplicada à biologia, buscando entender sistemas ecológicos do ponto de vista da física estatística: “Não procuramos o comportamento individual de cada uma das células, plantas ou animais, mas o que realmente tratamos de descrever com precisão são as interações [entre as componentes do sistema e, a partir delas entender como surgem os padrões que observamos na escala macroscópica.”, explica o professor em entrevista concedida por videoconferência. No caso da D. discoideum, Martinez-Garcia e seus colaboradores usaram essa abordagem para descrever o mecanismo de transição entre as fases unicelular e multicelular, e assim foram capazes de criar um modelo que leva em conta inclusive as amebas solitárias que não se envolvem no processo de transição.

Ricardo Martinez-Garcia é professor SIMONS FAPESP no ICTP-SAIFR e no IFT-UNESP. O trabalho “Eco-evolutionary significance of ‘loners’” foi desenvolvido em parceria com colaboradores da Universidade de Princeton, onde realizou seu pós-doutorado. Os co-autores da pesquisa foram Fernando W. Rossine (Universidade de Princeton, Estados Unidos), Allyson E. Sgro (Universidade de Princeton e Universidade de Boston, Estados Unidos), Thomas Gregor (Universidade de Princeton, Estados Unidos e Instituto Pasteur, França) e Corina E. Tarnita (Universidade de Princeton, Estados Unidos). Foto cedida por Ricardo Martinez-Garcia.
Quando perguntado sobre o funcionamento deste modelo, o Prof. Martinez-Garcia explica que nesse processo de transição, a comunicação entre as células se dá por sinais bioquímicos: uma vez que o alimento do ambiente começa a se esgotar, a célula passa a secretar substâncias que, quando detectadas pelas suas vizinhas, podem provocar o início do processo de agregação. “A nossa hipótese para a origem dessas amebas solitárias é uma resposta tardia, que ocorre por algum motivo que não identificamos molecularmente. Quando elas vão responder ao sinal, já não há mais uma massa crítica [nas suas vizinhanças]. A agregação precisa de um número de células grande, com duas ou três não tem início o comportamento coletivo. (…) Como há uma falta de sincronia na resposta, as que responderem mais tarde, de certa maneira, chegarão atrasadas para o comportamento coletivo”. Baseando-se nisso, construíram um modelo matemático que leva em consideração duas escalas de tempo: o tempo que todo o processo de agregação leva para ser completado, e o tempo que uma célula pode levar para responder ao sinal bioquímico. Se o tempo de resposta de uma célula é maior do que o tempo médio no qual todo o resto da população se agrega, a célula sobra como um indivíduo solitário.
Isso mostra que os indivíduos solitários, ao menos no caso da ameba D. discoideum, não são simples resultado de um processo aleatório ou fora do controle do próprio organismo – pelo contrário, eles surgem pelo próprio processo coletivo de auto-organização. E isso significa que a seleção natural poderia estar escolhendo esse comportamento, isto é, o comportamento solitário pode ser uma característica passada adiante no processo de reprodução, com possíveis consequências ecológicas. “É uma mudança radical na maneira como se estuda comportamentos coletivos na natureza. Ao menos nessas amebas, temos evidência experimental de que os indivíduos solitários não são erros. Eles certamente estão regulados pelo organismo, e poderiam ter um papel muito importante na ecologia e na evolução da espécie. Essa é a maior mensagem.”
O professor continua explicando que, por não estarem tão envolvidos no comportamento social, um dos papéis fundamentais que os solitários podem estar desempenhando é que, caso os esforços coletivos não sejam suficientes para a sobrevivência da população, ou caso esta seja destruída no processo por algum agente externo, aqueles que não participaram da mobilização do grupo serão sobreviventes com a capacidade de reconstruir e dar continuidade à espécie. “Por exemplo, o bambu tem um período de florescimento que é muito fechado – numa parte muito específica do ano – mas que também não é perfeito. Alguns produzem as flores mais tarde ou mais cedo que o resto da população. Nisso temos uma conexão muito mais clara de se fazer: imagine que todas as flores crescem no mesmo dia, se neste dia fizer um sol muito forte, nevar ou qualquer coisa assim, toda a população vai morrer. Mas se você tem esses indivíduos não sociais que por alguma razão produzem as flores um mês antes ou depois, você de certa maneira tem uma distribuição do risco.”
Os mecanismos por trás do surgimento de solitários certamente diferem ao se olhar para sistemas de espécies diferentes. Enquanto o modelo criado neste trabalho é capaz de descrever o processo para a D. discoideum, com direito a evidências experimentais, em outros reinos da vida natural os mecanismos por trás disso continuam desconhecidos. “Infelizmente trabalhar com pessoas ou com animais maiores é muito mais complicado. Mesmo com a ameba a experimentação foi extremamente complexa.”, explica. “Nós procuramos muitos exemplos na natureza. Tem, por exemplo, os gnus: eles fazem migrações muito grandes, nas quais a população coordena entre si para se mudarem todos juntos. Mas quando ecólogos seguem essas populações, veem que alguns animais ficam para trás ou não tomam parte da migração coletiva. Outro exemplo são gafanhotos: quando você tem muitos gafanhotos juntos há uma mudança de comportamento, eles transicionam de solitários para sociais. Mas se você observa por muito tempo um grupo muito grande deles, nem todos fazem essa transição.”
“Mesmo na população de humanos temos os ‘do contra’: são pessoas que vão contra opiniões gerais. Se você quiser extrapolar, podemos ficar no contexto da formação de opinião e tendências sociais. [Mas] acho que isso é muito mais hipotético. (…) Nós sabemos que no mundo natural temos exemplos mais claros.” Com uma última ressalva, o professor ainda faz uma breve consideração sobre a pandemia do vírus Sars-Cov-2: “Temos um caso muito claro com a pandemia. A não-socialidade agora é muito importante para preservar a sociedade, se quisermos olhar assim. Mas a extrapolação para humanos fica totalmente fora do objetivo do estudo.” Mesmo não sendo completamente extrapolável para outras espécies de seres vivos, os resultados que o Prof. Martinez-Garcia e seus colaboradores apresentam neste trabalho implicam numa nova maneira de se olhar para a ecologia. Além disso, é um grande passo inicial que incentiva a pesquisa com grupos de seres vivos cada vez mais complexos, como insetos, plantas e vertebrados. Agora se entende melhor o que são esses indivíduos solitários, antes considerados erros aleatórios da natureza. “É o que se falava antes: ‘eles estão aí, mas não são importantes’. Agora a pergunta mudou: na verdade eles fazem parte do comportamento coletivo, então que papel eles desempenham de um ponto de vista ecológico e evolutivo?”.
Continue Reading | Comments Off on A importância ecológica de uma vida solitária
Novos resultados de experimento do LHC confirmam cálculos antigos de físico brasileiro sobre a interação de káons e prótons
No dia 6 de março de 2020 foi publicado na revista Physical Review Letters o resultado de um experimento de autoria da Colaboração ALICE realizado no Grande Colisor de Hádrons – o LHC (da sigla em inglês para Large Hadron Collider). A publicação sobre o experimento, que tinha como objetivo o estudo da interação entre prótons e um tipo de partículas chamadas de káons, fez uso de um modelo aprimorado por um pesquisador do IFT-UNESP em um de seus trabalhos anteriores, confirmando seus cálculos de quase uma década atrás.
A Colaboração ALICE (do inglês para A Large Ion Collider Experiment) é constituída por pesquisadores de mais de 30 países e destina-se a estudar um estado da matéria chamado plasma de quark-glúons, possível apenas em condições energéticas muito extremas. Quarks são partículas que ligam-se umas às outras através de outro tipo de partícula chamada glúon para formar partículas compostas, como prótons e nêutrons. O plasma de quark-glúons é um estado da matéria na qual prótons e nêutrons se dissolvem e liberam seus constituintes, os quarks e os glúons. Conforme esse plasma esfria e se expande, as ligações entre quarks e glúons se rearranjam e formam novamente as partículas compostas: prótons, nêutrons e outras partículas como os mésons, entre eles os káons. Por isso, embora a ALICE tenha sido criada com o objetivo de estudar o próprio plasma de quark-glúons, os seus experimentos oferecem a oportunidade perfeita para estudar a interação entre essas partículas compostas que são colididas, dissolvidas e rearranjadas no processo de criação do plasma.

ALICE é um detector instalado no LHC para o estudo da matéria em densidades e energias muito elevados. A Colaboração ALICE usa o detector para estudar a formação do plasma de quark-glúons. (Imagem: CERN)
O artigo publicado na Physical Review Letters relata os resultados de um experimento que aproveitou essa oportunidade para analisar a maneira como o káon interage com prótons em meio à essa sopa de partículas em colisão, uma interação ainda muito pouco entendida, considerando a existência de tão poucos dados experimentais sobre ela até então. Os autores do trabalho compararam o novo conjunto de dados com os modelos criados por outros pesquisadores e aquele que melhor se ajustou foi o modelo publicado em um artigo de 2011 pela colaboração entre o físico brasileiro Gastão Inácio Krein, pesquisador do Instituto de Física Teórica da UNESP, e seus colegas: Johann Haidenbauer, do Centro de Pesquisa Jülich, Ulf-G. Meißner, do Centro de Pesquisa Jülich e da Universidade de Bonn, e Laura Tolos, atualmente da Universidade Autônoma de Barcelona.
O Prof. Krein dedica seu trabalho à área de Cromodinâmica Quântica, que é uma teoria de interações fortes, isto é, busca entender as interações entre as partículas que formam os núcleos atômicos. O pesquisador, que por conta da pandemia de COVID-19 retirou-se de São Paulo para continuar seu trabalho remotamente de uma cidade pequena em meio à Serra da Mantiqueira, concedeu entrevista ao ICTP-SAIFR por chamada de voz. Na conversa explica que em seu trabalho de 2011, ele e seus colaboradores não tinham por objetivo desenvolver um modelo para a interação entre prótons e káons, mas sim entre prótons e outro tipo de partícula: o méson-D. Para isso, trabalharam na melhoria de um modelo pré-existente da interação com káons, o chamado modelo de Jülich, e então desenvolveram o modelo para mésons-D de maneira análoga.
Quando perguntado sobre o que tornava possível o desenvolvimento desses dois modelos de maneira análoga, o Prof. Krein diz: “O que muda [de um méson-D para um káon] é o conteúdo de quarks. Enquanto o méson-D tem um quark charme, o káon tem um quark estranho”, explica. Os nomes que o Prof. Krein usa ao se referir aos quarks vêm do Modelo Padrão da Física de Partículas, que é a teoria responsável por descrever as partículas fundamentais que formam a matéria, bem como as forças que regem as interações entre elas. Segundo o Modelo Padrão, existem seis tipos de quarks que diferem entre si pela quantidade de massa e por um tipo de carga que possuem, que os físicos chamam de sabor (flavor, em inglês): up (acima), down (abaixo), charm (charme), strange (estranho), top (topo) e bottom (base). Prótons são formados por dois quarks up e um quark down, enquanto ambos káons e mésons-D são formados por dois quarks (mais especificamente um quark e um antiquark): no caso do méson-D, um dos quarks sempre é um quark charm, enquanto no caso de um káon um dos quarks sempre é um quark strange.
“Estávamos completamente no escuro em relação à interação do méson-D. Agora, como o méson-D só difere do káon porque troca o [quark] estranho pelo charme, pensamos o seguinte: ‘essa interação entre káons e prótons já tem dados experimentais.’ Então retomamos a interação com káons. Tinha certas predições que não haviam sido feitas ainda, então nós as fizemos. E agora a Colaboração ALICE mediu essa interação e comparou com os modelos que existem na literatura – e o nosso passou bem no meio dos dados experimentais! Ficamos muito felizes quando vimos isso porque é raro acertar na mosca assim.” Embora o modelo atualizado pelo Prof. Krein e seus colaboradores não fosse o produto principal de seu trabalho na época, mostrou-se indispensável para o avanço científico em um experimento realizado quase uma década depois. “Agora estamos esperando que algum dia alguém meça a interação do méson-D com o próton também.”
Existe uma série de dificuldades técnicas envolvidas no processo para realizar medidas de alta precisão como as que permitiram a confirmação desse modelo. Para se medir a probabilidade de um káon interagir com um próton, primeiro é preciso criar um káon a partir da colisão entre dois prótons, por exemplo, e então fazer esse káon colidir com um outro próton. “[Dentro de um acelerador] você pode construir um feixe de prótons. Você tem prótons em abundância [na natureza], ele não decai e vive por muito tempo. Agora, káons não. Eles vivem por muito pouco tempo, decaem muito rápido. São todos experimentos indiretos.” O tempo de vida médio de um káon é de 0,00000001 segundos. “Esse é o grande desafio: você ter toda essa eletrônica, essa criogenia e esses aceleradores para medir isso.”
Todo o investimento técnico direcionado aos estudos dessas interações entre partículas não apenas contribui para complementar o nosso conhecimento do Modelo Padrão de física de Partículas – através do entendimento de como as partículas do núcleo atômico se ligam e interagem entre si – mas também produz diversos subprodutos de utilidade para outras áreas da ciência, como é o caso para a astrofísica: estudos como esses possuem um papel a desempenhar em pesquisas sobre estrelas de nêutrons, objetos astronômicos tão densos que estima-se que seu interior seja um ambiente propício para a ocorrência natural do plasma de quark-glúons e de partículas como káons.
O trabalho realizado pelo Prof. Krein e seus colaboradores, intitulado “DN interaction from meson exchange” publicado em 2011 no The European Physical Journal é em si próprio um exemplo de pesquisa que cria subprodutos intelectuais ou tecnológicos – como é, em geral, o costume da ciência. “Junto com isso tem todo um desenvolvimento tecnológico que tem ramificações para outras áreas, principalmente para a medicina, agricultura e ciências materiais. Essa é a grande coisa que passa despercebida com esses grandes projetos.”, conta o cientista.
Assim como o Prof. Krein, obrigado a lecionar suas aulas remotamente e a continuar seu trabalho como pesquisador longe do Instituto de Física Teórica da UNESP por conta da pandemia, o CERN, que é a Organização Européia para Pesquisa Nuclear que abriga o LHC e os pesquisadores da Colaboração ALICE, entre outros grupos, também encontra-se operando em modo remoto. Desde o dia 20 de março, atividades presenciais foram reduzidas apenas àquelas essenciais para a segurança e cuidado do local e dos equipamentos. “Eu estou aqui escondido e meus alunos na casa deles. Então tem um impacto direto no desenvolvimento do trabalho.”, diz o professor. “Apesar de estarmos nos falando todos os dias, não é a mesma coisa (…) No meu caso, em particular, eu estou sentindo isso agora, e meus alunos também estão sentindo. [Para eles] é a dissertação de mestrado, a tese de doutorado: esse é o primeiro impacto. Aí tem o impacto maior, que é o impacto nos laboratórios (…) Do ponto de vista do pessoal que opera o CERN, eles também estão sendo prejudicados.” Apesar disso, o professor preserva o otimismo de que a ciência levantará mais forte após essa crise. “Talvez a pessoa comum veja o quanto a ciência é importante (…) Quem é que faz a vacina? É um trabalho científico: são os médicos, os biólogos, os químicos. É a ciência que vai trazer essa vacina. Então chama a atenção do público que não pensa muito sobre ciência no seu dia a dia ou não enxerga a importância desse trabalho.”
Continue Reading | Comments Off on Novos resultados de experimento do LHC confirmam cálculos antigos de físico brasileiro sobre a interação de káons e prótons
Quando o todo é (muito) mais que a soma das partes
O que a evolução de espécies, as rotas de transporte de mercadorias e a eleição democrática de representantes têm em comum? Do ponto de vista da física (e da matemática), tudo!
O último Papos de Física de 2019 aconteceu no dia 7 de novembro e, para fechar o ano, abordamos uma temática inusitada: Sistemas Complexos e o olhar da Física. Sistemas complexos formam uma área de estudo relativamente nova, naturalmente interdisciplinar, que tem reunido físicos, matemáticos, biólogos, sociólogos e até mesmo economistas, para resolver questões em comum. O professor Daniel Stariolo, da Universidade Federal Fluminense (UFF), foi ao Tubaína Bar falar um pouco sobre o assunto e a perspectiva da física dentro desta área.
Stariolo começou a apresentação ilustrando a natureza interdisciplinar dos sistemas complexos e sua ocorrência nas mais diversas áreas de ciências e fora dela, desde os ecossistemas do planeta, planejamento de transporte e estradas, organizações sociais, evolução… O ponto em comum entre todos eles é o fato de funcionarem em redes e serem, de alguma forma, internamente conectados entre si. Os sistemas complexos podem ser naturais, que evoluíram para serem da forma como são hoje (como os ecossistemas, os organismos, o clima) ou podem ser artificiais, criados pelo homem para funcionarem do modo que conhecemos atualmente (a economia, as redes de distribuição de energia, o sistema de transporte e as redes sociais).
Alguns elementos são essenciais e caracterizam os sistemas complexos. Os principais são a existência de muitos agentes, a conectividade (relação entre os agentes) e a existência de vínculos conflitantes (ou seja, relações competitivas). Porém, não basta que esses elementos existam. Algumas propriedades do sistema surgem como consequência das características individuais dos agentes: são as chamadas propriedades emergentes.
As interações entre as partes de um sistema complexo criam padrões complexos de funcionamento coletivo. Em outras palavras, propriedades emergentes são criadas por conta da interação entre os agentes do sistemas, mas não estão presentes individualmente em cada uma das partes. Por exemplo, a interação entre os neurônios no seu cérebro permitem que você leia e entenda esse texto. Porém, um único neurônio não seria capaz de realizar a mesma atividade. Uma pessoa levantar e abaixar os braços não implica em nada; porém milhares de pessoas fazendo isso (organizadamente) nas arquibancadas de um estádio cria uma “ola”.
Dentre as inúmeras propriedades emergentes de um sistema complexo, Stariolo destacou auto organização, múltiplas escalas e complexidade.
A auto organização é inerente ao sistema e é o conjunto de regras internas que faz ele funcionar. Essa rede de relações e regras gera um fluxo de informações entre os indivíduos do sistema e, em geral, é bastante complexa para entender, e, principalmente, modelar. Quando inserido em um sistema, o indivíduo fica sujeito a essas leis de funcionamento. Por exemplo, quando começamos num trabalho novo, temos que entender (e nos adequar) a dinâmica do ambiente e suas regras, sejam elas de comportamento ou vestimenta; quando viajamos a países estrangeiros, devemos atender às leis daquele lugar e estamos sujeitos à sua constituição (via de regra… Em geral, Direito é bem mais complexo do que isso!).
As múltiplas escalas também são muito presentes nos sistemas complexos. Os próprios sistemas em geral são compostos de subsistemas, mas podem interagir com outros sistemas maiores, gerando redes de relação em escalas diferentes. Embora cada escala tenha suas regras próprias, elas se relacionam umas com as outras e também podem interferir umas nas outras.
Para entender as escalas diferentes, imagine seu corpo. Ele é formado por órgãos – pulmão, coração, rins, etc. Alguns órgãos atuam juntos e formam sistemas – respiratório, digestório, cardiovascular – e todos eles juntos formam você, que é também um sistema complexo. Se diminuirmos a escala, cada órgão é formado por tecidos diferentes – muscular, nervoso, epitelial – e cada tecido é formado por tipos específicos de célula. Ou seja, a medida que aumentamos ou diminuímos a escala, observam-se padrões e a ocorrência de sistemas complexos, com organização e regras próprios, mas que interferem uns nos outros.
O conceito de Complexidade é estudado e utilizado em diversas áreas de conhecimento, em ciências humanas, da vida e exatas, e a própria definição é controversa. No Papos de Física, Stariolo definiu a complexidade dos sistemas complexos pela possibilidade de existirem múltiplos equilíbrios possíveis para o sistema em questão. E usou a evolução de espécies para ilustrar isso.
A evolução a partir da seleção natural envolve inúmeros indivíduos (são 8,7 milhões de formas de vida hoje, sem considerar as já extintas!), explora as relações entre eles (sejam harmônicas ou desarmônicas, onde nenhuma ou alguma das partes sai prejudicada) e certamente apresenta vínculos conflitantes (sobrevivência do “mais apto”). Mas não só isso, as propriedades emergentes, citadas por Stariolo, também estão presentes: a evolução cria e modifica seus próprios padrões não-lineares e portanto é auto organizada; ela ocorre em múltiplas escalas, sejam elas temporais ou espaciais; e apresentam grande complexidade, ou seja existem muitos equilíbrios (ou espécies) possíveis – é bem provável que outras combinações de espécies estariam presentes no mundo hoje, caso alguma coisa tivesse acontecido diferente no passado. Entender em detalhe quais as relações e as regras da evolução têm sido o desafio dos biólogos (e físicos!) nos últimos anos.

Árvore da vida. A evolução não é um processo linear como normalmente imaginado pelo senso comum. Trata-se de um exemplo de sistema complexo com diversos agentes atuantes. (Fonte: ZernLiew)
O problema do caixeiro viajante
Um dos exemplos clássicos que o professor trouxe foi o conhecido “Problema do Caixeiro Viajante”. O problema é, conceitualmente, simples: qual a menor rota possível para o caixeiro passar (somente uma vez) por todas as cidades de um determinado grupo de cidades e voltar para o ponto inicial.
A princípio, pode parecer uma pergunta boba ou sem sentido, mas, na verdade, soluções desse problema têm aplicações diretas e indiretas em diversas áreas, desde planejamento e logística no transporte de mercadorias, até produção de microchips, sequenciamento de DNA e astronomia.
A origem do problema é relativamente incerta: existem registros de que esse problema tenha sido proposto no século 19, mas foi considerado matematicamente apenas na década de 30. Já nessa época, Karl Menger, um dos matemáticos que teria estudado o problema, concluiu a necessidade de um algoritmo potente para resolvê-lo e postulou que a solução “óbvia”, que comumente vem primeiro à mente, geralmente não é a resposta certa. Ele se referia a regra “do ponto mais próximo” em que, partindo de uma cidade, a rota deveria seguir sempre para a cidade seguinte mais próxima. Embora essa solução pareça razoável, nem sempre a soma total dos deslocamentos será a menor possível – e portanto, não responde ao problema original.
Stariolo mostrou um vídeo durante sua apresentação, e vamos fazer o mesmo aqui. Basicamente, o vídeo apresenta quatro respostas usando, cada um, uma abordagem diferente, para o problema: qual a menor rota possível para ligar as 200 cidades do vídeo.
O primeiro método é selecionar aleatoriamente as cidades até que todas tenham sido visitadas. Ou seja, é “deixar a vida te levar”. Essa abordagem que pode funcionar muito bem quando você está viajando a lazer e resultou no percurso de 327452.4 km percorrido entre as cidades.
O segundo método é o de escolher sempre a cidade mais próxima – a solução “óbvia” que vêm à mente, como falado nos parágrafos anteriores. Provavelmente seria a solução que um turista um pouco mais preparado teria escolhido. No caso do vídeo, a distância total percorrida seria 36226.2km.
A terceira abordagem utiliza o método inicial, criando uma rede aleatória, mas o otimiza, sempre selecionando 2 pontas para trocar. A não ser que seu problema a resolver seja trivial, escolher quais pontas trocar é complicado. Assim, a solução é que o algoritmo faça trocas aleatórias até que encontre a menor rota. O problema dessa abordagem é que, por conta do caminho inicial escolhido, o algoritmo empaca numa solução que não é a melhor possível – e pode ser um “mínimo local”, que não necessariamente é o mínimo global do seu sistema. Nesse caso, o viajante teria percorrido 31887.0 km

Para entender o mínimo local, imagine um vale com montanhas bem altas, mas que também tem montanhas menores ao redor. Pode ser que, procurando o ponto mais baixo entre as montanhas, você caia num vale entre uma montanha grande e uma pequena, mas não necessariamente no ponto mais baixo de todas as montanhas ali (Fonte:i2tutorials)
Como melhorar isso? Utilizando uma técnica probabilística chamada recozimento simulado (simulated annealing), que tem suas origens na termodinâmica.
Para resolver o problema do caixeiro viajante, usar o recozimento simulado permite aceitar probabilisticamente soluções ruins no início da busca. Quanto tempo a busca pelo menor caminho vai durar é medida de acordo com uma temperatura hipotética para o sistema. No início da busca, a temperatura é alta e a chance de aceitar resultados ruins é maior. Com a diminuição da temperatura, também diminui a probabilidade de que a resposta obtida não seja a ideal. No caso do vídeo, o caminho ideal entre as 200 cidades é encontrado quanto a “temperatura do sistema” é 0.4, encontrando uma solução de 30944.3 km.
Recapitulando… a abordagem completamente aleatória percorreria 327 mil quilômetros; ligando sempre o ponto mais próximo, a segunda, 36,2 mil km; a terceira, usando otimização, 31,9 mil km; e, por fim, a quarta, que usa otimização e recozimento simulado, 31,0 mil km.
Claramente, o método do turista “deixa a vida me levar” é o mais longo de todos – e às vezes esse pode até ser o objetivo do turista. Mas quando falamos do transporte de cargas e da logística de mercadorias, é interessante para as empresas gastar o mínimo possível, ou seja, tomar a menor rota possível.
A diferença mais expressiva é entre o ‘viajar sempre para a cidade mais próxima’ e os métodos probabilísticos mais robustos. Considere um caminhão viajando constantemente a 80km/h e cujo desempenho seja 29 litros/100km. A alternativa 2, indo sempre à cidade mais próxima, gastaria 10500 litros ao longo de 453 horas (ou seja, 18.9 dias corridos). Usando a melhor das rotas calculadas, seriam utilizados 1530 litros de combustível a menos, e 2,8 dias seriam economizados na conta do motorista. Se você imaginar grandes companhias com milhares de caminhoneiros transportando mercadoria todos os dias, isso faz uma baita diferença!
Método | Distância (km) | Combustível* | Tempo de percurso** | |
|
327452,4 | 94961 | 4093 h | 170,5 d |
|
36226,2 | 10506 | 453 h | 18,9 d |
|
31887,0 | 9247 | 399 h | 16,6 d |
|
30944,3 | 8974 | 387 h | 16,1 d |
(*) em litros, considerando consumo de 29 L /100km (**) em horas e dias, considerando velocidade constante de 80km/h |
Mas o que física tem a ver com isso tudo?
Primeiramente, princípios de física são utilizados para entender como funciona a natureza. Sistemas complexos ocorrem nas mais diversas escalas e nos mais diversos locais na natureza, então é esperado que a física poderia ser usada para estudá-los. Além disso, a física já tem um conceito que está relacionado o grau de desordem de um sistema – a entropia – e uma área de estudo que se propõe a estudá-la: a termodinâmica.
A termodinâmica pode ser estudada tanto pela mecânica clássica, com as leis de Newton, quanto pela mecânica quântica, com todas as estranhezas intrínsecas ao mundo do muito pequeno. Mas, quando tratamos de uma quantidade muito grande de objetos a serem estudados – moléculas, átomos, elétrons -, é necessário usar a física estatística. A ideia é aliar probabilidade e estatística para caracterizar o comportamento médio (ou probabilístico) de sistemas microscópicos onde existam muitos elementos interagindo. Stariolo ainda comenta que a física estatística é, grosso modo, a termodinâmica na escala microscópica.
Vale lembrar que nem todo sistema estudado com física estatística é um sistema complexo, por conta das outras características intrínsecas deles, como já mencionado neste texto. Um sistema complicado de entender não necessariamente é um sistema complexo! Mesmo assim, a física estatística é uma ferramenta para o estudo dos sistemas complexos, e rompe as barreiras do mundo micro – com ela é possível estudar desde os átomos e moléculas, até as redes sociais e a economia mundial.
O Papos de Física é um evento mensal de divulgação científica promovido pelo ICTP-SAIFR no Tubaína Bar (R. Haddock Lobo, 74). Todo mês, levamos pesquisadores para conversar com o público leigo sobre assuntos intrigantes da física, em palestras descontraídas e informais. Fique ligado para os eventos de 2020 no nosso instagram e na página!
Para saber mais sobre sistemas complexos e a física por trás deles:
SAIFR Divulga! – A Mecânica Estatística só se aplica a fenômenos físicos?
http://www.cbpf.br/~desafios/media/livro/Sistema_complexos.pdf
Continue Reading | Comments Off on Quando o todo é (muito) mais que a soma das partes
Qual a importância da Diversidade em STEM?
Demanda por diversidade é cada vez maior no meio científico. Em outubro, o ICTP-SAIFR sediou dois workshops internacionais para discutir essa questão.
A escolha por uma carreira acadêmica na área de STEM (sigla em inglês para Ciência, Tecnologia, Engenharias e Matemática) é individual. Ela é influenciada por vários aspectos sociais, econômicos e culturais, que vão além do acesso à educação de cada um, e não são diretamente relacionadas ao gênero de cada um. Porém, historicamente, essas profissões são ocupadas majoritariamente por homens. O crescente ingresso de mulheres nessas áreas nos últimos anos, no Brasil e no mundo, tem levantado o debate acerca da diversidade nas áreas de Ciência e Tecnologia.
Em outubro, o ICTP-SAIFR, centro de pesquisa associado ao IFT-UNESP, sediou dois eventos voltados para a discussão sobre a diversidade na Ciência e Tecnologia: o Workshop sobre Habilidades para Jovens Cientistas e o Workshop Aumentando a Diversidade em STEM. Realizados de forma consecutiva, os eventos se fundiram em um só e reuniram dezenas de participantes, em sua maioria mulheres, de toda a América Latina para uma semana de discussões e debates.

Zélia Ludwig, professora de física da UFJF, falou sobre sua pesquisa, trajetória e as dificuldades encontradas por ser uma mulher negra num meio majoritariamente ocupado por homens.
Os primeiros dias de evento contaram, principalmente, com palestras de pesquisadoras bem estabelecidas, compartilhando suas trajetórias, experiências pessoais e dificuldades enfrentadas. Relatos inspiradores de pesquisadoras como Marcia Barbosa (UFRGS), Zélia Ludwig (UFJF) e Katemari Rosa (UFBA) trouxeram reflexões e dados sobre a presença feminina no ambiente acadêmico, sua importância, e críticas à situação atual. A professora Katemari Rosa (UFBA) falou sobre sua pesquisa em ensino de física e também abordou a falta de representatividade de outras minorias e grupos marginalizados na ciência, como as populações negra, indígena e LGBTQ+.
Num ambiente acolhedor, muitas vezes o público se identificou com as histórias contadas e momentos de troca de relatos e vivências ocorreram ao final de cada apresentação. Também nos dois primeiros dias de evento, foi exibido o curta metragem “Women in Science”, produzido por uma estudante de Bacharelado em Física na USP. Este filme traz cenas baseadas em relatos reais de “pequenas violências” sofridas no ambiente acadêmico. Para saber mais sobre o filme e sua produção, veja essa matéria.

O público se sentiu confortável e acolhido durante o evento. Diversas oportunidades para trocar experiências pessoais ocorreram.
O workshop também contou com uma mesa redonda sobre Etnicidade, da qual participaram as professoras Katemari Rosa (UFBA), Zelia Ludwig (UFJF), Lilia Meza Montes (BUAP, México) e os professores Henrique Cunha Jr. (UFC) e Antônio Carlos Fontes dos Santos (UFRJ). Lilia Montes trouxe dados sobre as políticas públicas do governo do México para aumentar a quantidade de indígenas na Academia e falou sobre a importância delas. O professor Henrique Cunha apresentou cientistas negros pioneiros, em geral desconhecidos pelas pessoas, segundo ele, justamente pela invisibilidade de negros na Academia. São eles: Juliano Moreira, médico e psiquiatra; Theodoro Sampaio, engenheiro e urbanista; Manuel Quirino, pioneiro em estudos antropológicos no país; e Virginia Bicudo, psicanalista, socióloga e uma das precursoras dos estudos de Sociologia Negra no Brasil.
Zélia Ludwig e Antonio Santos questionaram os estereótipos da figura do cientista e reforçaram a necessidade de incentivar jovens negros e mulheres a entrar nas áreas de STEM. Por fim, a professora Katemari Rosa contou sobre o projeto que vem desenvolvendo – o “Contando nossa História”. Esse projeto visa criar uma base de dados de cientistas negros no Brasil, hoje e no registro histórico: “um dos objetivos é resgatar uma identificação da população negra brasileira com as ciências e nossa produção intelectual”, comenta a professora. Ela também busca, a partir das narrativas orais da vida de cientistas, produzir materiais didáticos e plataformas online, que sejam amplamente utilizadas pelo público dentro e fora das salas de aula.

Mesa redonda sobre Etnicidade (da esquerda para a direita): Katemari Rosa (UFBA), Antônio Carlos Fontes dos Santos (UFRJ), Zelia Ludwig (UFJF), Henrique Cunha Jr. (UFC) e Lilia Meza Montes (BUAP, México).
Ao longo da semana de eventos, foram discutidas diversas estratégias para combater e modificar o desequilíbrio de diversidade que a Academia apresenta. Dentre as principais abordagens apresentadas, reunimos abaixo três grandes categorias: identificar, incentivar e divulgar.
Identificar
Avaliar a presença de mulheres e minorias nas áreas de STEM não se resume a experiências pessoais dos envolvidos, embora falar sobre o tema seja importante para essas pessoas. Os participantes do workshop, por exemplo, destacaram a troca de experiências, em especial entre cientistas mais experientes e jovens pesquisadoras; a noção de pertencimento e construção de identidade como pesquisador e a criação de redes de apoio pessoal e colaboração científica são vantagens desse tipo de evento.
Antes de discutir medidas concretas, o primeiro passo fundamental é levantar dados: mapear, quantitativamente, a distribuição de mulheres e outras minorias nas mais diversas áreas de STEM. Por isso, várias das palestras também apresentaram dados estatísticos sobre a presença feminina nos ambientes acadêmicos, desde a graduação até bolsas de incentivo a pesquisadores e premiações. Independentemente da área, país ou minoria analisada, à medida que se avança na carreira acadêmica, o número de mulheres, negros, índios e lgbtq+ diminuem drasticamente – um fenômeno conhecido como “teto de vidro” (por conta dele, a ascensão na carreira é mais difícil à medida que esta avança, em especial para as minorias reportadas).
No workshop, foram apresentados os dados preliminares da pesquisa global de cientistas, promovida pelo Projeto Global de Disparidade de Gênero (em inglês, Global Gender Gap in Science Project). Realizada em 2018, esta pesquisa coletou mais de 34 mil respostas de todo o mundo, e buscou caracterizar a disparidade de gênero em STEM. Na América Latina, cerca de 4000 pessoas responderam ao questionário. O projeto ainda está processando os dados e disponibilizará no site os resultados finais. Durante o workshop no ICTP, foram apresentados os resultados preliminares.
Na pesquisa, 53% dos respondentes se identificaram como mulheres, e, embora sugira proporção igualitária entre homens e mulheres na STEM na América Latina, é necessário manter em mente que esta pesquisa foi obtida a partir do preenchimento voluntário de formulários online e, portanto, não necessariamente reflete a proporção de gênero que efetivamente ocorre na Academia. De maneira geral, os dados mostram que mulheres são menos propensas a realizar pesquisa fora dos países de origem, ocupar posições de chefia e em comitês, tanto em suas instituições ou em agências de fomento.
Os dados mais contrastantes sobre as experiências de homens e mulheres na Academia dizem respeito à discriminação, assédio e impacto da maternidade/paternidade em suas vidas. Ao serem questionados sobre os motivos pelos quais sofreram discriminação ao longo da carreira, 49% das mulheres indicam gênero, contra apenas 2% dos homens pelo mesmo motivo. A segunda maior fonte de discriminação reportada é a idade. Esta é a maior queixa dos homens, com indicação de 12% dos respondentes; entre as mulheres, 23% se sentiu prejudicada por conta da idade.

Resultados preliminares da pesquisa “Global Gender Gap” para a América Latina, apresentados durante o evento por Laura Merner (AIP Statistical Research Center, EUA).
Interrupções significativas durante o doutorado ocorrem em taxas semelhantes entre homens (13%) e mulheres (20%), porém, os motivos são muito diferentes. Cerca de 40% das mulheres relatam a maternidade como principal motivo da interrupção; entre os homens, o mesmo motivo é o 8° da lista, ocorrendo em apenas 9% de casos. O principal motivo de interrupção dos estudos para os respondentes do sexo masculino é impedimento financeiro. Quanto ao assédio sexual, aproximadamente ⅓ de homens e mulheres reportaram “ouvir falar” de casos em seus institutos. Entretanto, quando se trata de experiências pessoais, 24% das mulheres relatam terem vivido essas situações, enquanto apenas 6% dos homens se queixam pelo mesmo motivo.
Como é a situação de gênero no IFT-UNESP e no ICTP-SAIFR?
Um rápido levantamento do perfil de estudantes, professores, pesquisadores e funcionários que fazem parte do IFT-UNESP e/ou do ICTP-SAIFR mostra que a disparidade de gênero existe. O IFT é um instituto de pós-graduação e pesquisa, assim como o ICTP-SAIFR. Dessa forma, a reduzida presença de mulheres é, provavelmente, reflexo também da já limitada presença feminina na graduação em física. Veja o gráfico abaixo, que resume a proporção entre homens e mulheres dos institutos, com dados levantados em outubro de 2019.

Infográfico mostrando a distribuição de homens e mulheres nas categorias do IFT/UNESP e ICTP-SAIFR. Para estudantes de mestrado e doutorado, o número total de pessoas foi normalizado para 20, e a distribuição de homens e mulheres reflete a proporção das categorias. No caso dos pós-doutorandos, docentes e funcionários, estão representados o número total de indivíduos e a proporção entre homens e mulheres.
Nathan Berkovits, diretor do ICTP-SAIFR, comenta que o ingresso no curso de mestrado no IFT-UNESP é parcialmente baseado nos resultados de um exame oferecido anualmente pelo ICTP-SAIFR para os melhores alunos de graduação e que, desde 2005, somente uma mulher ficou entre os 5 melhores colocados nesse exame. O diretor explica ainda que gostaria de aumentar a diversidade do corpo docente do ICTP-SAIFR mas, por conta do reduzido número de mulheres na Física Teórica, a competição internacional pelas melhores pesquisadoras é “feroz”: “nos últimos 3 concursos para professores permanentes no IFT, quatro candidatas muito fortes desistiram porque conseguiram posições nos EUA e na Europa” comenta.
O ICTP-SAIFR também busca incentivar mais meninas a escolherem a Física como profissão. O centro promove anualmente o Aventuras em Física Teórica, uma série de minicursos para estudantes de ensino médio, cujo objetivo é introduzir os alunos a assuntos de Física Teórica e despertar o interesse por essa área. Para participar, os estudantes passam por uma seleção e o público convocado é sempre composto pelo mesmo número de meninas e meninos. Apesar de serem convocados em proporção igual, de maneira geral, mais meninos comparecem às aulas (cerca de 65% contra 35% de meninas).
Incentivar
Diversas palestras focaram na importância de incentivar mulheres e minorias a entrar e permanecer nas áreas de STEM. Esse incentivo pode se dar de várias formas, dependendo do público alvo, e incluem bolsas de estudos, ações afirmativas, e premiações por alto desempenho.
O México foi um dos exemplos citados no workshop, como um país que conta com bolsas de estudos voltadas para minorias. Lá, existem alguns programas de incentivo à educação da população indígena, que possui índices de analfabetismo e falta de acesso à educação muito superiores à média do país, entre eles projetos específicos para meninas (veja aqui os projetos). No país, também existem diversas outras bolsas específicas para mulheres, incluindo variedades para mães solo inseridas no ensino superior, com excelente histórico acadêmico; bolsas de pós graduação para mulheres indígenas; e bolsas de pós doutorado em parceria com o Canadá. Essas bolsas são ações afirmativas importantes, mas ainda não conseguem suprir o problema de equidade de gênero na Academia. Isso sugere que mais ações devem ser tomadas, incluindo a implementação de políticas públicas, conforme discutido durante o workshop.
Premiações para pesquisadoras de destaque também são uma forma de incentivar as mulheres nas áreas de STEM, além disso, prêmios dados a cientistas em início de carreira também são frequentes. Durante o workshop, a física Marcia Barbosa, que recebeu o L’Oréal-UNESCO Awards for Women in Science em 2013, ressaltou a importância de dar o reconhecimento às conquistas das mulheres através destes prêmios. Outras premiações para mulheres em áreas de STEM existem, uma lista destas pode ser encontrada na wikipedia.
Outra forma de incentivar mais mulheres a seguirem carreira nas áreas de STEM é dar suporte para meninas em idade de formação. “É preciso incentivar as meninas desde cedo” pode ter sido uma das frases mais faladas durante a semana de evento. Assim, a última forma de incentivo faz uma ponte com o terceiro tipo de iniciativa: divulgar.
Divulgar
Entrar no mundo da STEM depende de diversos fatores sócio-econômicos e culturais, que influenciam a escolha dos indivíduos, mas aparentemente favorecem o ingresso de homens. Por isso, a necessidade de incentivar mais meninas e mulheres a entrarem nesse mundo é um consenso entre todos os participantes do Workshop de Diversidade: é necessário adotar medidas que atinjam tanto as meninas que já se interessavam por ciência, quanto aquelas que “ainda não sabem que se interessam”. Assim, a divulgação científica se torna ferramenta protagonista na tarefa de trazer mais diversidade para as áreas de STEM.
Diversas iniciativas de divulgação científica têm surgido nos últimos anos, em geral, motivadas pela democratização e valorização do conhecimento científico. Além de suprir a curiosidade daqueles que já se interessam por ciência e tecnologia, a divulgação científica tem se tornado, cada vez mais, uma ferramenta de “recrutamento”, principalmente de crianças e adolescentes. Alguns projetos apresentados durante o Workshop, como o “Tem menina no circuito” e o “Meninas na Física”, organizadas por alunas e professoras do Instituto de Física da UFRJ, são voltados para meninas em idade de formação escolar. Estes e outros projetos de divulgação procuram não somente ensinar conteúdos de ciência de forma fácil e acessível, mas também mostrar que existem mulheres cientistas no país: “Representatividade importa”, como relataram diversas palestrantes ao contar sobre seus projetos de divulgação.
Fazer divulgação científica para o público geral também tem impactos positivos para os pesquisadores. Germana Barata, professora e pesquisadora do Labjor – Unicamp (Laboratório de Estudos Avançados em Jornalismo), mostrou que, ao fazer publicações nas redes sociais sobre artigos recém-publicados, o número de acessos aos mesmos quase dobra, em comparação aos meses em que não há essa divulgação. Segundo ela, isso ocorre mesmo que os textos sejam em linguagem acessível, ou seja, divulgar para público leigo acabou atraindo mais pessoas de público especializado.
O último dia de workshop foi destinado às apresentações dos participantes, onde, mais uma vez, a divulgação científica mostrou seu potencial. A apresentação de Milene Alves-Eigenheer, com páginas de redes sociais de várias iniciativas de sucesso está disponível no site do evento. Por fim, como “tarefa para casa”, o público foi desafiado a utilizar mais suas redes sociais pessoais para falar de suas pesquisas e seu dia a dia como cientistas, e ajudar na quebra dos estereótipos da Academia.
Continue Reading | Comments Off on Qual a importância da Diversidade em STEM?
Experiência imersiva com óculos de realidade virtual mostra o dia a dia das estudantes de física
Projeto de estudante de física da USP propõe mostrar, de forma respeitosa e ao mesmo tempo combativa, a realidade da vivência de alunas de cursos majoritariamente frequentados por homens.
Empatia é um conceito cujo significado é relativamente bem conhecido – a capacidade de se identificar com outra pessoa, de se colocar no lugar dela. Porém, praticar a empatia é uma tarefa muito mais complicada, especialmente quando as pessoas envolvidas têm realidades muito contrastantes. O projeto da estudante Dindara Galvão, da USP, consistiu na produção de um curta metragem sobre as dificuldades encontradas na carreira acadêmica por conta do gênero. Ela utiliza óculos de realidade virtual para oferecer uma experiência imersiva, colocando o espectador no lugar das protagonistas, experimentando na pele situações comumente vividas por graduandas das áreas de exatas.

Participantes do Workshop de Diversidade assistiram ao curta-metragem com óculos de realidade aumentada (Foto: Dindara Galvão).
A iniciativa já existia antes, como projeto da pró-Reitoria de Cultura e Extensão da USP, mas com um formato completamente diferente: a ideia era produzir uma peça de teatro que contava a trajetória de uma pesquisadora, através de relatos reais. Quando Dindara assumiu, adaptou o foco para algo que lhe era mais familiar: sua vivência como aluna do bacharelado em física “como eu vivi muitas coisas na graduação, eu achei que seria importante trazer essa visão”. Para potencializar o alcance e distribuição do trabalho, a estudante optou por produzir um curta metragem e seu orientador, o professor Caetano Miranda (IFUSP), propôs utilizar uma câmera 360° e tornar essa experiência imersiva.
O grupo organizou questionários online para recolher relatos de mulheres das graduações de diversos institutos de ciências exatas da Universidade de São Paulo (Instituto de Física (IFUSP), Matemática (IME-USP), Química (IQ-USP) e Astronomia Geofísica e Ciências Atmosféricas (IAG-USP). Os roteiros das cenas do curta metragem foram escritos a partir das situações mais recorrentes nos relatos. O curta tem 10 cenas que, embora independentes, são organizadas numa sequência lógica. Ele ilustra a carreira acadêmica desde o início, logo após a aprovação no vestibular, até o reconhecimento como pesquisadora, encenada numa “corrida pelo Nobel”. Cada cena representa situações negativas vivenciadas pelas mulheres no ambiente acadêmico, incluindo difamação, humilhação, invisibilização por colegas e professores, assédio, a questão da maternidade, entre outros.
Continue Reading | Comments Off on Experiência imersiva com óculos de realidade virtual mostra o dia a dia das estudantes de física
Bate-papo sobre um dos temas mais polêmicos da atualidade: o Aquecimento Global
No dia 03 de outubro aconteceu mais uma edição do Papos de Física, evento mensal de divulgação científica promovido pelo ICTP-SAIFR, centro de pesquisa associado ao IFT-UNESP. Nesta edição o público pôde conversar com a profa. Dra. Ilana Wainer, professora do Instituto Oceanográfico da USP (IO-USP), que discutiu os Efeitos Climáticos do Oceano.

A professora Ilana Wainer (IO-USP) explicou sobre as mudanças climáticas e quais evidências científicas comprovam sua existência.
Algumas semanas antes da realização do Papos de Física, o IPCC (Painel Intergovernamental para Mudanças Climáticas) divulgou o mais recente Relatório Especial sobre o Oceano e a Criosfera (regiões da superfície terrestre cobertas permanentemente por gelo e neve). Aproveitando os dados divulgados neste relatório, a professora apresentou as principais evidências que comprovam o aquecimento global e quais as perspectivas (otimistas ou não) sobre o futuro do planeta.
Antes de mais nada, a professora esclareceu a diferença entre tempo e clima. Tempo compreende as condições e mudanças meteorológicas que estão ocorrendo no agora. Clima, por outro lado, compreende padrões médios de variação das condições atmosféricas ao longo de um período prolongado de tempo. Assim, falar que está fazendo sol é falar sobre o tempo, mas falar que normalmente em janeiro faz calor e chove, é falar sobre clima. Quando falam de aquecimento global e mudanças climáticas, os cientistas olham para esses padrões de variação ao longo do tempo, em escalas globais.
Mas antes de entrar no polêmico aquecimento global, vamos entender um pouco sobre a influência dos oceanos no clima.
O planeta Terra, como um todo, é um sistema complexo onde diversos agentes se relacionam. Isso se aplica também ao clima, que é influenciado e atua sobre a biosfera (que comporta os ecossistemas do planeta), a litosfera (rochas e estrutura interna terrestre), a hidrosfera (água em seus diferentes ambientes) e, obviamente, a atmosfera (camada de gases que envolve o planeta). As interações entre essas diferentes “esferas” ocorrem em escalas espaciais e temporais distintas, mas todas exercem algum impacto no controle do clima global. No Papos de Física de outubro, Ilana focou nas interações entre atmosfera e hidrosfera (em especial, os oceanos) e seu efeito sobre o clima.
Ilana explicou que os oceanos são como o ar condicionado da Terra e têm um papel fundamental na redistribuição de calor no planeta. A água retém mais calor que a atmosfera e, por conta das correntes oceânicas, o calor é distribuído. As correntes são divididas entre correntes superficiais, mais quentes, e correntes de fundo oceânico, mais frias. Elas são influenciadas por diversos fatores, incluindo ventos, marés, densidade da água e o movimento de rotação da Terra. Até a topografia do fundo oceânico e das costas influencia na velocidade das correntes.
Mesmo que as marés exerçam influência nas regiões próximas às costas, a principal força motriz das correntes superficiais é a atmosfera.
A ação dos ventos movimenta mais ou menos 10% do volume do oceano, atuando diretamente nas camadas mais superiores de água. Estas, por sua vez, influenciam a movimentação das camadas logo abaixo, e assim por diante. Dessa forma, os ventos podem influenciar o movimento de água até a profundidade de 400m.
Mas os oceanos são muito mais profundos do que 400m. Se os ventos só conseguem influenciar até essa profundidade, deve haver outro mecanismo responsável pela movimentação das correntes profundas, certo? Exato. As correntes profundas são controladas, principalmente, pela densidade da água do mar.
Ao se movimentar em direção aos pólos, a temperatura da água diminui. Nessas regiões, a salinidade é maior, ou seja, a concentração de sal dissolvido aumenta – isso ocorre porque parte da água é aprisionada em cristais de gelo, deixando as moléculas de sal para trás, concentradas na água líquida. A água mais fria e “salgada” é mais densa que a água que chega nessas regiões e afunda, criando correntes de movimentação vertical chamada circulação termoalina. A movimentação de águas profundas em direção à superfície também carrega nutrientes que sustentam a base das cadeias alimentares marinhas.

Correntes superficiais quentes (vermelho) e correntes profundas, frias (azul). Essas grandes correntes de circulação de água funcionam como um “ar condicionado” do planeta. (Imagem: NASA).
A ação conjunta das correntes oceânicas superficiais e profundas mantém o equilíbrio do clima no planeta todo. Ou pelo menos costumava manter… Apesar da complexidade do sistema controlando o clima, o equilíbrio é, na verdade, frágil, e “pequenas” perturbações podem ter consequências grandes.
Como sabemos que o planeta está aquecendo?
No IPCC centenas de cientistas de todo o mundo recolhem dados sobre o clima global para avaliar os impactos do aquecimento global. Comprova-se que o planeta está, de fato, aquecendo a partir de diversos indicadores. Vamos conhecer alguns deles?

Diversos indicadores mostram que a temperatura média do planeta está aumentando e que as mudanças climáticas são reais. Veja o texto para entender um pouco mais sobre cada indicador.
Diminuição das geleiras
Talvez o mais conhecido e impactante indicador do aquecimento global é o derretimento das geleiras. Imagens de satélite mostram a cobertura de gelo marinho no Ártico cada vez menor nas últimas décadas.
Umidade específica do ar
A umidade específica do ar também tem aumentado no passar dos anos. Isso significa mais vapor d’água no ar. A princípio, ter mais água não parece um problema, mas, na verdade, o vapor d’água é um gás estufa poderosíssimo e contribui para o aumento da temperatura.
Calor dos oceanos
Também há registro do aumento do conteúdo de calor nos oceanos. Já existem evidências de que as temperaturas estão aumentando na superfície dos oceanos e até os primeiros 700m de profundidade. Isso afeta diretamente os frágeis ecossistemas marinhos, e também a população que depende dele para se alimentar.
Aumento do nível do mar
Diversas localidades já registram aumento do nível do mar no mundo. Isso é causado tanto pelas taxas aceleradas de derretimento das geleiras do Ártico, como também pela expansão térmica dos oceanos (por conta do aumento de temperatura). Estima-se que atualmente o nível do mar sobe 3.6 mm por ano.
Temperatura da baixa atmosfera
A atmosfera é dividida em algumas camadas, de acordo com a distância em relação ao solo. Nós habitamos a troposfera, a camada mais baixa, que compreende até 12km de altitude, e fica abaixo da camada de ozônio. Medidas sistemáticas da temperatura dessa camada mostram que ela tem esquentado nos últimos anos. Aliás, comparado à época pré-Revolução Industrial, a temperatura já subiu 1°C! Isso acontece por que os gases de efeito estufa se acumulam na atmosfera e retém o calor irradiado da superfície e elevando a temperatura.

A atmosfera do planeta é dividida em camadas: troposfera, estratosfera, mesosfera, termosfera e exosfera. Nós habitamos a troposfera, a camada mais baixa, que vai até 12km de altura. Um pouco acima disso, se encontra a conhecida camada de ozônio (Fonte freepik user).
Aliás, o que é o Efeito Estufa?
Primeiro, precisamos saber que o Efeito Estufa é natural e, na verdade, garante a vida na Terra.
Na agricultura, as estufas são utilizadas para cultivar plantas mais sensíveis, e que não sobreviveriam ao clima no exterior. Dentro de uma estufa, a radiação solar passa pelas paredes de vidro e é absorvida pelas plantas e outras estruturas dentro dela. Parte da radiação é irradiada de volta, mas fica presa conta das paredes de vidro. Dessa forma, é possível cultivar plantas independente das variações climáticas das estações do ano. De forma semelhante, o planeta Terra também está dentro de uma estufa – a nossa atmosfera.
Quando a radiação solar chega na Terra, parte dela é refletida de volta para o espaço pelas camadas mais externas da atmosfera. Uma outra pequena parcela é refletida de volta para o espaço nas grandes geleiras, por conta da cor branca dessas superfícies. O restante é absorvido pelos oceanos e massas de terra do planeta. A Terra irradia parte do calor absorvido de volta para o espaço, mas uma porcentagem acaba presa na atmosfera, por conta dos gases do efeito estufa existentes, e isso mantém o planeta aquecido. Se não fosse esse efeito, a Terra poderia ser até 33°C mais fria, o que inviabilizaria a vida por aqui (pelo menos nas formas como a conhecemos hoje).
Os gases do efeito estufa incluem vapor d’água, dióxido de carbono (conhecido como gás carbônico – CO2), metano (CH4), óxido nitroso (N2O), ozônio e os componentes clorofluorcarbonos (CFCs). Com exceção dos CFCs, que são utilizados para refrigeração, todos esses gases são naturais e estão presentes na atmosfera terrestre, em proporções variadas. A grande questão é que o estilo de vida que levamos hoje, com grande dependência de combustíveis fósseis e emissão de gases, potencializa o efeito estufa, contribuindo para o aumento da temperatura do planeta.

O efeito estufa ocorre naturalmente no planeta e garante temperaturas amenas. O problema é a intensificação do efeito, por conta da emissão de gases do efeito estufa (Imagem mundoeducacao).
E para onde vai esse calor em excesso? Por enquanto, para o oceano (uma das causas do aumento da sua temperatura). Estima-se que os oceanos sejam responsáveis por absorver cerca de 93% do calor em excesso da atmosfera. Por enquanto, eles são capazes de fazer isso, mas Ilana alertou que já estamos nos aproximando de um “ponto de inflexão”, e que talvez os oceanos não sejam capazes de absorver o calor em excesso por muito tempo. As consequências disso podem ser severas, acelerando as mudanças que já estão ocorrendo e aumentando ainda mais a temperatura.
Como as mudanças climáticas já estão afetando o planeta?
- O aquecimento do oceano é acompanhado da diminuição do pH e diminuição da quantidade de O2 dissolvido na água. O resultado é morte de parte significativa da vida marinha e alteração do equilíbrio químico dos oceanos;
- Além disso, o aquecimento do oceano prejudica a mistura entre camadas de profundidades diferentes, gerando a estagnação da água. Isso implica em menos oxigenação das camadas e menor circulação de nutrientes, também impactando a vida marinha;
- O nível do mar já aumentou em algumas partes do planeta. As mudanças variam de lugar para lugar, mas é importante lembrar que quase 2 bilhões de pessoas moram a menos de 100km da costa, e toda essa população está em perigo com variações drásticas do nível do mar;
- Chuvas, ciclones tropicais e outros eventos extremos que atingem as costas têm se intensificado;
- O aumento do nível do mar também é associado com maior incidência de inundações, enchentes, secas, erosão e danos para infra-estrutura de regiões próximas à costa, desaparecimento de ilhas oceânicas e contaminação de aquíferos;
- Cenários otimistas prevêem o aumento do nível do mar em 60cm até 2100, isso caso sejam implementadas, agora, medidas e políticas públicas comprometidas com a diminuição da emissão de gases de efeito estufa. Em cenários mais pessimistas, onde não existe controle algum, calcula-se que a elevação pode ser de até 1 metro!
Com as predições do novo relatório do IPCC, Ilana alertou que devemos cobrar posicionamento e políticas públicas dos governantes, para ajudar a conter as mudanças climáticas no mundo todo. Alguns efeitos já são irreversíveis, como apontou a pesquisadora, e é necessário agir agora para evitar que os cenários mais pessimistas se concretizem.
O Papos de Física é um evento mensal de divulgação científica promovido pelo ICTP-SAIFR, que ocorre todo início de mês no Tubaína Bar (R. Haddock Lobo, 94). Nesses eventos, físicos levam assuntos de ciência que despertam curiosidade do público para uma conversa informal e descontraída, de forma acessível a todos. A última edição do ano, aconteceu no dia 07 de novembro, com o tema “Sistemas Complexos: o Olhar da Física”. Fique atento ao blog para saber como foi o evento e nas nossas redes sociais para saber da programação de 2020!
Para saber mais sobre mudanças climáticas:
- Veritasium (em inglês, com legendas): https://www.youtube.com/watch?v=OWXoRSIxyIU
- TED-Ed (em inglês, com legendas): https://www.youtube.com/watch?v=p4pWafuvdrY
- Materiais do IPCC: https://www.ipcc.ch/2019/09/25/srocc-press-release/ | https://www.ipcc.ch/site/assets/uploads/sites/3/2019/09/SROCC_SPM_HeadlineStatements.pdf
Continue Reading | Comments Off on Bate-papo sobre um dos temas mais polêmicos da atualidade: o Aquecimento Global
Um papo sobre a expansão do Universo
No dia 12 de setembro ocorreu mais uma edição do Papos de Física, e dessa vez o público pôde assistir o professor Eduardo Cypriano (Instituto de Astronomia, Geofísica e Ciências Atmosféricas – IAG-USP) falar sobre os “Desafios da Cosmologia Observacional”. Eduardo começou a palestra fazendo um panorama geral do que se entende por Cosmologia atualmente, como ela funciona e quais os desafios futuros.
Nossos ancestrais, há milhares de anos, voltaram os olhos para o céu estrelado e tentaram dar significado para aqueles pontos brilhantes que tanto nos fascinam. Desde então, praticamente todas as civilizações das quais se têm registro, criaram mitos e histórias que, de alguma forma, explicavam os porquês do céu ser do jeito que é. Hoje, Cosmologia é a área da ciência que se ocupa em entender o Universo como um todo.

Fotos do Papos de Física de Setembro/2019. Eduardo Cypriano, professor do IAG-USP, discutiu com o público os Desafios da Cosmologia Observacional (Créditos das imagens: ICTP-SAIFR).
Apesar das contribuições de cientistas como Galileu, Newton e Kepler, foi com Einstein e a Teoria da Relatividade Geral que surgiu uma revolução na maneira como entendemos o Universo. A teoria, que explica a gravitação, introduziu a ideia de espaço-tempo, mostrou a existência da relação entre massa e energia, e resolveu o problema da órbita de Mercúrio: a órbita de todos os planetas se modifica um pouco ao longo do tempo, mas os cálculos feitos para a órbita de Mercúrio não batiam com as observações, até que a Relatividade Geral foi incorporada nas contas. A Relatividade Geral prevê diversos outros fenômenos que hoje estamos verificando, como as ondas gravitacionais, detectadas diretamente em 2015 (clique aqui para saber mais!), e a existência de buracos negros, comprovada pelo primeiro registro “fotográfico” de um, em abril de 2019.
Porém, como lembrou Cypriano, Einstein não estava completamente correto em alguns pontos, entre eles, o fato de considerar nosso universo finito e estático. A partir das equações de Einstein, Friedmann, um físico e matemático russo, descreveu leis que previam a expansão do Universo, considerando que ele seria homogêneo e isótropo (ou seja, igual em todas as direções). Mas foi com as contribuições de Henrietta Leavitt que, anos mais tarde, Lemaitre e Hubble comprovaram a expansão do Universo.
Henrietta Leavitt foi uma astrônoma americana, responsável pela descoberta da existência de uma relação entre o período e a luminosidade de cefeidas, um tipo de estrela. Esta constatação deu origem ao método utilizado para medir as distâncias entre astros. Com esse método, as distâncias entre a Terra e várias estrelas e galáxias começaram a ser medidas até que Lemaitre e Hubble, independentemente, observaram uma relação linear entre a distância e a velocidade com a qual as galáxias estão se movendo, e atribuíram essa relação à expansão do Universo. Assim, estes cientistas mostraram que, ao contrário do que pensava Einstein, o Universo não é finito e estático e está, na verdade, se expandindo.

Cefeidas são um tipo de estrela pulsante, ou seja sua luminosidade aumenta e diminui em intervalos de tempo bem definidos. Esse intervalo é denominado período, e existe uma relação linear entre a luminosidade e o período das cefeidas. Essa relação é utilizada para calcular a distância e a velocidade das estrelas, assim os cientistas determinaram o tamanho, idade e taxa de expansão do universo. LMC: Grande Nuvem de Magalhães, uma galáxia satélite à Via Láctea (em inglês – Large Magellanic Cloud); Milky Way: Via Láctea. (Créditos da imagem: NASA/JPL-Caltech/Carnegie, dados do Telescópio Spitzer).
Sabemos que o Universo está se expandindo. Assunto encerrado, certo? Na verdade, constatar que o Universo está expandindo levanta muitas outras questões: o universo vai expandir para sempre? A expansão ocorre sempre à mesma velocidade, ou está retardando? Ocorre um processo cíclico, no qual o Universo alterna entre expandir-se e contrair-se infinitamente? Qual o futuro do Universo?
O professor mostrou que essas questões têm relação direta com a própria geometria do Universo, e que existem três modelos possíveis: num universo fechado, o modelo que se adequa melhor aos cálculos é o de alternância de ciclos de expansão e contração; num universo aberto, com pouca massa, os cálculos prevêem que o cosmos se expandirá para sempre; e na terceira opção, onde a geometria do universo seria plana, o universo deve possuir uma densidade específica, uma “massa crítica”, e dessa forma ele está se expandindo agora, mas cada vez a taxas menores, de forma que, um dia, atingirá um tamanho máximo.

Depois de confirmar a expansão do Universo, surgem questões como: se está expandindo agora, já contraiu antes? Qual a taxa de expansão? Vai expandir para sempre, ou eventualmente ocorrerá o colapso do universo todo? Como evolui o universo ao longo do tempo? (Créditos da imagem: UFRGS)
Como resolver essa questão?
Primeiramente, os astrônomos determinaram a densidade do universo. Cada um dos modelos geométricos funciona para valores específicos de densidade, e por isso essa era uma das saídas. O problema é que a densidade calculada foi um valor diferente do esperado, e, na verdade, não era exatamente equivalente aos valores de nenhum dos modelos, mas sim a um valor intermediário.
A alternativa encontrada pelos astrofísicos foi calcular as velocidades e distâncias de estrelas ainda mais distantes. A ideia seria que, para esses corpos tão distantes, já seria possível observar a desaceleração do Universo. E funcionou! Utilizando supernovas como referência, foi possível “enxergar” lugares ainda mais afastados no universo e calcular suas distâncias e velocidades com as quais galáxias distantes se deslocam. Mas… Mais uma vez, o universo pregou uma peça nos cientistas. Certos de que encontrariam a taxa de desaceleração do universo (ou seja, quanto a velocidade diminui com o tempo), os cientistas se surpreenderam ao encontrar um valor negativo.
Ou seja: o universo não está expandindo cada vez mais devagar, mas sim cada vez mais rápido!
Nesse momento, o professor Eduardo aproveitou a oportunidade para explicar um pouco sobre o Método Científico e a importância de aplicá-lo no fazer científico. Ao longo da história da ciência, repetidamente os cientistas se surpreenderam com os resultados de seus cálculos e experimentos. No fazer científico, faz parte do processo ter de repensar (e muitas vezes descartar) a hipótese original, tendo em vista os resultados das observações e experimentos. Este episódio da descoberta da expansão do Universo é um bom exemplo sobre como os pesquisadores devem se apoiar no método, e não apenas em suas intuições.

O método científico é parte fundamental do fazer científico e, embora tenha variações de acordo com a área de estudo, é um guia geral de como fazer ciência de forma imparcial e acurada. Esse infográfico mostra como o bioquímico e escritor Isaac Asimov explica resumidamente o método (Créditos da imagem: Via Saber).
Voltando ao assunto… Porque o universo está se expandindo, e cada vez mais rápido? É justamente isso que os astrofísicos estão tentando resolver agora. Esses são os novos Desafios da Cosmologia Observacional. Essa aceleração é atribuída à Energia Escura, uma energia que existe no universo, mas que os físicos ainda não entendem como funciona. Além disso, hoje sabemos que quase toda a massa do universo é formada, na verdade por Matéria Escura, cuja natureza também é pouco compreendida (veja aqui um dos candidatos para compor a matéria escura). “Talvez seja necessário desenvolver uma ‘nova física’ para explicar esses fenômenos” finalizou o professor Eduardo Cypriano.
O Papos de Física é um evento mensal de divulgação científica realizado pelo ICTP-SAIFR, centro de pesquisa associado ao IFT-UNESP, no Tubaína Bar (R. Haddock Lobo, 74, Cerqueira César). Num ambiente descontraído e informal, físicos falam sobre os avanços da ciência e temas que despertam a curiosidade da população. Ao final de cada apresentação, o cientista convidado responde perguntas do público. A próxima edição acontecerá no dia 03 de outubro, e contará com a presença da professora Ilana Wainer (IO-USP), que falará sobre os “Efeitos Climáticos do Oceano”.
Continue Reading | Comments Off on Um papo sobre a expansão do Universo