sexta-feira, 17 de março de 2017

Cientistas discutem aumento da temperatura em até 1,5ºC

Como limitar o aquecimento do planeta em até 1,5ºC até o fim do século e minimizar os impactos das mudanças climáticas é a pergunta que 86 cientistas do Painel Intergovernamental sobre Mudança do Clima (IPCC, na sigla em inglês) tentam responder num encontro realizado no Instituto Nacional de Pesquisas Espaciais (INPE), vinculado ao Ministério da Ciência, Tecnologia, Inovações e Comunicações.

Representando 39 países, o grupo de cientistas, que inclui três brasileiros, trabalha na elaboração de um relatório especial do IPCC sobre mitigação, perspectivas econômicas e sociais e desenvolvimento sustentável. O documento é um desdobramento do Acordo de Paris, ratificado pelo Brasil em setembro de 2016.

A reunião na sede do INPE, em São José dos Campos (SP), é a primeira do novo ciclo do IPCC, iniciado em 2015 e com conclusão em 2021. Nesta etapa inicial, os especialistas buscam informações e literatura científica voltada para o aumento da temperatura em 1,5ºC. A tarefa, no entanto, não deve ser fácil.

"Grande parte do conhecimento produzido leva em conta uma elevação da temperatura em 2ºC. Pode parecer pouco, mas esse 0,5ºC faz muita diferença no estudo dos impactos do clima. A literatura pode não ser suficiente e podemos precisar produzir mais conhecimento levando em conta a temperatura de 1,5ºC", explica a vice-presidente do IPCC e pesquisadora do INPE, Thelma Krug.

Até o fim de 2018, mais duas reuniões devem acontecer para finalizar o documento. Para o coordenador de Pesquisa e Desenvolvimento do Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden), José Marengo, o intercâmbio de informações entre cientistas de diferentes países é fundamental para a construção de um relatório mais completo. "Isso gera um relatório que contempla variáveis e panoramas que levem em conta uma estrutura global", avalia.

Marengo é um dos editores-revisores do capítulo 3 do relatório, que trata dos impactos nos sistemas naturais e humanos. Já o biólogo Marcos Buckeridge, da Universidade de São Paulo (USP), trabalha no capítulo sobre o fortalecimento e a implementação da resposta global à ameaça da mudança do clima, enquanto a pesquisadora Patricia Pinho, do programa de pós-graduação do INPE, vai analisar os impactos das mudanças climáticas sobre o desenvolvimento sustentável.

Brasil

Para Thelma Krug, a participação de cientistas brasileiros confirma a relevância do país nas pesquisas sobre mudanças climáticas. "Pesquisadores de apenas 39 países foram selecionados para participar. Nós termos três brasileiros dentro de um universo de 86 especialistas é expressivo, porque foi uma seleção muito rigorosa. Isso é um reconhecimento fantástico ao trabalho que o país desenvolve na questão do clima", ressalta.

O INPE realiza estudos interdisciplinares para subsidiar o Brasil com as informações necessárias para a implementação de medidas de adaptação, mitigação e auxílio na concepção e elaboração de políticas públicas para o setor climático e ambiental. No instituto, são realizadas pesquisas de excelência em Modelagem e Observações do Sistema Terrestre, especialmente do Sistema Climático, Mudança de Uso e Cobertura da Terra, Hidrologia, Química Ambiental, Energias Renováveis, Eletricidade Atmosférica, Oceanografia e Zonas Costeiras, Queimadas, Desastres Naturais, Adaptação, Mitigação e Políticas Públicas.

Ação mundial

O IPCC é um órgão das Nações Unidas que estuda a ciência relacionada às mudanças do clima. Ele foi estabelecido em 1988 pela Organização Meteorológica Mundial (OMM) e o Programa das Nações Unidas para o Meio Ambiente (Pnuma) para oferecer às nações levantamentos científicos sobre as implicações e potenciais riscos, além de apresentar estratégias de adaptação e mitigação. Atualmente, 195 nações integram o grupo.
 

Primeira reunião de autores de relatório especial do IPCC foi realizada no INPE


Thelma Krug, pesquisadora do INPE e vice-presidente do IPCC
 
 

terça-feira, 28 de fevereiro de 2017

How to predict and prepare for space weather


SOMETIMES the sun burps. It flings off mighty arcs of hot plasma known as coronal mass ejections (CMEs). If one of these hits Earth it plays havoc with the planet’s magnetic field. Such storms are among the most spectacular examples of what astronomers call space weather, a subject to which a session at this year’s meeting of the American Association for the Advancement of Science (AAAS), in Boston, was devoted. A big CME can have profound effects. In 1859, for instance, a CME subsequently dubbed the Carrington event, after a British astronomer who realised its connection with a powerful solar flare he had observed a few days earlier, generated auroras that could be seen in the tropics. Normally, as the names “northern” and “southern” lights suggest, such auroras (pictured above) are visible only from high latitude. More significant, the Carrington event played havoc with Earth’s new telecommunications system, the electric telegraph. Lines and networks failed, and some operators received severe shocks.
Today, the damage would be worse. A study published in 2013 by Lloyd’s, a London insurance market, estimated that a Carrington-like event now would cause damage costing between $600bn and $2.6trn in America alone. A year before this report came out the sun had indeed thrown off such an ejection—though not in the direction of Earth. A much smaller storm did, however, do serious damage in 1989, by inducing powerful currents in Quebec’s grid, blacking out millions of people. It would therefore be useful, Jonathan Pellish of the Goddard Space Flight Centre, a NASA laboratory, told the meeting, to be able to forecast space weather in much the same way as weather is forecast on Earth. This would permit the most vulnerable equipment to be disconnected, in advance of a CME’s arrival, to prevent damaging power surges.
Sturm und drang
It sounds straightforward enough, but is harder than it sounds. Though CMEs are common, they cause problems on Earth only if they score a direct hit. The so-called “empty” interplanetary space of the solar system is, in fact, suffused by a thin soup of charged particles. These particles interact with moving CMEs in ways that are hard to predict. That makes forecasting a storm’s track difficult. On top of this, CMEs themselves have magnetic fields, with north and south poles, just as Earth does. The way the poles of a CME line up with those of Earth can affect the intensity of the resulting electrical activity.
To try to understand all this better a number of satellites already monitor the sun, looking for, among other things, CMEs. These include a fleet of American environment-modelling craft and also the Solar and Heliospheric Observatory, which is a joint European-American venture launched in 1995. Several new sun-watching instruments are planned for the next couple of years. One is the European Space Agency’s Solar Orbiter. Another is NASA’s Solar Probe Plus. A third is a special telescope, called DKIST, to be built in Hawaii. The eventual goal, said Dr Pellish, is to make space-weather forecasts as easy and routine as terrestrial ones.
Preparing for the extraterrestrial equivalent of hurricanes in this way is surely wise. But space drizzle can cause problems too. Even when the sun is quiet, Earth is bombarded by a steady stream of high-energy subatomic particles. Some come from the sun, which is always shedding matter in small quantities even when it is not throwing off CMEs. Others are cosmic rays, which originate from outside the solar system. Both types, when they smash through the atmosphere, create showers of secondary particles in their wake. And, as Bharat Bhuva, an engineer at Vanderbilt University in Tennessee, described to the meeting, this shrapnel can cause problems with the electronic devices on which people increasingly depend.
If such a particle hits a computer chip, it can inject an electrical charge into the circuit. Since chips work their magic by manipulating packets of charge, that can create all sorts of problems. Dr Bhuva described how, in 2008, the autopilot of a Qantas airliner had been knocked out by a rogue particle. The resulting sudden plunge of about 200 metres injured many of the passengers, a dozen seriously.
Subtler effects can be just as worrying. During a local election in Belgium in 2003, a single scrambled bit of information, almost certainly caused by an errant particle, added 4,096 votes to one candidate’s tally. Since this gave an impossibly high total, the mistake was easily spotted. But had the particle hit a different part of the circuit it might have added a smaller number of votes—enough to change the outcome without anyone noticing. Moreover, as the components from which computer chips are built continue to shrink, they become more sensitive, making the problem worse. A modern computer might expect somewhere between a hundred and a thousand space-drizzle-induced errors per billion transistors per billion hours of operation. That sounds low. But modern chips have tens of billions of transistors, and modern data centres have millions of chips—so the numbers quickly add up.
The trick is to design circuits to cope. That is where Christopher Frost, who works at the Rutherford Appleton Laboratory, near Oxford, thinks he can help. He and his team have modified some particle accelerators in a way that offers designers of electronic equipment the ability to test their products—and, crucially, to test them quickly. Dr Frost’s particle beams are millions of times more intense than the radiation experienced by real-world devices. They deliver in minutes a dose that would take years to arrive naturally.
This sort of pre-emptive action makes sense. The threats from space drizzle (constant, though low-level) and from CMEs (rare, but potentially catastrophic) are real. Hardening equipment against drizzle, and developing forecasts that tell you when to disconnect it to avoid CME-induced power surges, are merely sensible precautions.



This article appeared in the Science and technology section of the print edition under the headline "Tales of wonder"
 
 

quarta-feira, 11 de janeiro de 2017

Poluentes de vida curta aumentam nível do mar


CAMILA FARIA
do Observatório do Clima

09/01/2017

Impacto causado por gases como o metano e HFCs pode durar 800 anos, mesmo que esses poluentes permaneçam por poucas décadas na atmosfera, dizem cientistas norte-americanos.


Estudo publicado nesta segunda-feira (09) no periódico PNAS, da Academia Nacional de Ciências dos Estados Unidos, aumenta preocupação com gases de efeito estufa de meia-vida curta e seus efeitos de aquecimento no oceano. A publicação afirma que a permanência no oceano de gases como metano e ozônio, cujos tempos de permanência na atmosfera são de dias a anos, e não de séculos a milênios, como o CO2, contribui para o aumento do nível do mar por um tempo muito maior do que o observado em efeitos atmosféricos.
O aquecimento da atmosfera causado pela emissão de gases-estufa transmite calor para as águas e eleva a temperatura dos oceanos, o que faz a água se expandir, contribuindo para o aumento do nível do mar. O efeito é semelhante ao verificado numa chaleira, onde a água sobe de nível à medida que se aquece.
Por causa da inércia térmica, grandes massas de água demoram a esquentar, especialmente em níveis mais profundos. Isso significa que a água continuará a se expandir e seu nível continuará a aumentar por centenas ou milhares de anos, efeito conhecido por cientistas que estudam emissões de CO2. As possíveis consequências catastróficas já estão no imaginário coletivo da humanidade: inundações, abandono de cidades litorâneas, perdas na agricultura e maior vulnerabilidade a tempestades são alguns dos acompanhantes de um aquecimento desenfreado.
O novo estudo, liderado por Kirsten Zickfeld, da Universidade Burnaby, no Canadá, mostra que os gases que possuem um tempo de permanência mais curto na atmosfera também representam aumento de longo prazo no nível do mar. Um cálculo feito por Burnaby e seus colegas Susan Solomon e Daniel Gilford, ambos do MIT, avaliou um cenário no qual as emissões de metano, ozônio e hidrofluorocarbonos (HFCs) seguem no ritmo atual até 2050 e imediatamente param.
Isso bastaria para causar um aumento do nível do mar de 90 centímetros em 800 anos, apesar da meia vida curta dos gases analisados. Em outro exemplo, o estudo afirma que pelo menos metade do aumento do nível do mar devido à temperatura causado pelas emissões de metano (CH4), o segundo maior causador do aquecimento global depois do CO2, deve permanecer por mais de 200 anos, mesmo que as emissões antropogênicas parem, apesar da meia-vida atmosférica de dez anos desse gás.
“Isso ocorre por causa da enorme inércia do oceano na absorção de calor. Não era uma notícia esperada, pois achava-se que a resposta seria muito mais rápida e que gases de meia vida curta não influenciariam em escalas de tempo tão longas, como a de 800 anos apresentada no estudo”, explica o físico Paulo Artaxo, da USP.
“Ações adotadas para reduzir emissões de gases de vida curta podem mitigar séculos de aumento do nível do mar adicional”, escreveram os autores.
O controle da emissão de gases de baixa meia-vida é uma estratégia recente de mitigação da mudança climática. Alguns países, como o México, têm adotado programas para atacar essas fontes de poluição, justamente por elas serem setoriais, mais fáceis de controlar do que o CO2 a baixo custo, e fazerem diferença na temperatura da atmosfera a curto prazo.
Pelo menos uma família desses poluentes, os CFCs (clorofluorcarbonos) já foram objeto de um banimento bem-sucedido. O Protocolo de Montréal, em 1987, determinou a eliminação desses gases, que causavam a destruição da camada de ozônio. Coincidentemente, a americana Susan Solomon, coautora do novo estudo, teve um papel fundamental nisso: foi ela quem descobriu, nos anos 1980, que as reações dos CFCs que destruíam o ozônio ocorriam em nuvens estratosféricas na Antártida.
O revés dessa medida foi sua substituição pelos HFCs, muito presentes em aparelhos de ar condicionado e geladeiras, que não afetam a camada de ozônio, mas possuem impacto maior sobre o efeito estufa, aprisionando milhares de vezes mais calor do que o dióxido de carbono. No ano passado, em Kigali, Ruanda, foi aprovada uma emenda para o Protocolo que prevê a redução dos HFCs a partir de 2019.
“Ações adotadas para reduzir emissões de gases de vida curta podem mitigar séculos de aumento do nível do mar adicional”, escreveram os autores.

sexta-feira, 16 de dezembro de 2016

INPE aumenta capacidade de processamento de software livre para modelagem ambiental

O Instituto Nacional de Pesquisas Espaciais (INPE) lança nova versão de ferramenta para apoio à tomada de decisão em questões de planejamento territorial e ambiental: o LuccME 3.0 (Land Use and Cover Change Modeling Environment). O software livre permite que se construam facilmente modelos para estudos sobre desmatamento, expansão da agricultura, desertificação, degradação florestal, crescimento urbano e outros processos de mudanças de uso e cobertura da terra em diferentes escalas.

"A grande novidade da versão 3.0 é que ela vem totalmente remodelada por dentro, graças aos avanços dos sistemas TerraME 2.0 e TerraLib 5.0. Agora nossa capacidade de lidar com grandes bancos de dados geográficos, assim como a velocidade de processamento, aumentou significativamente", diz Ana Paula Aguiar, pesquisadora do Centro de Ciência do Sistema Terrestre do INPE e responsável pelo projeto LuccME.

Entre as melhorias destacam-se a interface gráfica, o aprimoramento da documentação, novos componentes e métricas de validação na própria ferramenta, para facilitar a calibração dos modelos. Outra vantagem é que os modelos agora podem acessar arquivos no formato mais utilizado na área de geoprocessamento. Logo, tanto dados de entrada como resultados gerados podem ser manipulados diretamente em qualquer sistema de informações geográficas.

O LuccME tem como base as novas versões do TerraME e TerraLib, ambos também produtos tecnológicos do INPE desenvolvidos com instituições parceiras, em especial a Universidade Federal de Ouro Preto. Como são softwares livres, os usuários podem combinar os componentes disponíveis ou criar outros, com novas funcionalidades, pois o código é aberto.

Já o TerraME é um ambiente de programação para modelagem dinâmica espacial, para vários tipos de aplicação, além da modelagem de uso da terra. Ele suporta autômatos celulares, modelos baseados em agentes e modelos de rede em execução em espaços de células 2D. O TerraME, por sua vez, fornece através da biblioteca TerraLib uma interface para acessar bancos de dados geográficos que armazenam informações geoespaciais.

As melhorias do LuccME são financiadas pelo Fundo Amazônia através do projeto MSA/BNDES (Monitoramento Ambiental por Satélite no Bioma Amazônia). Em 2017, como parte do projeto, serão oferecidos cursos de treinamento e o suporte para o desenvolvimento de novas aplicações. Mais informações através do email luccme@inpe.br"

O download da nova versão pode ser feito no site do LuccME 

quarta-feira, 14 de dezembro de 2016

Documento do governo reúne ações para enfrentar mudanças climáticas

A Terceira Comunicação Nacional do Brasil (TCN), documento que reúne ações para a implementação dos compromissos assumidos pelo País na 21ª Conferência das Partes, foi apresentado à Câmara dos Deputados

O secretário de Políticas e Programas de Pesquisa e Desenvolvimento do Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), Jailson de Andrade, apresentou na Câmara dos Deputados o papel da Terceira Comunicação Nacional do Brasil (TCN), documento que reúne ações para a implementação dos compromissos assumidos pelo País na 21ª Conferência das Partes (COP 21), em dezembro de 2015, em Paris, na França.

O documento contém resultados de políticas públicas, pesquisas para identificar vulnerabilidades, esforços para elaborar planos em busca da redução de emissões de gases de efeito estufa e outras iniciativas do governo a fim de conter o desmatamento, melhorar a eficiência energética, os meios de produção agrícola e pecuária, para reduzir os efeitos causados pelas mudanças climáticas.

“A TCN foi apresentada como documento brasileiro para a COP 21 e se constitui de uma compilação de dados de diversas publicações, com participação direta de 382 autores, que representam 140 instituições, sem mencionar a colaboração e a revisão de outros ministérios do governo federal”, disse Jailson, ao ressaltar que o MCTIC já discute com outras pastas e parceiros a elaboração da Quarta Comunicação Nacional.

O documento é um trabalho coletivo do governo, coordenado pelo MCTIC e desenvolvido com diversas instituições e especialistas representados em grande parte pela Rede Brasileira de Pesquisas sobre Mudanças Climáticas Globais (Rede Clima). A primeira edição do documento é de 2004 e a segunda, de 2010. A terceira versão do TCN possui quatro volumes, que já estão disponíveis no portal do MCTIC, em versões em inglês e português.

“Entende-se que o componente científico e tecnológico tem um papel absolutamente relevante no enfrentamento dos desafios colocados pelas mudanças climáticas”, ressaltou o coordenador-geral de Mudanças Globais de Clima do MCTIC, Márcio Rojas.

Assinado por 195 nações no fim de 2015, o Acordo de Paris está em vigor desde 4 de novembro de 2016. O presidente da República, Michel Temer, havia depositado o instrumento de ratificação em setembro deste ano.

Agência Gestão CT&I/ABIPTI, com informações do MCTIC - via JCNoticias

Emissões de metano disparam e agravam mudanças climáticas

Cientistas pedem atenção ‘urgente’ para poluição do setor de agropecuária

O metano proveniente da produção de alimentos coloca em risco as iniciativas globais para conter as mudanças climáticas, alertaram cientistas nesta segunda-feira. Em artigos paralelos, publicados nos periódicos “Earth System Science Data” e “Environmental Research Letters”, os pesquisadores alertam que as emissões de metano aumentaram drasticamente nos últimos anos e se aproximam do “pior cenário” reconhecido internacionalmente para emissões de gases-estufa, com risco de elevação das temperaturas médias globais em até 4 graus Celsius.

Leia na íntegra: O Globo

Está provado: aquecimento derreteu geleiras

Estudo detecta pela primeira vez impressão digital inequívoca de mudança climática na perda acelerada de glaciares de montanha; para cientistas, impacto do clima é “virtualmente certo”

Uma nova metodologia sugere que o aquecimento global e suas causas humanas são realmente os grandes responsáveis pelo recuo de geleiras de montanha durante os séculos 20 e 21. Essas massas de gelo são fundamentais para o abastecimento de água em várias localidades, como a Bolívia, que vive sua pior seca em 25 anos e tem boa parte de seu fornecimento dependente dos Andes, e têm diminuído ao redor do planeta em regiões tão diversas quanto o Alasca e os trópicos africanos, a Patagônia e a Suíça.

O estudo é importante porque fornece pela primeira vez uma prova categórica daquela que é uma das consequências previstas mais imediatas de um planeta mais quente. Embora o elo entre a mudança climática causada por atividades humanas e o degelo esteja claro há anos, até agora os modelos computacionais usados para modelar o clima não conseguiam ligar o derretimento de geleiras individuais ao aquecimento global.

O relatório de avaliação do IPCC, painel do clima das Nações Unidas, por exemplo, afirmou em 2013 que era “provável” (conceito que representa cerca de 66% de possibilidade, no linguajar estatístico do IPCC) que os níveis de degelo monitorados no período tivessem sido de fato causados por mudanças climáticas.

O estudo da Universidade de Washington (EUA), publicado no periódico Nature Climate Change e apresentado hoje (12) durante evento da União Geofísica Americana (AGU), em São Francisco, eleva esse grau de confiança: o documento afirma que, para quase todas as geleiras contempladas, a influência de mudanças climáticas no derretimento é de mais de 90%, chegando, na maior parte dos casos estudados, a 99%. Isto equivale, na terminologia do IPCC, a dizer que é “virtualmente certo” que a causa do derretimento seja o clima alterado.

A análise do trio de cientistas foi realizada em 37 geleiras ao redor do mundo, com condições geográficas e ambientais diversas. Destas, 36 tinham 90% ou mais de probabilidade de terem tido seu degelo influenciado pela mudança climática. Em 21 delas, a chance era de 99%.

O grupo utilizou registros históricos e observação meteorológica das regiões para comparar variações naturais no tamanho das geleiras com mudanças observadas nos séculos 20 e 21 e calcular um coeficiente de variação desses dados. As alterações são então comparadas com um cenário sem mudanças no clima para calcular a probabilidade de relação de causa.

“Nossa pesquisa demonstra que a diminuição global de geleiras requer necessariamente uma mudança no clima de duração centenária e âmbito global”, afirmou ao OC o glaciologista Gerard Roe, pesquisador da Universidade de Washington e líder do estudo.

“É o estudo de atribuição mais abrangente até hoje sobre o recuo de geleiras. Esperamos que nosso trabalho possa facilitar conclusões mais assertivas sobre o tema para a próxima elaboração de relatórios do IPCC”, afirma.

Estudos de atribuição, como este, buscam estabelecer as causas mais prováveis para uma mudança ou evento, utilizando os níveis de confiança estabelecidos pelo IPCC. A técnica incorporada na publicação não exige o uso de modelos computacionais e pode ser aplicada em qualquer região que possua um registro de observações suficientemente extenso.

O glaciologista brasileiro Jefferson Simões, diretor do Centro Polar e Climático da Universidade Federal do Rio Grande do Sul, reforça a importância da conclusão dos cientistas: “Os comportamentos das geleiras é demonstrativo de tendências nas escalas temporais de décadas e a retração observada ao longo do século 20 é uma resposta às tendências climáticas do século passado, não uma recuperação dinâmica de quaisquer condições antecedentes”, explica.

“Materiais midiáticos e educacionais utilizam muito a figura das geleiras, e nosso trabalho ajuda a fundamentar essa conexão. As observações que nos ajudam a compreender mudanças climáticas causadas pelo homem estão além de questionamentos”, pontua Roe, sinalizando também para a utilização da nova metodologia e suas implicações na formulação e continuidade de políticas públicas. “Qualquer político possui a responsabilidade moral de buscar compreender atentamente as informações de milhares de especialistas. Esse conhecimento não deve ser negado ou minimizado”, conclui.

Observatório do Clima

segunda-feira, 12 de dezembro de 2016

#GavinSchmidt: Chaos and Climate

Palestra sobre Caos e Clima por:



A talk on chaos and climate by me at the in late 2015.

 https://twitter.com/ClimateOfGavin/status/808384424861528064

or YouTube:  https://www.youtube.com/watch?v=5fYbr_dY01Q

terça-feira, 6 de dezembro de 2016

Projeto Recicla Seridó será lançado nesta quarta-feira, em Caicó

A Cáritas Diocesana de Caicó lança nesta quarta-feira (07) o projeto Recicla Seridó que tem como finalidade criar uma rede de articulação de catadores de materiais recicláveis da região. O evento será realizado no auditório do Centro Pastoral Dom Wagner, a partir das 10 horas.

O Recicla Seridó visa o fortalecimento dos empreendimentos econômicos solidários existentes, possibilitando o aumento da geração de renda e melhoria da qualidade de vida. Além de Caicó, o projeto contemplará as organizações de catadores de Parelhas, Santana do Matos, Currais Novos e Acari, entre fevereiro e setembro de 2017.

Dentre os objetivos do Recicla Seridó, destacam-se: a qualificação dos catadores de materiais recicláveis sobre temas como associativismo, cooperativismo, autogestão, liderança, entre outros; a sensibilização da sociedade através de campanha educativa integrada sobre coleta de materiais recicláveis, buscando parcerias com os setores público e privado; bem com sua expansão através de monitoramento e avaliação sistemática das organizações de catadores.


Fonte:  Blog RP

sexta-feira, 2 de dezembro de 2016

PRODES estima 7.989 km2 de desmatamento por corte raso na Amazônia em 2016

A estimativa da taxa de desmatamento na Amazônia do Projeto de Monitoramento do Desmatamento na Amazônia Legal por Satélite (PRODES), do Instituto Nacional de Pesquisas Espaciais (INPE), foi finalizada e aponta a taxa de 7.989 km2 de corte raso no período de agosto de 2015 a julho de 2016.

A taxa de desmatamento estimada pelo PRODES 2016 indica um aumento de 29% em relação a 2015, ano em que foram medidos 6.207 km2. No entanto, a taxa atual representa uma redução de 71% em relação à registrada em 2004, ano em que foi iniciado pelo Governo Federal o Plano para Prevenção e Controle do Desmatamento na Amazônia (PPCDAm), atualmente coordenado pelo Ministério do Meio Ambiente (MMA).

Com o PRODES, o INPE realiza o monitoramento sistemático na Amazônia Legal e produz, desde 1988, as taxas anuais de desmatamento na região, que são usadas pelo governo brasileiro para avaliação e estabelecimento de políticas públicas relativas ao controle do desmatamento ilegal. Os dados são imprescindíveis para toda a sociedade e embasam ações bem-sucedidas como a Moratória da Soja e Termo de Ajuste de Conduta da cadeia produtiva de carne bovina, entre outras iniciativas.

Leia mais aqui.