Trocando os modelos climáticos para um lance dos dados

Um dos maiores fracassos da ciência do clima tem sido o péssimo desempenho dos modelos de circulação geral (GCM) para prever com precisão o clima futuro da Terra. Por mais de três décadas, modelos preditivos enormes foram executados nos maiores supercomputadores disponíveis, têm trabalhado muito e acabou tudo em lixo. Seu fracasso mais óbvio é que temos quase 18 anos de pausa na elevação da temperatura que tem confundido alarmistas do clima e cientistas sérios. Então, pobre tem sido o desempenho dos modelos que alguns cientistas do clima estão pedindo-lhes para ser demolido e construído de novo, desta vez usando princípios diferentes. Eles querem adotar métodos chamados simulações de Monte Carlo estocásticos com base em probabilidades e aleatoriedade-no lugar de modelos de física como baseado  hoje.

É um segredo aberto que os modelos climáticos informatizados simplesmente não são muito bons. Recentemente cientistas do Painel Intergovernamental sobre Mudanças Climáticas (IPCC), tem comparado as previsões de 20 grandes modelos climáticos contra as últimas seis décadas de dados climáticos. De acordo com Ben Kirtman, cientista climático da Universidade de Miami, na Flórida e IPCC AR5 coordenação autor, os resultados foram decepcionantes. De acordo com um relatório em Ciência “, os modelos tiveram um bom desempenho na previsão da temperatura média da superfície global e teve algum valor preditivo no Oceano Atlântico, mas eram praticamente inúteis em condições de previsão sobre o vasto Oceano Pacífico.”

Apenas como maus os modelos estão, pode ser visto num gráfico que tem sido amplamente considerado em torno da Internet. Gerado por John Christy, Richard McNider, e Roy Spencer, o gráfico tem gerado mais calor do que o aquecimento global, com apologistas da modelagem climática disparando refutação após refutação. O problema é que os modelos ainda sugam, como você pode ver na figura abaixo.

Independentemente de sofismas dos warmists a verdade é fácil de ver, os modelos climáticos errarom o alvo. Mas então, isso vem como nenhuma surpresa para aqueles que trabalham com modelos climáticos. Na Ciência artigo, ” Um toque do acaso , ” o escritor Colin Macilwain expõe o problema:” Os pesquisadores normalmente têm apontado para uma solução determinística: um único cenário de como o clima irá responder a insumos como gases de efeito estufa, obtidos através de cada vez simulações numéricas detalhadas e sofisticadas. Os resultados têm sido cientificamente informativo, mas críticos afirmam que os modelos tornaram-se pesado, prejudicado pela sua própria complexidade. E não importa o quão complexo se tornam, eles lutam para prever o futuro. “

Macliwain descreve a atual safra de modelos da seguinte forma:

Uma razão chave porqué as simulações climáticas são ruins em previsão é que eles não podem fazer o que eles não foram projetados para fazer. Pesquisas concebidas, em sua maioria, para uma outra finalidade: explorar como os diferentes componentes do sistema interagem em uma escala global. Os modelos começam dividindo a atmosfera em uma enorme grade 3D de elementos boxlike, com bordas horizontais tipicamente de 100 km de comprimento e até 1 quilômetro de altura. Equações com base em leis físicas descrevem como as variáveis ​​em cada caixa,-principalmente pressão, temperatura, umidade e velocidade do vento, influênciam variáveis ​​adjacentes em correspondência. Para os processos que operam em escalas muito menores do que a grade, como a formação de nuvens, os cientistas representam o comportamento típico através do elemento da grade com fórmulas deterministas que eles refinarom ao longo de muitos anos. As equações são então resolvidas por trituração de toda a rede em um supercomputador.

Não é que os modeladores não têm tentado melhorar os seus brinquedos do jogo. Ao longo dos anos todos os tipos de novos fatores foram adicionados, cada um adicionando mais complexidade para os cálculos e, consequentemente, diminuindo a computação. Mas isso não é o lugar onde o verdadeiro problema reside. A fonte irredutível de erro nos modelos atuais é o tamanho da grade.

Na verdade,  reclamaram muitas vezes  que a finura da rede é insuficiente para o problema em questão. Isso ocorre porque muitos fenômenos são muito menores do que as caixas de grade, tempestades tropicais, por exemplo representam enormes transferências de energia a partir da superfície do oceano para a atmosfera superior e pode ser totalmente perdida. Outros fatores, coisas como chuva e nuvem formação-também acontecem em escalas de tamanho sub-grade.

“A verdade é que o nível de detalhe nos modelos não está realmente determinado por limitações científicas”, diz Tim Palmer, um físico da Universidade de Oxford, no Reino Unido, que defende abordagens estocásticos para a modelagem climática. “Ela é determinada apenas pelas dimensões dos computadores.”

O problema é que, para reduzir pela metade o tamanho das divisões de rede requer um aumento de ordem de magnitude em energia do computador. Fazendo a grade fina o suficiente simplesmente não é possível com a tecnologia de hoje.

À luz deste problema insuperável, alguns pesquisadores vão tão longe a ponto de exigir uma grande reforma, a demolição da atual safra de modelos completamente. Tomando pistas de meteorologia e outras ciências, os reformadores do modelo dizem que os velhos modelos com basa de física  devem ser abandonados e novos modelos, baseados em métodos estocásticos, precisam ser escritos a partir do zero. Perseguindo este objetivo, uma edição especial da Philosophical Transactions da Royal Society A vai publicar 14 artigos que estabelecem um quadro para a modelagem climática estocástica. Aqui está uma descrição do tema:

Esta edição especial é baseada em uma oficina no Oriel College de Oxford em 2013, que reuniu, pela primeira vez, modeladores de tempo e clima de um lado e cientistas do computador por outro lado, para discutir o papel da computação imprecisa e estocástica em   previsão do tempo e do clima. A base científica para a computação inexata e estocástica é que o encerramento (ou parametrização) problema para modelos de tempo e clima é inerentemente estocástica. Variáveis ​​de pequena escala no modelo necessariamente herdam esse estocasticidade. Como tal, é um desperdício para representar essas pequenas escalas com precisão excessiva e determinismo. A Computação Inexata e estocástica pode ser usada para reduzir os custos computacionais de simulação de tempo e clima devido à economia no consumo de energia e um aumento no desempenho computacional sem perda de precisão. Isso poderia, por sua vez abrir a porta para simulações de alta resolução e previsões, portanto, mais precisas.

Em um dos artigos da edição especial “, modelagem estocástica e computação com eficiência energética para o clima e previsão do clima “, Tim Palmer, Peter Düben e estado Hugh McNamara caso do modelador estocástica:

O novo paradigma para resolver as equações de movimento do tempo e do clima está começando a emergir. A base para esse paradigma é a estrutura de poder da lei observado em muitas variáveis ​​climáticas. Esta estrutura de poder da lei indica que não existe um caminho natural para delinear as variáveis ​​como ‘grande’ ou ‘small’-em outras palavras, não existe uma base absoluta para a separação em modelos numéricos entre as variáveis ​​resolvidos e não resolvidos.

Em outras palavras, nós estamos indo para estimar o que não entendemos e espero que esses problemas traquinas de escala apenas ir embora. “Um primeiro passo no sentido de tornar essa divisão menos artificial em modelos numéricos tem sido a generalização do processo de parametrização para incluir representações inerentemente estocástica de processos não resolvidos”, afirmam. “O conhecimento do conteúdo da informação dependente da escala vai ajudar a determinar a precisão numérica ideal com a qual as variáveis ​​de um modelo de tempo ou clima deve ser representado como uma função da escala.” Também deve ser notado que esses caras estão empurrando “inexata” ou hardware do computador fuzzy para acomodar melhor as suas ideias, mas isso não muda a importância de sua crítica de técnicas de modelagem atuais.

Então o que é esta “computação estocástica”, que é suposto para curar todos os males da modelagem climática? Na verdade, é algo muito antigo, muitas vezes referida como a simulação de Monte Carlo. Na teoria das probabilidades, um sistema puramente estocástica é aquele cujo estado é não-determinística, em outras palavras, aleatória. O estado subseqüente do sistema é determinada probabilisticamente usando números gerados aleatoriamente, o equivalente do computador de jogar dados. Qualquer sistema ou processo que tem de ser analisada utilizando a teoria das probabilidades é estocástico, pelo menos em parte. Talvez o mais famoso uso precoce foi por Enrico Fermi, em 1930, quando ele usou um método aleatório para calcular as propriedades do nêutrons recém-descoberto. Hoje em dia, a técnica é utilizada por profissionais em campos mais díspares como finanças, gerenciamento de projetos, energia, manufatura, engenharia, pesquisa e desenvolvimento, seguros, petróleo e gás, transporte e meio ambiente.

Simulação de Monte Carlo gera uma gama de resultados possíveis e as probabilidades com que ocorrerão. Técnicas de Monte Carlo são bastante úteis para os sistemas de simulação com muitos graus de liberdade acoplados, como os fluidos, materiais desordenados, sólidos fortemente acoplados, e as previsões meteorológicas. Outros exemplos incluem fenômenos de modelagem com incerteza significativa em insumos, o que certamente se aplica a modelagem climática. Ao contrário do atual GCM, esta abordagem não procura simular a natura e os processos físicos, mas sim para capturar a natureza aleatória de vários fatores e, em seguida, fazer muitas simulações, chamados de um conjunto.

Desde os anos 1990, as previsões do conjunto têm sido usados ​​como previsões de rotina para dar conta a incerteza inerente de processos climáticos. Isto envolve a análise de múltiplas previsões criados com um modelo de previsão do indivíduo por meio de diferentes parâmetros físicos e / ou variando as condições iniciais. Tais previsões por conjunto foram usados ​​para ajudar a definir a incerteza de previsão e de estender a previsão mais no futuro do que seria possível. Ainda assim, como todos sabemos, mesmo as melhores previsões do tempo são boas apenas para cinco ou seis dias antes que eles divergem da realidade.

Um exemplo pode ser visto no monitoramento de furacões no Atlântico. Agora é comum para o clima noturno previsto durante a temporada de furacões de incluir um provável caminho para um furacão se aproximando os EUA continental. A faixa provável é derivada de várias execuções modelo individual.

Modelos estocásticos podem ser aplicados com sucesso a mudança climática? Tais modelos são baseados em um estado atual que é o ponto de partida para a geração de muitas previsões futuras. Os resultados baseiam-se na aleatoriedade filtrada através dos observados (ou imaginado) probabilidades. Isto, em teoria, podem ser responsáveis ​​por tais eventos aleatórios como ciclones tropicais e erupções vulcânicas com mais precisão do que o método atual de apenas aplicar uma estimativa média de todas as células de simulação. As probabilidades são baseados em observações anteriores, o que significa que as simulações são válidos apenas se o sistema não se altera de forma significativa no futuro.

E aqui reside o problema com a mudança de simulações estocásticas da mudança climática. É sabido que o sistema climático da Terra está em constante mutação, criando o que os estatísticos de dados de séries temporais não estacionárias prazo. Você pode ajustar um modelo às condições anteriores ajustando as probabilidades e insumos, mas você não pode fazê-lo prever o futuro, porque o futuro exige um modelo de algo que não tenha tomado forma ainda. Adicionar a que a natureza do clima de acordo com o IPCC: “O sistema climático é um sistema caótico não linear acoplado, e, por conseguinte, a predição de longa duração de estados de clima futuro não é possível. “

Se esses modelos foram construídos antes do hiato de pausa 17 + ano corrente em aumento das temperaturas globais, que ninguém viu chegando, eles teria sido a tanto uma perda como a safra atual de GCM. Você não pode prever com precisão o que você ainda não experimentou, medido e parametrizado, e nossos dados climáticos detalhados estão  limitados. Com talvez meio século de medições detalhadas, não há nenhuma possibilidade de construir modelos que abrangem os períodos quentes e frios do interglacial Holoceno, e muito menos os acontecimentos que marcaram o último degelo (ou aqueles que marcará o início da próxima glacial período).

Os economistas tinham sido forçados a lidar com este tipo de sistema, pois o sistema econômico do mundo não é estático, mas sempre mudando (consulte ” Econometria vs Ciência do Clima“). Eles desenvolveram uma série de ferramentas que podem fornecer alguma previsão, mas não uma solução para esta situação. Enquanto os economistas levaram o caminho para previsões climáticas, veja como previsões económicas não confiáveis ​​permanecem. A triste verdade é que esse esforço também não vai funcionar para a previsão de longo alcance, mais do que os economistas podem nos dizer o que o cenário econômico é para 2100. Está na hora de os cientistas do clima para sair do jogo das previsoes e voltar a fazer de verdade ciência base empírica.

Comente

Required fields are marked *

*
*

%d blogueiros gostam disto: