Transcript
Page 1: Prof. Dr. Fabrício Härter

Previsão Numérica de Tempo, Verificação, Assimilação de

Dados e Inteligência Artificial

Meteorologia Atuante

Pelotas – RS14 Outubro de 2011

Page 2: Prof. Dr. Fabrício Härter

Sumário

• Sistema Previsor de Tempo (CPPMet/UFPel): Modelo WRF – pré-processamento, core, pós-processamento

• Qualidade da Previsão: Verificação

• Importância da Condição Inicial– Linha de pesquisa: Assimilação de Dados Meteorológicos

• Inteligência Artificial - Redes Neurais Artificiais

Page 3: Prof. Dr. Fabrício Härter

Modelo WRF

• O WRF é um modelo de equações primitivas desenvolvido pelo NCAR em colaboração com o NCEP/NOOA e o FSL

• O sistema de previsão formado pelo modelo, pelo método de assimilação e demais utilitáruios resultam num sistema de previsão numérica de tempo de última geração, podendo ser implementado em várias arquiteturas de computadores e suportando diferentes diretivas de paralelismo.

Page 4: Prof. Dr. Fabrício Härter

Modelo WRF -Configuração

• No CPPMet, o WRF esta inicialmente instalado numa máquina SUN, sob sistema operacional Linux e compilado com diretivas Open MP e MPI.

• O domíno escolhido para testes compreeende basicamente a região sul do Brasil, sendo de 220 S a 360S e de 420W a 630W.

• O modelo é integrado com 28 níveis verticais com coordenada eta e projeção Mercator.

Page 5: Prof. Dr. Fabrício Härter

Modelo WRF - Inicialização

• O modelo é integrado diariamente às 00 UTC com dados no formato grib2 do Global Forecast System (GFS), modelo global do NCEP

• O GFS tem resolução horizontal de 1 grau com 26 níveis de pressão sem contar com a superfície.

• Inclui-se a temperatura da superfície do mar do dia anterior a rodada e dados terrestres com 30 segundos de resolução

• Filtro Digital: remove ondas de gravidade de alta frequência

Page 6: Prof. Dr. Fabrício Härter

Modelo WRF - Atrativos

• Possuir opções para integração no modo hidrostático e não-hidrostático

• com grades aninhadas.• O uso do código é livre• utilizado por ampla comunidade nacional e internacional• excelente documentação e “mail list”• O WRF possui opção de “re-start”, • pode ser inicializado com dados de diferentes fontes• pode ser acoplado a modelos de química, agitação maritma

Page 7: Prof. Dr. Fabrício Härter

Modelo WRF - Pós-processamento

Page 8: Prof. Dr. Fabrício Härter
Page 9: Prof. Dr. Fabrício Härter

VERIFICAÇÃO• Erros: imperfeição do método numérico que aproxima as equações

diferenciais por equações de diferenças finitas, resolução da grade, dificuldade em representar os termos não-lineares e erros nos dados observados ,o erro de truncamento em modelos espectrais

• Murphy (1993): a previsão pode ser avaliada segundo três características:

(1) consistência: significa avaliar o quanto a previsão objetiva (fornecida pelo modelo determinístico ou estocástico) corresponde a previsão subjetiva (elaborada com base na interpretação do previsor);

(2) qualidade: avalia-se em que grau a previsão corresponde ao que “realmente” ocorreu na natureza (EHRENDORFER; MURPHY, 1992; KRZYSZTOFOWICZ; LONG, 1991)

(3) valor: avalia o benefício de ordem econômica e humano obtido em decorrência da previsão.

Page 10: Prof. Dr. Fabrício Härter

Verificação (Ponto de grade)

Page 11: Prof. Dr. Fabrício Härter

Assimilação de Dados - Discussão Inicial

• Objetivo: melhorar a previsão

• Definição: Assimilação de Dados é o procedimento que usa dados observacionais ruidosos para melhorar a previsão feita por modelos matemáticos imprecisos

• Problema: instabilidade e dimensão

Page 12: Prof. Dr. Fabrício Härter

Assimilação de Dados - Introdução

• PNT - problema de condição inicial/fronteira• A partir - estimativa do estado inicial da atmosfera - apropriada condições de superfície e

fronteira o modelo simula/prevê o estado da atmosfera

• Quanto mais precisa as CI, mais precisa será a previsão (do ponto de vista de que a melhor CI é a que resulta em melhor previsão)

Page 13: Prof. Dr. Fabrício Härter

Assimilação de Dados – Problema e Definições• Centros/Institutos de PNT geram CI (Análise) através da combinação

estatística de observações com previsão de curto prazo (em teoria de estivação chamado de informação a priori)

• O texto destacado acima é uma segunda definição para Assimilação de Dados

• Deduz-se que AD não se aplica apenas a meteorologia (oceanografia, clima espacial, ...)

• Desde 1920 há uma troca internacional de dados, através da World Weather Watch (WWW) - um sistema da WMO (uma Agência das UN)

Page 14: Prof. Dr. Fabrício Härter

Fonte: http://www.ecmwf.int/newsevents/training/meteorological_presentations/MET_DA.html - Renate Hagedorn

Page 15: Prof. Dr. Fabrício Härter

Data coverage: SYNOP, SHIP, METAR

Data assimilation and the use of satellite data – the global observing system – Peter Bauer

Page 16: Prof. Dr. Fabrício Härter

Data coverage: BUOY

Data assimilation and the use of satellite data – the global observing system – Peter Bauer

Page 17: Prof. Dr. Fabrício Härter

Data coverage: Radiosondes at 00UTC

Data assimilation and the use of satellite data – the global observing system – Peter Bauer

Page 18: Prof. Dr. Fabrício Härter

Data assimilation and the use of satellite data – the global observing system – Peter Bauer

Data coverage: Aircrafts at 00 UTC

Page 19: Prof. Dr. Fabrício Härter

Data assimilation and the use of satellite data – the global observing system – Peter Bauer

Data coverage: Geostationary imagery data at 00 UTC

Page 20: Prof. Dr. Fabrício Härter

Data assimilation and the use of satellite data – the global observing system – Peter Bauer

Data coverage: Advanced infrared sounders at 00 UTC

AIRS IASI

Page 21: Prof. Dr. Fabrício Härter

Fonte: ESIG 2006, Oeiras, Nov 2006

Page 22: Prof. Dr. Fabrício Härter

S.H.

N.H.

~3 days at day 5

Data assimilation and the use of satellite data – the global observing system – Peter Bauer

Page 23: Prof. Dr. Fabrício Härter

Fonte: http://www.ecmwf.int/newsevents/training/meteorological_presentations/MET_DA.html - Renate Hagedorn

Page 24: Prof. Dr. Fabrício Härter

Estações Meteorológicas

Source: José Mauro, personal communication

2005 2006 2007 2010

convencional 310 370 370 100

automática 80 250 450 500

MAWS 301

VAISALA

Page 25: Prof. Dr. Fabrício Härter

Assimilação de Dados -Cobertura Insuficiente

• Modelos de Equações primitivas tem graus de liberdade da ordem de 107, Kalnay(2004)

• Em uma janela de assimilação de 3horas, tem-se de 10 a 100 mil observações, duas ordens de magnitude menor do que o número de graus de liberdade do modelo

• Estes dados são irregularmente distribuídos no tempo e no espaço (regiões remotas como florestas tropicas, tem pouca densidade de dados, bem como os oceanos, ...)

Page 26: Prof. Dr. Fabrício Härter

Assimilação de Dados – Cobertura Insuficiente

• Por isso, a formação da CI, exige uma informação a priori, também conhecido como chute inicial (first guess) ou campo de background

• Uma integração curta é utilizada como first-guess (climatologia é uma opção menos precisa)

• Atualmente sistemas de assimilação tem um ciclo de 6h, quatro vezes ao dia.

Page 27: Prof. Dr. Fabrício Härter

• Supondo que o campo de background seja dado pela previsão numérica de 6h

xb .• Par obter o background propriamente dito o modelo é

interpolado para o ponto de observação.

• Caso a quantidade observada não seja a mesma variável do modelo, a variável do modelo é convertida para variável observada y0

• O first-guess da obseração é representado porH(xb)

• Sendo H o operador de observação

Page 28: Prof. Dr. Fabrício Härter

• Esta diferença entre a observação e o background chama-se incremento de observação ou inovação

y0-H(xb)

• A análise xa é obtida adicionando-se a inovação ao campo de background de maneira ponderada pelos pesos W

• Os pesos W são determinados com base na estatística estimada de covariância dos erros de previsão e observação

xa = xb + W [ y0 -H ( xb ) ]

Page 29: Prof. Dr. Fabrício Härter

Filtro de Kalman (fK)

3. Cálculo da estimativa

1. Previsão a partir do modelo

nTn

ann

bn

ann

bn

QMPMP

xMx

1

1 )(

]([ 11111bn

onn

bn

an xHyKxx

2. Cálculo do ganho de Kalman

11111111 ][

Tn

bnnn

Tn

bnn HPHRHPK

4. Cálculo da matriz de covariância

bnnn

an PHKIP 1!!1 ][

Page 30: Prof. Dr. Fabrício Härter

Retornando a Abordagem Variacional e MQ

No caso escalar é relativamente simples mostrar a equivalência entre os MQ e a abordagem variacional. Esta equivalência , para o caso em 3D é demonstrado em Kalnay (2004).

Lorenc (1986) mostrou que um campo de análise ótima xa, pode ser obtido pela minimização de uma função custo.

A função custo é definida como o produto da distância ponderada entre x e o campo de background xb e a distância ponderada entre as observações e x.

)]}([)]([)(){(2

1)( 11 xHyRxHyxxBxxxJ o

Tob

Tb

Page 31: Prof. Dr. Fabrício Härter

Source: Bouttier, First LNCC Meeting on Computational Modeling, August 2004 .

Page 32: Prof. Dr. Fabrício Härter

O Algoritmo diz que:

Queremos uma “nova CI” para o modelo direto (WRF, por exemplo).

Esta nova CI é dada pela minimização da função custo. A teoria do método variacional diz que a função custo é obtida

pelo modelo adjunto integrado na ordem reversa somado ao incremento (dk = wf

k – wfo ).

O modelo adjunto é o transposto do modelo tangente linear. O modelo tangente linear é dado pela linearização do modelo

direto.

Page 33: Prof. Dr. Fabrício Härter

4D-Var No método 4D-Var a minimização é feita numa

“janela de assimilação”. Esta diferença não é trivial!!!

A função custo é definida na seguinte equação:

Ni

iiioi

Tiiob

Tb xHyRxHytxtxBtxxtxJ

0,

1,00

1000 )]}([)]([)](([)]({[

2

1))((

Page 34: Prof. Dr. Fabrício Härter

REDES NEURAIS

Neurônio Biológico

O estímulo nervoso que chega a sinapse é transferido para a membrana dentrital através de neurotransmissores. O resultado desta transferência é uma alteração no potendial elétrico da membrana pós-sináptica, que pode ser excitatória (pulso) ou enibitória (não pulso)

Neurônio Artificial

McCulloch e Pitts (1943) Calcula-se uma soma ponderada, sendo os pesos os fatores de ponderação, positivos nos casos excitatórios e negativos nos casos inibitórios, para resultados maior do que um limiar a saída é pulso, caso contrário é não pulso

Page 35: Prof. Dr. Fabrício Härter

Matematicamente um neurônio pode ser descrito como

Um conjunto de sinapses, cada uma caracterizada por um peso próprio

Um somador para os sinais de entrada, ponderadas pelas respectivas sinapses do neurônio

Uma função de ativação para limitar a amplitude da saída de cada neurônio

m

jjkjk xu

1

)( kk yv

kkk buy

Page 36: Prof. Dr. Fabrício Härter

Funcionamento das RN

No aprendizado um conjunto de exemplos é apresentado a rede, a qual extrai as características necessárias para representar a informação fornecida. Estas características, armazenadas nos pesos sinápticos são utilizadas na fase de ativação para gerar respostas ao problema. No caso, resposta é a variável estimada

Treinamento: Por lote ou por padrão os pesos são atualizadaos à medida que todos/cada padrão de treinamento é apresentado a rede

Critério de parada – por número de épocas (definido a priori) ou por erro objetivo

Page 37: Prof. Dr. Fabrício Härter

Quando finalizar o treinamento de um RN ?

Erro de treinamento menor não implica em melhor generalização

Algumas vezes, durante o treinamento, o erro pode estar diminuindo pelo fato da rede estar se especializando no conjunto de treinamento

Mínimo local da superfície de erros - Taxas de aprendizagem e momento adequados podem evitar os mínimos locais

Validação cruzada é uma alternativa para se saber qual melhor conjunto de pesos implica em melhor generalização

Page 38: Prof. Dr. Fabrício Härter

Validação Cruzada

- A validação cruzada consiste em dividir o conjunto de dados disponíveis em dois subconjuntos, um para o treinamento e outro para validação ou teste. Assim, para cada conjunto de pesos obtido com os dados de treinamento, é feita uma estimativa com o conjunto de teste (validação)

- A vantagem desta técnica é que se conhece a superfície dos erros de treinamento e de estimativa de todo o período de integração

Page 39: Prof. Dr. Fabrício Härter

Algoritmo de Aprendizagem

Conjunto de procedimentos bem definidos para adaptar os parâmetros de uma RN para que a mesma possa aprender uma determinada função é chamado de algoritmo de aprendizagem que seguem basicamente dois paradigmas:

- Supervisionado: tanto a entrada como a saída da RN são conhecidas, sendo que a rede opera no sentido de encontrar pesos que minimizem a diferença entre a entrada e a resposta desejada num sentido estatístico, por exemplo o EMQ

- Não-Supervisionado: Somente os padrões de entrada estão disponíveis para a rede, a qual desenvolve a habilidade de formar representações internas para codificar características de entrada e criar classes ou grupos

Page 40: Prof. Dr. Fabrício Härter

Aprendizado Supervisionado – Regra Delta

0

0

)1()()( )()()(m

i

li

lji

lj nynnv

))(( nvy jjlj

)()()( nondne jjj

))(()()( )(')()( nvnen Ljj

Lj

lj

k

lkj

lk

ljj

Lj nnnvn )()())(()( )1()1()(')(

para neurônio j da camada de saída L

para neurônio j da camada de oculta l

)()()]1()([)()1( )1()()()()()( nynnnnn li

lj

lji

lji

lji

lji

Page 41: Prof. Dr. Fabrício Härter

Redes “feedforward” (alimentação para frente)

Redes em que as entradas projetam-se diretamente sobre a camada de saídaFBR – distância euclidianaPMC – produto interno

jv

jv

jv

X ij

Y ij

XO ij

YO ij

ZO ij

Z ij

)( kv

)( kv

)( kv)( jvkv

kv

kv

XRN i

YRN i

ZRN i

)( jv

)( jv

Page 42: Prof. Dr. Fabrício Härter

Redes Recorrentes – RN em que há realimentação entre as camadas

Rede de Elman

Rede de Jordan


Top Related