aga 0505- análise de dados em astronomia i 2. …laerte/aga0505/l_4_prob2.pdf · 1 binomial 2...
TRANSCRIPT
AGA 0505- Análise de Dados em Astronomia I
2. Probabilidades
Laerte Sodré Jr.
1o. semestre, 2018
1 / 20
tópicos
1 probabilidades - cont.2 distribuições de probabilidades
1 binomial2 Poisson3 gaussiana4 lei de potência
3 combinação de distribuições de probabilidades
2 / 20
probabilidades
o que são probabilidades
probabilidade: medida da plausibilidade de uma proposição quandonão se pode estabelecer com certeza se ela é verdadeira ou falsa
distribuições de probabilidade: função que descreve a frequência deuma ou mas variáveisas fdp podem ser contínuas ou discretas
2 regras fundamentais das probabilidades:regra da soma: P(x|H) + P(x̄|H) = 1
regra do produto: P(x, y|H) = P(x|y,H)× P(y|H)
teorema de Bayes:
P(x|y,H) =P(y|x,H)× P(x|H)
P(y|H)
a marginalização:quando se tem um conjunto yk de proposições mutuamente exclusivase exaustivas
P(x|H) =∑
k
P(x, yk|H) P(x|H) =
∫P(x, y)dy
3 / 20
probabilidades
distribuições contínuas
se x é uma variável aleatória contínua, então f(x) é uma funçãodensidade de probabilidade ou função de distribuição deprobabilidades (FDP ou PDF- probability distribution function), se
P(a < x < b) =
∫ b
af(x)dx
∫ ∞−∞
f(x)dx = 1
f(x) ≥ 0 para qualquer x real
as FDPs podem ser multivariadas, i.e., funções de várias variáveis:f(x, y, z)
FDP cumulativa:F(x) =
∫ x
−∞f(x′)d(x′)
4 / 20
probabilidades
valores esperados
o valor esperado de uma certa função Q(x) com respeito a uma distribuição deprobabilidade P(x) é
E[Q] =
∫Q(x)P(x)dx E[Q] =
1N
N∑i
Qi
o valor esperado permite determinar propriedades de Q e estatísticas para adistribuição de probabilidades P(x):
média:x̄ =
∫xP(x)dx
mediana: ∫ xmed
P(x)dx = 1/2 =
∫xmed
P(x)dx
desvio quadrático médio:
σ2 =
∫(x− x̄)2P(x)dx
5 / 20
distribuições de probabilidades
distribuição binomial
Aplica-se quando há apenas dois resultados possíveis:sucesso/falha, detecção/não-detecção
essa distribuição dá a probabilidade de n sucessos em N tentativas:a probabilidade de êxito em cada tentativa é a mesma e designada por pas sucessivas tentativas são independentes entre sientão,
P(n) =N!
n!(N − n)!pn(1− p)N−n =
(Nn
)pn(1− p)N−n
n sucessos ocorrem com probabilidade pn e (N − n) falhas ocorrem comprobabilidade (1− p)N−n
contudo, os n sucessos podem ocorrer em qualquer lugar nas N tentativas, e onúmero de possibilidades de se distribuir n sucessos em N tentativas é
(Nn
)6 / 20
distribuições de probabilidades
distribuição binomial
probabilidade de n sucessos em N tentativas com probabilidade p:(q = 1− p)
media : n̄ =N∑
n=0
nP(n) = Np
variancia : σ2
=N∑
n=0
(n− n̄)2P(n) = Npq
n0 1 2 3
N
1 q p2 q2 2pq p2
3 q3 3pq2 3p2q p3
7 / 20
distribuições de probabilidades
distribuição de Poisson
A distribuição de Poisson expressa a probabilidade de uma série deeventos ocorrer num certo intervalo de tempo, ou em certa região doespaço, se estes eventos ocorrem independentemente
A distribuição de Poisson deriva da distribuição binomial no caso limitede eventos (independentes) muito raros em um grande número detentativas, de modo que, embora p→ 0, Np tende a um valor finito:
P(n) =µn
n!e−µ
valor médio dos eventos:
n̄ =N∑
n=0
nP(n) = µ
variância:
σ2
=N∑
n=0
(n− n̄)2P(n) = Np(1− p) = µ
8 / 20
distribuições de probabilidades
distribuição de Poisson
Exemplo: razão sinal-ruído em uma observação com CCD
em geral a probabilidade de um foton chegar ao detector é pequena e
os fotons são (mais ou menos) independentes, de modo que uma
distribuição poissoniana é uma boa aproximação
vamos supor que durante um intervalo de tempo t a taxa defotons que chega ao detector é λ
logo, a contagem média é µ = λt e o desvio padrão é µ1/2
9 / 20
distribuições de probabilidades
distribuição de Poisson
Exemplo: razão sinal-ruído em uma observação com CCDcasos limites:
dominado pelos fotons (objeto brilhante; o fundo não é importante)nesse caso,
µ = λt σ = µ1/2 −→ S/N = µ/σ ∝ t1/2
dominado pelo fundo (objeto fraco; o ruído é determinado pelo céu(λceu � λ)
µ = λt σ = (λceut)1/2 −→ S/N ∝ t1/2
objetos muito brilhantes (dominado pelos fotons mas observado emexposições curtas)µ = λt, σ = σreadout (ruído de leitura do CCD)−→ S/N ∝ t
objetos em altos comprimentos de onda (sub-milimétrico, rádio)- hámuitos fotons e Poisson não se aplica
10 / 20
distribuições de probabilidades
distribuição normal ou gaussiana
distribuição gaussiana:
P(x) =1
√2πσ
exp[−
(x− µ)2
2σ2
]
2 parâmetros: a média µ e o desvio padrão σ (ou variância σ2)
a área total sob a curva é 1
a área dentro de±1σ é 0,68
a área dentro de±2σ é 0.95
a área dentro de±3σ é 0.997
As distribuições binomial e a de Poisson tendem à gaussiana quandoN (binomial) ou µ (Poisson) tendem ao infinitoquando Np ou µ > 20, essas distribuições ficam indistinguíveis dagaussiana
11 / 20
distribuições de probabilidades
distribuição normal ou gaussianaTeorema do Limite Central:
um exemplo: suponha que temos uma amostra com muitas observações, cada uma obtidaindependentemente das outras a partir de uma certa distribuição (arbitrária) e calculemos amédia dessas observações
se repetimos isso muitas vezes, estas médias apresentarão (em muitos casos!) umadistribuição gaussiana.
12 / 20
distribuições de probabilidades
distribuição normal ou gaussiana
o Teorema do Limite Central mostra porque a distribuição gaussiana é importante:quando algumas condições são obedecidas (e elas o são a maioria das vezes), fazermédias produz como resultado uma distribuição gaussiana, não importando qual é aforma da distribuição a partir da qual a distribuição é geradaisso significa que os erros de médias de dados vão tender a ser ’gaussianos’isso também é o responsável por descrevermos resultados em termos de ‘sigmas’:um resultado de 2σ teria apenas 5% de chance de ocorrer apenas por acasoum outro ponto (raramente levado em consideração) é que outra propriedadeimportante do TLC é que a convergência ocorre rapidamente no centro mas muitomais lentamente nas asas.
13 / 20
distribuições de probabilidades
distribuição em lei de potência
distribuição em lei de potência: muito comum em Astronomiaexemplos: contagens de galáxias, a função de massa inicial de Salpeter, etctambém muito comum em outras áreas: flutuações no mercado econômico, taxa decrescimento de empresas, distribuição de salários, distribuições de tamanhos,incluindo avalanches, terremotos e incêndios florestaisN(> L): número de objetos ou eventos com uma dada propriedade medida (e.g. aluminosidade) maior do que maior do que um certo valor Lse a distribuição for uma lei de potência com expoente γ, temos:
N(> L) = KLγ+1 (forma integral)
oudN = (γ + 1)KLγdL (forma diferencial)
essa é uma distribuição independente de escala, pois se f (x) = xγ , entãof (ax) = aγxγ = cte xγ = cte f (x), que é a definição de independência de escala
14 / 20
distribuições de probabilidades
distribuição em lei de potência
essa distribuição difere grandemente das vistas anteriormente:suas média e variância são infinitas, a menos que limites sejam determinados e issoé o que ocorre na maioria dos casos concretos, pois sempre existem limitaçõesfísicas em ambos os ‘lados’ da distribuição.de modo geral o expoente é negativo: tomando luminosidades (ou salários) comoexemplo, há muito mais galáxias de baixa luminosidade (e pessoas com baixossalários) do que com com altas luminosidades
15 / 20
distribuições de probabilidades
a função de massa inicialA função de massa inicial (IMF) das estrelas na vizinhança solar foi determinada por Salpeter em1955:
ξ(M) = ξ0M−2.35
onde ξ(M)dM é o número de estrelas nascidas com massas entre M e M + dM
normalização- N, número de estrelas, ou M, massa total:
N =
∫ M2
M1
ξ(M)dM =ξ0
1.35(M−1.35
1 −M−1.352 ) MT =
∫ M2
M1
Mξ(M)dM
Figura: (Mattsson 2010)
16 / 20
combinando distribuições de probabilidades
combinando distribuições
muitas vezes conhecemos a distribuição de uma variável masprecisamos saber a distribuição de uma quantidade derivada
o caso mais simples é a transformação de uma variável x, com umadistribuição de probabilidades g em uma quantidade derivada f(x),com distribuição h
como a densidade de probabilidade é conservada, h(f)df = g(x)dx(tomar cuidado com casos onde f não é monotônica!)
exemplo: suponha que g(x) = exp(−x), (x > 0), e f(x) = log(x)como x = exp(f), a distribuição de f será
h(f) = g(x)/(df/dx) = x exp(−x) = exp(f − exp(f))
17 / 20
combinando distribuições de probabilidades
combinando distribuições
esta técnica se torna difícil de aplicar para mais de uma variável; seguem algunsresultados úteisauto-correlação:suponha que tenhamos duas variáveis x e y, iid (independentes e identicamentedistribuídas), ambas com a mesma fdp g: qual é a distribuição de sua soma,z = x + y?
para cada x temos que somar as probabilidades de todos os números y = z− xassociados ao z de interesseassim,
h(z) =
∫g(y)g(x)dx =
∫g(z− x)g(x)dx
onde as probabilidades são multiplicadas devido à condição de independênciah é denominada auto-correlação de g
18 / 20
combinando distribuições de probabilidades
combinando distribuições
exemplo: z = xy:
h(z) =
∫1|x|
g(x)g(z/x)dx
(na maioria dos casos de interesseessas integrais são difíceis de seremcalculadas analiticamente)se x e y são distribuídos comogaussianas de média 0 e largura σ:
h(z) =2πσ2 K0
[|z|σ2
]onde K0(x) é uma função de Besselmodificada de segunda espécie
19 / 20
combinando distribuições de probabilidades
combinando distribuições
exemplo: z = x/y:
h(z) =
∫|x|g(x)g(zx)dx
se x e y são distribuídos comogaussianas de média 0 e largura σ:
h(z) =1π
11 + z2
distribuição de Cauchy:tanto o valor esperado como avariância são indefinidos!variância infinitanão depende de σ
20 / 20