material estatística uff demonstração das medias e var

58
UNIVERSIDADE FEDERAL FLUMINENSE INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE ESTATÍSTICA Variáveis Aleatórias Algumas Distribuições Discretas e Contínuas Ana Maria Lima de Farias Junho de 2008 Conteúdo 1 Alguns Resultados de Cálculo 1 1.1 Séries geométricas ..................................... 1 1.2 A função logarítmica natural ............................... 4 1.3 A função exponencial natural .............................. 7 1.4 Funções pares e ímpares ................................. 8 1.5 Integrais duplas com coordenadas polares ........................ 10 1.5.1 Exemplo ...................................... 14 1.5.2 Exercício resolvido ................................ 15 1.6 Mudança de variáveis em integrais duplas ........................ 15 1.7 Funções exponencial e logarítmica ............................ 16 1.8 A função gama ...................................... 21 1.9 A função beta ....................................... 22 2 Algumas Distribuições Discretas 26 2.1 Distribuição de Bernoulli ................................. 26 2.1.1 Denição ..................................... 26 2.1.2 Função de distribuição acumulada ........................ 26 2.1.3 Esperança ..................................... 27 2.1.4 Variância ..................................... 27 2.1.5 Função geradora de momentos .......................... 27 2.2 Distribuição Binomial ................................... 28 2.2.1 Denição ..................................... 28 2.2.2 Esperança ..................................... 30 2.2.3 Variância ..................................... 31 2.2.4 Função geradora de momentos .......................... 32 2.2.5 Exercícios resolvidos ............................... 33 2.3 Distribuição Geométrica ................................. 34 2.3.1 Denição ..................................... 34 2.3.2 Função de distribuição acumulada ........................ 35 2.3.3 Esperança ..................................... 37 2.3.4 Variância ..................................... 37 2.3.5 Função geradora de momentos .......................... 38 2.3.6 Exercícios resolvidos ............................... 39 2.3.7 Forma alternativa da distribuição geométrica .................. 40 2.3.8 Propriedade da falta de memória da geométrica ................ 40 ii

Upload: ricpetterle

Post on 09-Aug-2015

122 views

Category:

Documents


75 download

TRANSCRIPT

Page 1: Material estatística UFF demonstração das medias e var

UNIVERSIDADE FEDERAL FLUMINENSE

INSTITUTO DE MATEMÁTICA

DEPARTAMENTO DE ESTATÍSTICA

Variáveis AleatóriasAlgumas Distribuições Discretas e Contínuas

Ana Maria Lima de Farias

Junho de 2008

Conteúdo

1 Alguns Resultados de Cálculo 11.1 Séries geométricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 A função logarítmica natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3 A função exponencial natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.4 Funções pares e ímpares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.5 Integrais duplas com coordenadas polares . . . . . . . . . . . . . . . . . . . . . . . . 10

1.5.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.5.2 Exercício resolvido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.6 Mudança de variáveis em integrais duplas . . . . . . . . . . . . . . . . . . . . . . . . 151.7 Funções exponencial e logarítmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.8 A função gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.9 A função beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Algumas Distribuições Discretas 262.1 Distribuição de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.1.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.1.2 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . 262.1.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.1.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.1.5 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.2 Distribuição Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.2.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.2.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312.2.4 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 322.2.5 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.3 Distribuição Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.3.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.3.2 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . 352.3.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.3.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.3.5 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 382.3.6 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.3.7 Forma alternativa da distribuição geométrica . . . . . . . . . . . . . . . . . . 402.3.8 Propriedade da falta de memória da geométrica . . . . . . . . . . . . . . . . 40

ii

Page 2: Material estatística UFF demonstração das medias e var

CONTEÚDO iii

2.4 Distribuição binomial negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412.4.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412.4.2 Forma alternativa da distribuição binomial negativa . . . . . . . . . . . . . . 422.4.3 Por que binomial negativa? . . . . . . . . . . . . . . . . . . . . . . . . . . . 422.4.4 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.4.5 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452.4.6 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 482.4.7 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

2.5 Distribuição hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 492.5.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 492.5.2 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512.5.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 522.5.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 532.5.5 Distribuição binomial versus distribuição hipergeométrica . . . . . . . . . . . 552.5.6 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

2.6 Distribuição de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 562.6.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 562.6.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572.6.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592.6.4 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 592.6.5 Aproximação da binomial pela Poisson . . . . . . . . . . . . . . . . . . . . . 602.6.6 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3 Algumas Distribuições Contínuas 623.1 Distribuição uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

3.1.1 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . 633.1.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633.1.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

3.2 Distribuição exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653.2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653.2.2 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . 653.2.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 663.2.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 673.2.5 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 673.2.6 Parametrização alternativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 683.2.7 Propriedade da falta de memória da exponencial . . . . . . . . . . . . . . . . 683.2.8 Exercícios resolvidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

3.3 Distribuição gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 693.3.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 693.3.2 O gráfico da distribuição gama . . . . . . . . . . . . . . . . . . . . . . . . . 703.3.3 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 733.3.4 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 743.3.5 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 753.3.6 Distribuição de Erlang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 753.3.7 Distribuição qui-quadrado como caso particular da gama . . . . . . . . . . . 75

CONTEÚDO iv

3.4 Distribuição de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763.4.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763.4.2 Esperança e variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763.4.3 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . 77

3.5 Distribuição de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 773.5.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 773.5.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 783.5.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

3.6 Distribuição beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

4 Funções de Variáveis Aleatórias Contínuas 814.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 814.2 Funções inversíveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

4.2.1 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 844.2.2 Transformação linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

5 A Distribuição Normal 885.1 Distribuição normal padrão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

5.1.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 885.1.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 885.1.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 885.1.4 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 89

5.2 Distribuição N(μ;σ2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 895.2.1 Características da curva normal . . . . . . . . . . . . . . . . . . . . . . . . . 905.2.2 Parâmetros da N (μ;σ2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 925.2.3 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 92

5.3 Função de distribuição acumulada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 945.4 Tabulação da distribuição normal padrão . . . . . . . . . . . . . . . . . . . . . . . . 945.5 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 975.6 A distribuição log-normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

5.6.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1055.6.2 Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1065.6.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

5.7 Exemplo: qui-quadrado e normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

Page 3: Material estatística UFF demonstração das medias e var

Capítulo 1

Alguns Resultados de Cálculo

1.1 Séries geométricas

Recordemos inicialmente a progressão geométrica (pg) de razão r, dada por (1, r, r2, r3, . . . , rn) .Para calcular a soma dos n primeiros termos de uma pg, note que, se r 6= 1, podemos escrever:

(1 + r + r2 + . . .+ rn)(1− r) = (1 + r + r2 + . . .+ rn)− (r + r2 + . . .+ rn+1) = 1− rn+1

Logo,

(1 + r + r2 + . . .+ rn) =1− rn+1

1− rr 6= 1

Essa é a soma dos n termos de uma pg de razão r.Se |r| < 1, lim

n→∞rn+1 = 0. Logo, a soma dos termos da pg converge, quando n→∞, isto é:

∞Xi=0

ri =1

1− rse | r | < 1. (1.1)

A série∞Pi=0

ri é chamada série geométrica de razão r.

Note que podemos escrever (atenção aos índices dos somatórios!):

∞Pi=0

ri = 1 +∞Pi=1

ri ⇒ 1

1− r= 1 +

∞Pi=1

ri se | r | < 1

ou ∞Pi=1

ri = 1− 1

1− r=

r

1− rse | r | < 1 (1.2)

Consideremos, agora, as derivadas da série geométrica. Vamos começar com a derivada de

1

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 2

primeira ordem.

d

dr

µ ∞Pi=0

ri¶

=d

dr(1 + r + r2 + r3 + r4 + · · ·+ rn + · · · )

= 1 + 2r + 3r2 + 4r3 + · · ·+ nrn−1 + · · · == 1 + (r + r) + (r2 + 2r2) + (r3 + 3r3) + · · · £rn−1 + (n− 1)rn−1 + · · · ¤= (1 + r + r2 + r3 + · · ·+ rn−1 + · · · ) + £r + 2r2 + 3r3 + · · ·+ (n− 1)rn−1 + · · · ¤=

∞Pi=0

ri +∞Pi=1

iri

=∞Pi=0

ri +∞Pi=0

iri

=∞Pi=0

(1 + i)ri

Como a série geométrica é convergente para | r | < 1, podemos igualar as derivadas, isto é:∞Pi=0

(1 + i)ri =d

dr

µ∞Pi=0

ri¶=

d

dr

µ1

1− r

¶se | r | < 1

ou seja,∞Pi=0

(1 + i)ri =1

(1− r)2se | r | < 1 (1.3)

Mas podemos escrever

(1 + i) =(1 + i)× i!

i!=(1 + i)!

i! 1!=

µ1 + i

i

¶resultando que

∞Pi=0

µ1 + i

i

¶ri =

1

(1− r)2se | r | < 1 (1.4)

Consideremos a segunda derivada.

d2

dr2

µ∞Pi=0

ri¶=

d2

dr2(1 + r + r2 + r3 + r4 + · · ·+ rn−1 + rn + rn+1 · · · ) =

=d

dr

¡1 + 2r + 3r2 + 4r3 · · ·+ (n− 1)rn−2 + nrn−1 + (n+ 1)rn + · · · ¢ =

= 2× 1 + 3× 2× r + 4× 3× r2 + · · ·+ (n− 1)(n− 2)rn−3 + n(n− 1)rn−2 + (n+ 1)nrn−1 + · · ·=

∞Pi=0

(i+ 2)(i+ 1)ri

Igualando as derivadas, obtemos:

∞Pi=0

(i+ 2)(i+ 1)ri =d2

dr2

µ1

1− r

¶=

d

dr

µ1

(1− r)2

¶=−2× (1− r)(−1)

(1− r)4

ou ∞Pi=0

(i+ 2)(i+ 1)ri =2

(1− r)3(1.5)

Page 4: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 3

Esse resultado pode ser escrito de outra forma:∞Pi=0

(i+ 2)(i+ 1)ri =2

(1− r)3⇔

∞Pi=0

(i+ 2)(i+ 1)

2ri =

1

(1− r)3⇔

∞Pi=0

(i+ 2)(i+ 1)i!

2× i!ri =

1

(1− r)3⇔

∞Pi=0

(i+ 2)!

i!× 2! ri =

1

(1− r)3⇔

∞Pi=0

µi+ 2

2

¶ri =

1

(1− r)3

Pela propriedade das relações complementares, sabemos que¡i+22

¢=¡i+2i

¢e, portanto, resulta que

∞Pi=0

µi+ 2

2

¶ri =

∞Pi=0

µi+ 2

i

¶ri =

1

(1− r)3(1.6)

Tomando a terceira derivada:

d3

dr3

µ∞Pi=0

ri¶=

d3

dr3(1 + r + r2 + r3 + r4 + r5 + · · ·+ rn−1 + rn + rn+1 · · · ) =

=d2

dr2¡1 + 2r + 3r2 + 4r3 + 5r4 + · · ·+ (n− 1)rn−2 + nrn−1 + (n+ 1)rn + · · · ¢ =

=d

dr

∙2× 1 + 3× 2× r + 4× 3× r2 + 5× 4× r3 + · · ·+ (n− 1)(n− 2)rn−3

+n(n− 1)rn−2 + (n+ 1)nrn−1 + · · ·¸

= 3× 2× 1 + 4× 3× 2× r + 5× 4× 3× r2 + · · ·+ (n− 1)(n− 2)(n− 3)rn−4 + · · ·+n(n− 1)(n− 2)rn−3 + (n+ 1)n(n− 1)rn−2 + · · ·

=∞Pi=0

(i+ 3)(i+ 2)(i+ 1)ri

Igualando as derivadas:

∞Pi=0

(i+ 3)(i+ 2)(i+ 1)ri =d3

dr3

µ1

1− r

¶=

d

dr

µ2

(1− r)3

¶=−2× 3× (1− r)2 × (−1)

(1− r)6=

3!

(1− r)4

Logo,∞Pi=0

(i+ 3)(i+ 2)(i+ 1)

3!ri =

1

(1− r)4⇒

∞Pi=0

(i+ 3)(i+ 2)(i+ 1)i!

3!× i!ri =

1

(1− r)4⇒

∞Pi=0

µ3 + i

i

¶ri =

∞Pi=0

µ3 + i

3

¶ri =

1

(1− r)4(1.7)

Continuando a derivar (note que podemos tomar derivadas de qualquer ordem!), obtém-se oseguinte resultado geral:

∞Pi=0

µk + i

i

¶ri =

∞Pi=0

µk + i

k

¶ri =

1

(1− r)k+1(1.8)

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 4

1.2 A função logarítmica natural

Define-se a função logarítmica natural, denotada por ln, como

lnx =R x1

1

tdt x > 0

A condição x > 0 é necessária pois, se tivéssemos x ≤ 0, o domínio de integração incluiria t = 0,onde a função f(t) = 1

tnão está definida.

Pelo teorema Fundamental do Cálculo, vemos que lnx é uma antiderivada de 1x, isto é

d

dxlnx =

1

xx > 0

Isso significa que lnx é diferenciável e sua derivada é positiva no seu domínio de definição. Resulta,então, que lnx é uma função contínua (porque ela é diferenciável) e crescente (porque sua derivadaé sempre positiva).Da definição da função lnx seguem as seguintes propriedades:

1. ln 1 = 0

2. Se p > 0 e q > 0, então ln (pq) = ln p+ ln q

De fato:d

dxln(px) =

1

px.p =

1

x

Isso significa que ln(px) e ln(x) são ambas antiderivadas de 1xe, portanto, diferem por uma

cosntante, ou seja:ln(px) = lnx+ C

Fazendo x = 1, resulta que ln p = 0 + C e, portanto

ln(px) = lnx+ ln p x > 0, p > 0

Fazendo x = q, prova-se o resultado desejado.

3. Se p > 0, então ln(1p) = − ln p

De fato:

Fazendo q = 1pno resultado anterior obtemos:

ln

µp1

p

¶= ln 1 = ln p+ ln

1

p

Como ln(1) = 0, segue o resultado.

4. Se p > 0 e q > 0, então ln pq= ln p− ln q

De fato: usando os resultados anteriores temos que

lnp

q= ln

µp1

q

¶= ln p+ ln

1

q= ln(p)− ln(q)

Page 5: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 5

5. Se p > 0 e r é um número racional qualquer, então ln(pr) = r ln p

De fato: usando a regra da cadeia, temos que

d

dxln (xr) =

1

xrrxr−1 = r

µ1

x

¶= r

d

dxlnx =

d

dx(r lnx)

Daí vê-se que ln(xr) e r ln(x) têm a mesma derivada; logo

ln(xr) = r lnx+ C

Fazendo x = 1 obtém-se que C = 0 e, portanto

ln(xr) = r lnx

Como lnx é contínua e crescente e ln 1 = 0, resulta que para x > 1, lnx > 0 e para 0 < x < 1,lnx < 0. Além disso,

d2

dx2ln(x) =

d

dx

µ1

x

¶= − 1

x2< 0

logo, a função lnx é côncava para baixo. Vamos ver, agora, o comportamento assintótico de lnx.Para x > 0, a função f(x) = 1

xé positiva e, portanto, a integral definida pode ser interpretada

como área sob a curva. Analisando a Figura 1.1, podemos ver que a área sob a curva entre 1 e 4é maior que as áreas dos três retângulos em cinza, cujos vértices superiores à direita estão sobre acurva. Isso significa que R 4

1

1

tdt >

1

2+1

3+1

4=13

12> 1

Figura 1.1: Gráfico da função f(x) = 1x

Logo,ln 4 > 1

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 6

e se M é um número racional positivo qualquer,

M ln 4 > M =⇒ ln 4M > M

Tomando x > 4M , como lnx é uma função crescente, teremos

lnx > ln 4M > M

Como M é qualquer racional positivo, da relação lnx > M resulta que podemos fazer lnx tãogrande quanto desejado, bastando para isso tomar x suficientemente grande, donde se conclui que

limx→∞

(lnx) =∞

Como ln 1x= − lnx, segue que lnx = − ln 1

xe, portanto,

limx→0+

(lnx) = limx→0+

µ− ln 1

x

¶Mas quando x → 0+, 1

x→ ∞ e, pelo resultado acima, ln 1

x→ ∞ e, portanto, − ln 1

x→ −∞. Isso

significa quelimx→0+

(lnx) = −∞Na Figura ?? temos o gráfico da função lnx.

Figura 1.2: Gráfico da função f(x) = lnx

Page 6: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 7

1.3 A função exponencial natural

Definindo f(x) = lnx, vimos que f : R+ → R é uma função contínua estritamente crescente tal quelimx→∞

lnx =∞ e limx→0+

lnx = −∞. Com base nesses resultados, podemos provar o seguinte teorema:

Theorem 1 A cada número real x existe um único número real positivo y tal que ln y = x.

Demonstração:Se x = 0, então ln 1 = 0 e 1 é o único valor de y para o qual ln y = 0, uma vez que ln é

estritamente crescente. Se x > 0, como limx→∞

lnx = ∞, podemos escolher um número b tal que

ln 1 < x < ln b. Como ln é contínua, o Teorema do Valor Intermediário garante a existência de umnúmero y entre 1 e b tal que ln y = x e esse número é único porque ln é crescente. Se x < 0, comolimx→0+

lnx = −∞, existe um número b > 0 tal que ln b < x < ln 1. Como antes, o Teorema do Valor

Intermediário e a continuidade de ln garantem a existência de um único número y entre b e 1 talque ln y = x.

O teorema acima nos permite definir uma função de R em R+, uma vez que a cada x ∈ Rpodemos associar um único número y ∈ R+.Assim, define-se a função exponencial natural, denotadapor exp, como

expx = y se e somente se ln y = x

para todo x, onde y > 0.

Da definição das funções exp e ln, segue que exp é uma função biunívoca. De fato: se expx1 =expx2 = b, então, por definição, ln b = x1 e ln b = x2 e, portanto, x1 = x2.Podemos ver também que

exp(lnx) = y ⇐⇒ ln y = lnx⇐⇒ y = x⇐⇒ exp(lnx) = x

ln(expx) = y ⇐⇒ exp(y) = exp(x)⇐⇒ y = x⇐⇒ ln(expx) = x

e isso nos diz que exp e ln são inversas uma da outra.O número neperiano e (também conhecido como número de Euler, em homenagem aomatemátco

suiço Leonard Euler) é definido como o o único número real positivo tal que

ln e = 1

Usando a regra do trapezoidal, pode-se mostrar queR 2,71

1

xdx < 1 <

R 2,81

1

xdx

o que significa queln(2, 7) < ln(e) < ln(2, 8)

e como ln é crescente, isso significa que

2, 7 < e < 2, 8

Usando as definições e propriedades já vistas, pode mostrar as seguintes propriedades da funçãoexponencial natural:

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 8

1. Se p e q são números reais, então (exp p)(exp q) = exp(p+ q)

De fato:ln(exp p)(exp q) = ln exp p+ ln exp q = p+ q = ln exp(p+ q)

e o resultado segue do fato de a função exp ser bijetora.

2. Se p e q são números reais, então exp pexp q

= exp(p− q)

De fato:lnexp p

exp q= ln exp p− ln exp q = p− q = ln exp(p− q)

e novamente o resultado segue do fato de a função exp ser bijetora.

3. Se p é um número real e r é um número racional, então (exp p)r = exp(pr).

De fato:ln (exp p)r = r ln exp p = rp = ln exp(pr)

e novamente o resultado segue do fato de a função exp ser bijetora.

Temos o seguinte resultado: Se f é uma função diferenciável com inversa g e se f 0(g(c)) 6= 0,então g é diferenciável em c e g0(c) = 1

f 0(g(c)) .Aplicando este resultado para a função exponencial, temos que a função exponencial é a inversa

da função logarítmica natural f(x) = lnx, que é diferenciável com derivada positiva para todox > 0 . Segue, então, que a função g(x) = expx também é diferenciável e sua derivada é dada por

g0(x) =1

f 0(g(x))=

11

g(x)

=11

expx

= expx

ou seja, a função exponencial é sua própria derivada! Como expx > 0, segue que as derivadasprimeira e segunda são positivas; logo, expx é uma função crescente com concavidade para cima.Além disso,

x → ∞ =⇒ ln(expx)→∞ =⇒ expx→∞ =⇒ limx→∞

expx =∞x → −∞ =⇒ ln(expx)→−∞ =⇒ expx→ 0 =⇒ lim

x→−∞expx = 0

O gráfico da função expx está na Figura 1.3.Note que, como a função exp é a inversa da função ln, o gráfico da função exponencial é uma

reflexão do gráfico da função logarítmica através da reta y = x.

1.4 Funções pares e ímpares

Definição 1.1 Diz-se que uma função f é par se f (−x) = f (x) e que é ímpar se f (−x) = −f (x) .

Teorema 1.1 (a) Se f é par, entãoZ ∞

−∞f(x)dx = 2

Z ∞

0

f(x)dx. (b) Se f é ímpar, entãoZ ∞

−∞f(x)dx = 0.

Page 7: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 9

Figura 1.3: Gráfico da função exponencial natural f(x) = expx

Figura 1.4: Função exponencial e função logarítimica - reflexão através da reta y = x

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 10

Demonstração: Z ∞

−∞f(x)dx =

Z 0

−∞f(x)dx+

Z ∞

0

f(x)dx

Fazendo x = −t na primeira integral, tem-se que:Z ∞

−∞f(x)dx =

Z 0

∞f(−t)(−dt) +

Z ∞

0

f(x)dx = −Z 0

∞f(−t)dt+

Z ∞

0

f(x)dx

=

Z ∞

0

f(−t)dt+Z ∞

0

f(x)dx

Se a função é par, resulta que:Z ∞

−∞f(x)dx =

Z ∞

0

f(−t)dt+Z ∞

0

f(x)dx =

Z ∞

0

f(t)dt+

Z ∞

0

f(x)dx = 2

Z ∞

0

f(x)dx (1.9)

Se a função é ímpar, resulta que:Z ∞

−∞f(x)dx =

Z ∞

0

f(−t)dt+Z ∞

0

f(x)dx =

Z ∞

0

−f(t)dt+Z ∞

0

f(x)dx

= −Z ∞

0

f(t)dt+

Z ∞

0

f(x)dx = 0

1.5 Integrais duplas com coordenadas polares

No cálculo de integrais duplas, a utilização de coordenadas polares é bastante útil. No sistemacartesiano, cada ponto do plano é representado pela sua abscissa e sua ordenada. No sistema decoordenadas polares, em vez dos eixos x e y, trabalha-se com um polo ou origem, que é um pontofixo do plano, e um eixo polar, que é uma semi-reta orientada, conforme ilustrado na figura 1.6. Ascoordenadas polares de um ponto P qualquer no plano são a distância r = d(O,P ) e o ângulo θdeterminado pelo eixo polar e o segmento OP. Em geral, a coordenada θ é considerada positiva seé gerada por uma rotação anti-horária e negativa, caso contrário.

As coordenadas polares de um ponto não são únicas, pois há vários ângulos com o mesmo ladoterminal OP. Por exemplo,

¡3, π

4

¢,¡3, 9π

4

¢e¡3,−7π

4

¢representam o mesmo ponto. Permite-se

também que a coordenada r seja negativa.Se uma função de uma variável f está definida em um intervalo [a, b] , a definição de integral

(simples) requer a partição do intervalo [a, b] em subintervalos de comprimento ∆xi, conformeilustrado na figura 1.7. Se denotamos por P a partição x0, x1, . . . , xn, então a integral definidade Riemann é definida como Z b

a

f(x)dx = limkPk→0

Pf (wi)∆xi

Para integrais duplas de funções definidas em coordenadas cartesianas, temos que ter a partiçãoda região de definição R da função de duas variáveis f(x, y), conforme ilustrado na figura 1.8. Nesse

Page 8: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 11

Figura 1.5:

( )θ,rP

O

θ

r

eixo polar

Figura 1.6: Sistema de coordenadas polares

1−ixix0xa = bxn =

Figura 1.7: Partição do intervalo [a, b]

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 12

caso, a integral dupla é definida comoZR

Zf(x, y)dA = lim

kPk→0f (ui, vi)∆Ai

e é calculada através de integrais parciais, isto é, calcula-se primeiro a integral com respeito a y,mantendo x constante, e depois integra-se o resultado com relação a x :Z b

a

Z d

c

f(x, y)dydx =

Z b

a

∙Z d

c

f(x, y)dy

¸dx

Figura 1.8: Partição da região R - coordenadas cartesianas

O cálculo de integrais duplas de funções parametrizadas em termos de coordenadas polaresrequer que a partição da região de integração seja definida em termos de tais coordenadas, conformeilustrado na figura 1.9.

Vamos considerar uma região polar elementar (ver figura 1.10).A área total de um círculo é dada por

πr2 =2πr2

2=1

2(2π) r2 ;

logo, a área de um setor circular correspondente a um ângulo ∆θ e raio r é

1

2(∆θ) r2

Então, a área da região polar elementar é

∆A =1

2(∆θ) r22 −

1

2(∆θ) r21 =

1

2(∆θ)

¡r22 − r21

¢=1

2(∆θ) (r1 + r2) (r2 − r1)

Page 9: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 13

Figura 1.9: Partição da região R - coordenadas polares

2r

1r

rΔθΔ

Figura 1.10: Região polar elementar

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 14

Definindo

r =1

2(r1 + r2)

∆r = r2 − r1

podemos escrever:∆A = r∆θ∆r

A integral em termos das coordenadas polares é, então:ZR

Zf(r, θ)dA = lim

kPk→0

Pf(ri, θi)ri∆θi∆ri

e calculada como ZR

Zf(r, θ)dA =

ZR

Zf(r, θ)rdrdθ

1.5.1 Exemplo

Vamos calcularZ ∞

−∞exp

µ−t

2

2

¶dt. Aqui não podemos aplicar o Teorema Fundamental do Cálculo

pois o integrando não possui antiderivada. Mas o integrando é uma função par; logo, a integral emquestão é igual a duas vezes a integral de 0 a ∞. Mas∙Z ∞

0

exp

µ−t

2

2

¶dt

¸2=

µZ ∞

0

exp

µ−t

2

2

¶dt

¶µZ ∞

0

exp

µ−u

2

2

¶du

¶=

=

Z ∞

0

Z ∞

0

exp

µ−t

2 + u2

2

¶dtdu

Consideremos agora, a região de integração em termos das coordenadas polares:

t = r cos θ u = r sen θ dtdu = rdrdθ

Como 0 < t <∞ e 0 < u <∞, então r > 0 e 0 < θ <π

2. Como

t2 + u2 = r2

segue que ∙Z ∞

0

exp

µ−t

2

2

¶dt

¸2=

Z ∞

0

Z π2

0

exp

µ−r

2

2

¶rdθdr

Fazendor2

2= w, então rdr = dw e

∙Z ∞

0

exp

µ−t

2

2

¶dt

¸2=

Z ∞

0

Z π2

0

exp (−w) dθdw =Z ∞

0

"Z π2

0

#exp (−w) dw =

=

Z ∞

0

π

2exp(−w)dw = π

2

¡−e−w¢¯∞0=

π

2

Page 10: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 15

Provamos assim que Z ∞

0

exp

µ−t

2

2

¶dt =

2(1.10)

e, portanto, Z ∞

−∞exp

µ−t

2

2

¶dt =

√2π (1.11)

ou ainda1√2π

Z ∞

−∞exp

µ−t

2

2

¶dt = 1 (1.12)

1.5.2 Exercício resolvido

Calcule Γ (1/2) . Por definição,

Γ (1/2) =

Z ∞

0

e−xx1/2−1dx =Z ∞

0

e−x√xdx

Vamos usar a seguinte transformação de variável:

x =t2

2

Então,

dx = tdt

x = 0⇒ t = 0

x → ∞⇒ t→∞Logo,

Γ (1/2) =

Z ∞

0

⎛⎝e−t2/2qt2

2

⎞⎠ tdt =√2

Z ∞

0

e−t2/2dt =

√2×

2

ou seja:Γ (1/2) =

√π

1.6 Mudança de variáveis em integrais duplas

No cálculo de integrais simples, podemos usar mudança de variável para simplificar os cálculos.Assim, se queremos calcular

R baf(x)dx, sob condições adequadas, podemos definir x = g(u) e então

dx = g0(u)du ebRa

f(x)dx =g(b)Rg(a)

f(g(u))g0(u)du

O resultado análogo para funções de duas variáveis é o seguinte: se x = f(u, v) e y = g(u, v) é umatransformação de variáveis, entãoRR

R

F (x, y)dxdy =RRR

F (f(u, v), g(u, v)) |J | dudv

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 16

onde |J | representa o valor absoluto do determinante da matriz jacobiana

J =

∙∂x∂u

∂x∂v

∂y∂u

∂y∂v

¸Considere, como exemplo, as coordenadas polares definidas anteriormente: x = r cos θ e y =

r sen θ :

J =

¯∙∂x∂r

∂x∂θ

∂y∂r

∂y∂θ

¸¯=

¯∙cos θ −r sen θsen θ r cos θ

¸¯= r cos2 θ + r sen2 θ = r

¡cos2 θ + sen2 θ

¢= r

e, portanto, dxdy = rdrdθ.

1.7 Funções exponencial e logarítmica

Vimos que, se r é um número racional e a > 0, então

ln ar = r ln a =⇒ ar = exp(r ln a)

Iremos usar este resultado para definir a função exponencial com base a, definida para qualquer x.Se x é qualquer número real e a é qualquer número real positivo, então

ax = exp(x ln a)

A função f(x) = ax é chamada função exponencial com base a. Note que, se a = e, então

ex = exp(x ln e) = exp(x)

e, então, podemos escrever a função exponencial com base a como

ax = ex ln a

Com essa definição, podemos generalizar as propriedades das funções logarítmica e exponencialnaturais vistas anteriormente.

1. Se u é um número real qualquer e a > 0, então ln au = u ln a

De fato: usando a definição da função exponencial com base a e propriedades já vistas dafunção exponencial natural, temos que

ln au = ln eu ln a = u ln a

2. Se u e v são números reais quaisquer e a > 0, então auav = au+v.

De fato: usando a definição da função exponencial com base a e propriedades já vistas dafunção exponencial natural, temos que

auav = eu ln aev ln a = eu lna+v ln a = e(u+v) ln a = au+v

Page 11: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 17

3. Se u e v são números reais quaisquer e a > 0, então au

av= au−v.

De fato: usando a definição da função exponencial com base a e propriedades já vistas dafunção exponencial natural, temos que

au

av=

eu ln a

ev ln a= eu ln a−v ln a = e(u−v) ln a = au−v

4. Se u e v são números reais quaisquer e a > 0, então (au)v = auv.

De fato: usando a definição da função exponencial com base a e propriedade 1 acima, temosque

(au)v = ev ln au

= evu ln a = auv

Para calcular a derivada da função exponencial com base a, vamos usar a regra da cadeia e ofato de a derivada da função exp ser a própria função:

d

dx(ax) =

d

dx

¡ex lna

¢= ex ln a

d

dx(x ln a) = (ln a) ex ln a

ou sejad

dx(ax) = ax ln a

Se a > 1, ln a > 0 e ax é uma função crescente para x ∈ R (note que ax > 0 para todo a, peladefinição). Se 0 < a < 1, ln a < 0 e ax é uma função decrescente para x ∈ R.Note também que, se a > 1

limx→∞

ax = limx→∞

ex ln a =∞lim

x→−∞ax = lim

x→−∞ex ln a = 0

e se 0 < a < 1

limx→∞

ax = limx→∞

ex ln a = 0

limx→−∞

ax = limx→−∞

ex ln a =∞

Na Figura 1.11 ilustra-se o gráfico de f(x) = ax para a = 2 e a = 12. O gráfico da função

exponencial com base a sempre terá essas formas, dependendo se a > 1 ou 0 < a < 1.

Se a 6= 1, a função f(x) = ax é bijetora e, portanto, admite uma inversa. Essa inversa serádenotada por loga e, portanto

loga x = y ⇐⇒ x = ay

A função g(x) = logx a é chamada função logarítmica com base a. Note que, quando a = e, temosa função logarítmica natural.Temos que

loga x = y ⇐⇒ x = ay ⇐⇒ lnx = y ln a⇐⇒ y =lnx

ln a

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 18

Figura 1.11: f(x) = ax, a > 1 e g(x) = ax, a < 1

Como y = loga x, segue que

loga x =lnx

ln a

Usando essa relação podemos ver as seguintes propriedades da função logarítmica de base a.

1. Se p > 0 e q > 0 são números reais, então loga pq = loga p+ loga q.

De fato:

loga pq =ln pq

ln a=ln p+ ln q

ln a=ln p

ln a+ln q

ln a= loga p+ loga q

2. Se p > 0 e q > 0 são números reais, então logapq= loga p− loga q.

De fato:

logap

q=ln p

q

ln a=ln p− ln qln a

=ln p

ln a− ln qln a

= loga p− loga q

3. Se p > 0 e x é número real qualquer, então loga px = x loga p.

De fato:

loga px =

ln px

ln a=

x ln p

ln a= x loga p

Vamos calcular a derivada de f(x) = loga x.

loga x =lnx

ln a=⇒ d

dx(loga x) =

d

dx

µlnx

ln a

¶=

1

ln a

1

x

Page 12: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 19

ou seja,d

dx(loga x) =

1

x ln a

Vamos, agora, calcular alguns limites envolvendo o número neperiano e. Da definição de derivadada função f(x) = lnx, temos que

f 0(x) = limh→0

ln(x+ h)− ln(x)h

= limh→0

1

hln

x+ h

x

= limh→0

ln

µx+ h

x

¶ 1h

= limh→0

ln

µ1 +

h

x

¶ 1h

Como f 0(x) = 1x, para x = 1 temos f 0(1) = 1 e, portanto,

1 = limh→0

ln (1 + h)1h

Mas(1 + h)

1h = exp

hln (1 + h)

1h

iComo a função exponencial é contínua,

limh→0

(1 + h)1h = lim

h→0exp ln (1 + h)

1h

= exp limh→0

ln (1 + h)1h

= exp(1)

= e

ou seja,limh→0

(1 + h)1h = e (1.13)

Fazendo 1h= n na expressão acima, obtemos que

limn→∞

µ1 +

1

n

¶n

= e (1.14)

A partir desses resultados, vamos calcular limn→∞

³1 +

x

n

´n. Fazendo t =

x

n, resulta que

limn→∞

³1 +

x

n

´n= lim

t→0(1 + t)

xt = lim

t→0

h(1 + t)1/t

ix

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 20

Como a função exponencial é contínua, resulta que

limt→0

h(1 + t)1/t

ix=hlimt→0(1 + t)1/t

ix= ex

Logo,

limn→∞

³1 +

x

n

´n= ex (1.15)

Vamos calcular alguns outros limites envolvendo a função exponencial que serão úteis no estudode distribuições contínuas. O resultado crucial é

limx→∞

xke−x = 0 (1.16)

Vamos mostrar esse resultado usando demonstração por indução e usando, também, a regra deL´Hôpital. Consideremos o caso em que k = 1. Então

limx→∞

xe−x = limx→∞

x

ex

que tem a forma ∞∞ e, portanto, podemos aplicar L´Hôpital, que diz que

limx→∞

xe−x = limx→∞

x

ex= lim

x→∞x0

(ex)0= lim

x→∞1

ex= 0

Logo, o resultado vale para k = 1. Suponhamos verdadeiro para qualquer k; vamos mostrar quevale para k + 1. De fato:

limx→∞

xk+1e−x = limx→∞

xk+1

ex= lim

x→∞

¡xk+1

¢0(ex)0

= limx→∞

(k + 1)xk

ex= (k + 1) lim

x→∞xk

ex= (k + 1)× 0 = 0

pela hipótese de indução. De maneira análoga, prova-se um resultado mais geral dado por:

limx→∞

xke−λx = 0 ∀k > 0 e λ > 0 (1.17)

Vamos ver, agora, a fórmula de Taylor para a função f(x) = ex. Lembrando que a derivada def(x) é a própria f(x) e que f(0) = 1, podemos escrever:

ex = 1 + x+x2

2!+ · · ·+ xn

n!+Rn+1

ondeRn+1 =

ez

(n+ 1)!xn+1

para algum z entre 0 e x. Se x > 0, então 0 < z < x, o que implica que ez < ex e, portanto

0 < Rn+1 <ex

(n+ 1)!xn+1

Page 13: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 21

Mas

limn→∞

ex

(n+ 1)!xn+1 = ex lim

n→∞xn+1

(n+ 1)!= ex × 0 = 0

e, pelo teorema do sanduiche, limRn+1 = 0. Se x < 0, como z está entre x e 0, segue que z < 0;logo, ez < 1 e

0 < |Rn+1| <¯

ez

(n+ 1)!xn+1

¯<

¯xn+1

(n+ 1)!

¯→ 0

Logo, também neste caso limn→∞

Rn+1 = 0.

Segue, então, que f(x) = ex é representada pela série de Taylor, ou seja, podemos escrever

ex =∞Pk=0

xk

k!(1.18)

1.8 A função gama

A função gama é definida pela seguinte integral:

Γ(α) =

Z ∞

0

e−xxα−1dx α ≥ 1 (1.19)

A função gama tem a seguinte propriedade recursiva: Γ(α+ 1) = αΓ(α). Para demonstrar esseresultado, iremos usar integração por partes.

Γ(α+ 1) =

Z ∞

0

e−xxαdx

Fazendo

• u = xα ⇒ du = αxα−1

• dv = e−xdx⇒ v = −e−x

Logo,

Γ(α+ 1) = −xαe−x¯∞0−Z ∞

0

−e−xαxα−1dx =⇒

Γ(α+ 1) = 0 + α

Z ∞

0

e−xxα−1dx =⇒Γ(α+ 1) = αΓ(α) (1.20)

Aqui usamos o resultado dado em (1.16).Vamos trabalhar, agora, com α = n inteiro.

Γ(1) =

Z ∞

0

e−xx1−1dx =Z ∞

0

e−xdx = 1

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 22

Γ(2) = 1× Γ(1) = 1 = 1!

Γ(3) = 2× Γ(2) = 2× 1 = 2!Γ(4) = 3× Γ(3) = 3× 2× 1 = 3!Γ(5) = 4× Γ(4) = 4× 3× 2× 1 = 4!

Em geral, se n é inteiro,Γ(n) = (n− 1)! (1.21)

1.9 A função beta

A função beta é definida pela seguinte integral:

B(x, y) =1R0

tx−1(1− t)y−1dt x > 0, y > 0 (1.22)

Note que essa é uma função de 2 variáveis!.Vamos ver a relação entre a função gama e a função beta. Para isso vamos calcular Γ(x)Γ(y) usando

o teorema sobre mudança de variáveis em integrais duplas visto na seção 1.6.

Γ(x)Γ(y) =∞R0

tx−1e−tdt∞R0

sy−1e−sds =∞R0

∞R0

tx−1sy−1e−(t+s)dsdt

Considere a seguinte transformação de variáveis:

σ = s+ t =⇒ s = σ − τ

τ = t =⇒ t = τ

Temos que

J =

¯∙∂s∂σ

∂s∂τ

∂t∂σ

∂t∂τ

¸¯=

¯∙1 −10 1

¸¯= 1

e precisamos agora determinar os limites de integração no novo sistema de coordenadas. Nascoordenadas (s, t) a região de integração é limitada pelas retas s = 0 e t = 0 que correspondem,respectivamente, a σ = τ e τ = 0. Por outro lado, como s > 0 e t > 0, resulta que τ > 0 e σ > τ.Veja Figura 1.12, onde se ilustram as regiões de integração nos dois sistemas de coordenadas.Resulta o seguinte:

Γ(x)Γ(y) =∞R0

∞R0

tx−1sy−1e−(t+s)dsdt =∞R0

µσR0

τx−1(σ − τ)y−1e−σ |1| dτ¶dσ

=∞R0

ÃσR0

τx−1σy−1µσ − τ

σ

¶y−1e−σdτ

!dσ

=∞R0

µσR0

τx−1σy−1³1− τ

σ

´y−1e−σdτ

¶dσ

Consideremos mais uma mudança de coordenadas:

r =τ

σ=⇒ τ = rq

q = σ =⇒ σ = q

Page 14: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 23

Figura 1.12: Transformação: (s, t)→ (σ, τ)

para a qual temos

J =

¯∙ ∂τ∂r

∂τ∂q

∂σ∂r

∂σ∂q

¸¯=

¯∙q r0 1

¸¯= |q| = q

Além disso, como τ > 0, σ > 0 e σ > τ resulta que q > 0 e 0 < r < 1. Veja a Figura 1.13. Logo,

Γ(x)Γ(y) =∞R0

µσR0

τx−1σy−1³1− τ

σ

´y−1e−σdτ

¶dσ

=∞R0

1R0

(rq)x−1qy−1 (1− r)y−1 e−qqdrdq

=∞R0

1R0

qx+y−1rx−1(1− r)y−1e−qdrdq

=

µ∞R0

qx+y−1e−qdq

¶µ1R0

rx−1(1− r)y−1dq

¶= Γ(x+ y)B(x, y)

e, portanto,

B(x, y) =Γ(x)Γ(y)

Γ(x+ y)(1.23)

Para obter uma outra expressão para a função beta, vamos calcular Γ(x)Γ(y) por meio decoordenadas polares.

Γ(x)Γ(y) =

µ∞R0

tx−1e−tdt

¶µ∞R0

sy−1e−sds

¶Como t > 0 e s > 0, podemos considerar a seguinte mudança de variável:

t = a2 =⇒ dt = 2ada

s = b2 =⇒ ds = 2bdb

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 24

Figura 1.13: Transformação de coordenadas: (σ, τ)→ (q, r)

Logo

Γ(x)Γ(y) =

µ∞R0

tx−1e−tdt

¶µ∞R0

sy−1e−sds

¶=

µ∞R0

¡a2¢x−1

e−a2

2ada

¶µ∞R0

¡b2¢y−1

e−b2

2bdb

¶=

µ2∞R0

a2x−1e−a2

da

¶µ2∞R0

b2y−1e−b2

db

¶=

µ2∞R0

|a|2x−1 e−a2da¶µ

2∞R0

|b|2y−1 e−b2db¶

Ambos os integrandos são funções pares; logo, pelo resultado (1.9), podemos escrever

Γ(x)Γ(y) =

µ2∞R0

|a|2x−1 e−a2da¶µ

2∞R0

|b|2y−1 e−b2db¶

=

µ ∞R−∞|a|2x−1 e−a2da

¶µ ∞R−∞|b|2y−1 e−b2db

¶=

∞R−∞

∞R−∞|a|2x−1 |b|2y−1 e−(a2+b2)dadb

Consideremos a seguinte mudança de coordenadas:

a = r cos θ

b = r sen θ

Page 15: Material estatística UFF demonstração das medias e var

CAPÍTULO 1. ALGUNS RESULTADOS DE CÁLCULO 25

para a qual J = r e a2 + b2 = r2. Então

Γ(x)Γ(y) =2πR0

∞R0

|r cos θ|2x−1 |r sen θ|2y−1 e−r2rdrdθ

=

µ∞R0

r2x+2y−2e−r2

rdr

¶µ2πR0

|cos θ|2x−1 |sen θ|2y−1 dθ¶

=

µ∞R0

¡r2¢x+y−1

e−r2

rdr

¶Ã4π/2R0

cos θ2x−1 sen θ2y−1dθ

!

Fazendo r2 = t, resulta que 2rdr = dt e, portanto

Γ(x)Γ(y) =

µ∞R0

tx+y−1e−t1

2dt

¶Ã4π/2R0

cos θ2x−1 sen θ2y−1dθ

!

=

µ∞R0

tx+y−1e−tdt

¶Ã2π/2R0

cos θ2x−1 sen θ2y−1dθ

!

= Γ(x+ y)

Ã2π/2R0

cos θ2x−1 sen θ2y−1dθ

!

de onde se conclui queΓ(x)Γ(y)

Γ(x+ y)= 2

π/2R0

cos θ2x−1 sen θ2y−1dθ

Usando (1.23) obtemos uma das expressões alternativas para a função beta:

B(x, y) = 2π/2R0

cos θ2x−1 sen θ2y−1dθ

Capítulo 2

Algumas Distribuições Discretas

2.1 Distribuição de Bernoulli

2.1.1 Definição

Considere o lançamento de uma moeda. A característica desse experimento aleatório é que elepossui apenas dois resultados possíveis. Uma situação análoga surge quando da extração da cartade um baralho, onde o interesse está apenas na cor (preta ou vermelha) da carta sorteada.Um experimento de Bernoulli é um experimento aleatório com apenas dois resultados possíveis;

por convenção, um deles é chamado “sucesso” e o outro “fracasso”.A distribuição de Bernoulli é a distribuição de uma v.a. X associada a um experimento de

Bernoulli, onde se define X = 1 se ocorre sucesso e X = 0 se ocorre fracasso. Chamando de p aprobabilidade de sucesso (0 < p < 1), a distribuição de Bernoulli é:

x 0 1Pr(X = x) 1− p p

(2.1)

Obviamente, as condições definidoras de uma fdp são satisfeitas, uma vez que p > 0, 1 − p > 0 ep+(1−p) = 1. O valor de p é o único valor que precisamos conhecer para determinar completamentea distribuição; ele é, então, chamado parâmetro da distribuição de Bernoulli. Se X tem distribuiçãode Bernoulli com parâmetro p vamos representar este fato por X ∼ Bern(p).A distribuição de Bernoulli pode também ser escrita da seguinte forma:

X ∼ Bern(p)⇐⇒ Pr(X = x) = px(1− p)1−x x = 0, 1

2.1.2 Função de distribuição acumulada

A função de distribuição acumulada é dada por:

FX(x) =

⎧⎨⎩ 0 se x < 01− p se 0 ≤ x < 11 se x ≥ 1

(2.2)

Na Figura 2.1 temos os gráficos da fdp e da fda de uma distribuição de Bernoulli.

26

Page 16: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 27

Figura 2.1: Distribuição de Bernoulli com parâmetro p

FDP da Bern(p)

0

1

0 1

1-p

p

FDA da Bern(p)

0

1

-2 -1 0 1 2 3 4

1-p

2.1.3 Esperança

Seja X ∼ Bern(p). Então, E(X) = 0× (1− p) + 1× p. Logo,

X ∼ Bern(p) ⇒ E(X) = p (2.3)

2.1.4 Variância

Seja X ∼ Bern(p). Então,

E(X2) = 02 × (1− p) + 12 × p⇒ E(X2) = p⇒ V ar(X) = p− p2

Logo,X ∼ Bern(p) ⇒ V ar(X) = p(1− p) (2.4)

2.1.5 Função geradora de momentos

Por definiçãoφX(t) = E(etX)

e se X ∼ Bern(p) então

φX(t) =1P

x=0

etxpx(1− p)1−x =1P

x=0

¡pet¢x(1− p)1−x

ouφX(t) = 1− p+ pet

Calculando as derivadas primeira e segunda, obtemos que

φ0X(t) = φ00X(t) = pet

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 28

e, portanto

E(X) = φ0X(0) = p

E(X2) = φ00X(0) = p

V ar(X) = E(X2)− [E(X)]2 = p− p2 = p(1− p)

2.2 Distribuição Binomial

2.2.1 Definição

Consideremos n repetições independentes de um experimento de Bernoulli com parâmetro p (penseem n lançamentos de uma moeda com probabilidade p de cara). Vamos definir a seguinte v.a.associada a este experimento:

X = número de sucessos obtidos nas n repetições (2.5)

Os valores possíveis de X são 0 (só ocorrem fracassos), 1 (ocorre apenas 1 sucesso), 2 (ocorrem2 sucessos), . . . , n (ocorrem apenas sucessos). Vamos calcular a probabilidade de X = k, ondek = 0, 1, 2, . . . , n. O evento X = k equivale à ocorrência de k sucessos e, portanto, n− k fracassos.Consideremos uma situação específica: as k primeiras repetições são “sucesso”. Como as repetiçõessão independentes, temos a probabilidade da interseção de eventos independentes; logo,

Pr(S1 ∩ . . . ∩ Sk ∩ Fk+1 ∩ . . . ∩ Fn) = Pr (S1)× · · · × Pr (Sk)× Pr (Fk+1)× · · · × Pr (Fn) =

= p× p× · · · × p× (1− p)× (1− p)× · · · × (1− p) = pk(1− p)n−k

Mas essa é uma ordenação específica, em que os sucessos são os primeiros resultados. Na verdade, osk sucessos podem estar em qualquer posição e ainda teremosX = k.O número de maneiras possíveisde obter k sucessos em n repetições nada mais é que o número de combinações de n elementos

tomados k a k, ou seja,µn

k

¶. Como cada uma dessas maneiras tem a mesma probabilidade acima

e elas são eventos mutuamente exclusivos, resulta que

Pr(X = k) = pk(1− p)n−k + pk(1− p)n−k + · · ·+ pk(1− p)n−k

onde o número de parcelas é¡nk

¢. Logo

Pr(X = k) =

µn

k

¶pk(1− p)n−k k = 0, 1, 2, . . . , n (2.6)

Essa é a distribuição binomial ; note que para determiná-la precisamos conhecer os valores de n ep, que são os parâmetros da distribuição. Vamos usar a seguinte notação: X ∼ bin(n; p).Para mostrar que (2.6) realmente define uma fdp falta mostrar que

nXk=0

Pr(X = k) = 1.

Page 17: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 29

já que, obviamente, Pr(X = k) ≥ 0. De fato: o teorema do binômio de Newton nos diz que, se x ey são números reais e n é um inteiro positivo, então

(x+ y)n =nX

k=0

µn

k

¶xkyn−k. (2.7)

Fazendo x = p e y = 1− p em (2.7), obtém-se:

[p+ (1− p)]n = 1n = 1 =nX

k=0

µn

k

¶pk(1− p)n−k =

nXk=0

Pr(X = k)

o que prova o resultado.Se X ∼ bin(n; p), então temos

P (X = k + 1)

P (X = k)=

n!

(k + 1)!(n− k − 1)!pk+1(1− p)n−k−1

n!

k!(n− k)!pk(1− p)n−k

=n− k

(k + 1)

p

1− pk = 0, 1, 2, . . . , n

Temos, assim, uma forma recursiva de calcular Pr(X = k).Suponhamos, agora, que a probabilidade máxima ocorra em k0; então, usando o resultado acima,

temos que ter

P (X = k0 + 1)

P (X = k0)≤ 1 =⇒ n− k0

(k0 + 1)

p

(1− p)≤ 1 =⇒ np− k0p ≤ k0 − k0p+ 1− p =⇒

np ≤ k0 + 1− p =⇒ k0 ≥ p(n+ 1)− 1e também

P (X = k0)

P (X = k0 − 1) ≥ 1 =⇒ [n− (k0 − 1)]k0

· p

(1− p)≥ 1 =⇒ np− k0p+ p ≥ k0 − k0p =⇒

k0 ≤ p(n+ 1)

Vemos , então, quep(n+ 1)− 1 ≤ k0 ≤ p(n+ 1)

e como k0 tem que ser inteiro, resulta que o ponto de máximo ocorre quando k0 = [p(n+ 1)] ,ou seja, a moda da distribução ocorre em k0 = [p(n+ 1)] , onde [x] representa o maior inteiromenor ou igual a x. Note que, se p(n+1) for inteiro, então a distribuição é bimodal com moda emk0 = p(n+ 1) e k0 = p(n+ 1)− 1 pois

P [X = p(n+ 1)]

P [X = p(n+ 1)− 1] =P (X = np+ p)

P (X = np+ p− 1) =n− (np+ p− 1)

np+ p· p

1− p

=n− np− p+ 1

p(n+ 1)· p

1− p=(n+ 1)− p(n+ 1)

(n+ 1)(1− p)

=(n+ 1)(1− p)

(n+ 1)(1− p)= 1

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 30

No caso em que p = 0, 5, a distribuição será unimodal para n par e será bimodal para n ímpar.Além disso, a distribuição é simétrica, pois

Pr(X = k) =¡nk

¢(0, 5)k (1− 0, 5)n−k = ¡ n

n−k¢(0, 5)n−k (1− 0, 5)n−(n−k) = Pr(X = n− k)

Na Figura 2.2 são exibidas as formas da distribuição binomial para alguns valores de n e p.

n = 10; p=0,5

0

0,1

0,2

0,3

0 1 2 3 4 5 6 7 8

n = 7; p=0,5

0

0,1

0,2

0,3

7

n=8;p=0,2

0

0,1

0,2

0,3

0,4

0 1 2 3 4 5 6 7 8

n=8;p=0,7

0

0,1

0,2

0,3

0,4

0 1 2 3 4 5 6 7 8

n=9;p=0,3

0

0,1

0,2

0,3

0 1 2 3 4 5 6 7 8 9

Figura 2.2: Gráfico da distribuição binomial para diferentes valores de n e p

2.2.2 Esperança

E (X) =nX

k=0

kPr (X = k) =nX

k=0

k

µn

k

¶pk (1− p)n−k =

=nX

k=0

kn!

k! (n− k)!pk (1− p)n−k

Page 18: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 31

Quando k = 0, a parcela correspondente no somatório é nula. Logo, podemos escrever (note oíndice do somatório!):

E (X) =nX

k=1

kn!

k! (n− k)!pk (1− p)n−k =

nXk=1

kn!

k (k − 1)! (n− k)!pk (1− p)n−k

e como k 6= 0, podemos dividir o numerador e o denominadr por k, o que resulta na simplificação

E (X) =nX

k=1

n!

(k − 1)! (n− k)!pk (1− p)n−k =

nXk=1

n (n− 1)!(k − 1)! (n− k)!

¡p× pk−1

¢(1− p)n−k =

= npnX

k=1

(n− 1)!(k − 1)! (n− k)!

pk−1 (1− p)n−k = npnX

k=1

µn− 1k − 1

¶pk−1 (1− p)n−k

Fazendo j = k − 1, temos que

k = j + 1

k = 1⇒ j = 0

k = n⇒ j = n− 1

Logo,

E (X) = npn−1Xj=0

µn− 1j

¶pj (1− p)n−1−j

Mas nesse somatório temos as probabilidades de uma distribuição binomial com parâmetros (n−1)e p; como estamos somando as probabilidades de todos os pontos do espaço amostral, segue queesse somatório é igual a 1 (note que essa é a expressão do binômio de Newton para (x+ y)n−1 comx = p e y = 1− p) e, portanto,

X ∼ bin(n, p) ⇒ E (X) = np (2.8)

2.2.3 Variância

Vamos calcular E (X2) . Usando raciocínio análogo ao usado no cálculo da esperança, temos que:

E¡X2¢=

nXk=0

k2µn

k

¶pk (1− p)n−k =

nXk=1

k2n!

k! (n− k)!pk (1− p)n−k =

=nX

k=1

k2n!

k (k − 1)! (n− k)!pk (1− p)n−k =

=nX

k=1

kn!

(k − 1)! (n− k)!pk (1− p)n−k =

=nX

k=1

kn (n− 1)!

(k − 1)! (n− k)!

¡p× pk−1

¢(1− p)n−k =

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 32

= npnX

k=1

k(n− 1)!

(k − 1)! (n− k)!pk−1 (1− p)n−k =

= npn−1Xj=0

(j + 1)(n− 1)!

j! (n− j − 1)!pj (1− p)n−j−1 =

= npn−1Xj=0

j(n− 1)!

j! (n− j − 1)!pj (1− p)n−j−1 + np

n−1Xj=0

(n− 1)!j! (n− 1− j)!

pj (1− p)n−j−1 =

= npn−1Xj=0

j

µn− 1j

¶pj (1− p)n−1−j + np

n−1Xj=0

µn− 1j

¶pj (1− p)n−1−j

Mas o primeiro somatório é a esperança de uma binomial com parâmetros (n− 1) e p; portanto,pelo resultado (2.8), é igual a (n− 1) p. Já o segundo somatório é a soma das probabilidades dosvalores de uma binomial com esses mesmos parâmetros (ou binômio de Newton); logo, é igual a 1.Segue, então, que

E¡X2¢= np (n− 1) p+ np× 1 = n2p2 − np2 + np

e, portanto,

V ar (X) = E(X2)− [E(X)]2 = n2p2 − np2 + np− (np)2 = np− np2

ou seja,X ∼ bin(n, p) ⇒ V ar (X) = np (1− p) (2.9)

Resumindo:

X ∼ bin(n, p) ⇒⎧⎨⎩ E (X) = np

V ar(X) = np(1− p)(2.10)

2.2.4 Função geradora de momentos

Por definição,

φX(t) = E(etX) =nP

k=0

etk Pr(X = k)

=nP

k=0

etk¡nk

¢pk(1− p)n−k =

nPk=0

¡nk

¢ ¡pet¢k(1− p)n−k

=£pet + (1− p)

¤npela fórmula do binômio de Newton. Logo,

φ0X(t) = npet£pet + (1− p)

¤n−1φ00X(t) = npet

£pet + (1− p)

¤n−1+ n(n− 1)pet £pet + (1− p)

¤n−2pet

= npet£pet + (1− p)

¤n−1+ n(n− 1)p2e2t £pet + (1− p)

¤n−2e, portanto

E(X) = φ0X(0) = np [p+ (1− p)]n−1 = np

Page 19: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 33

E(X2) = φ00X(0) = np [p+ (1− p)]n−1 + n(n− 1)p2 [p+ (1− p)]n−2

= np+ n(n− 1)p2 = np+ n2p2 − np2

V ar(X) = E(X2)− [E(X)]2 = np+ n2p2 − np2 − n2p2 = np− np2 = np(1− p)

2.2.5 Exercícios resolvidos

1. Um atirador acerta na mosca do alvo, 20% dos tiros. Se ele dá 10 tiros, qual a probabilidadede ele acertar na mosca no máximo 1 vez?

Solução:

Podemos pensar os tiros como experimentos de Bernoulli independentes, onde a probabilidadede sucesso é 0,20. Então, o problema pede Pr(X ≤ 1), onde X = número de acertos em 10tiros. Logo, X ∼ bin(10; 0, 20) e

Pr(X ≤ 1) = Pr(X = 0)+Pr(X = 1) =

µ10

0

¶(0, 20)0 (0, 80)10+

µ10

1

¶(0, 20)1 (0, 80)9 = 0, 37581

2. Dois adversários A e B disputam uma série de 8 partidas de um determinado jogo. A proba-bilidade de A ganhar uma partida é 0,6 e não há empate. Qual é a probabilidade de A ganhara série?

Solução:

Note que só podem ocorrer vitórias ou derrotas, o que significa que temos repetições de umexperimento de Bernoulli com probabilidade 0,6 de sucesso (vitória). Assumindo a inde-pendência das provas, se definimos X = número de vitórias de A, então X ∼ bin(8; 0, 6) e oproblema pede Pr (X ≥ 5) , isto é, A ganha mais partidas que B.Pr (X ≥ 5) = Pr (X = 5) + Pr (X = 6) + Pr (X = 7) + Pr (X = 8) =

=

µ8

5

¶(0, 6)5 (0, 4)3 +

µ8

6

¶(0, 6)6 (0, 4) 2 +

µ8

7

¶(0, 6)7 (0, 4)1 +

µ8

8

¶(0, 6)8 (0, 4)0 =

= 0, 5940864

3. Joga-se uma moeda não viciada. Qual é a probabilidade de serem obtidas 5 caras antes de 3coroas?

Solução:

Vamos definir sucesso = cara e fracasso = coroa. Então, Pr(sucesso) = Pr(fracasso) = 0, 5e temos repetições de um experimento de Bernoulli. A ocorrência de 5 sucessos antes de 3fracassos só é possível se nas 7 primeiras repetições tivermos pelo menos 5 sucessos. Seja,então, X = número de sucessos em 7 repetições. Logo, X ∼ bin(7; 0, 5) e o problema pedePr(X ≥ 5).

Pr (X ≥ 5) = Pr (X = 5) + Pr (X = 6) + Pr (X = 7) =

=

µ7

5

¶(0, 5)7 +

µ7

6

¶(0, 5)7 +

µ7

7

¶(0, 5)7 =

= 0, 2265625

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 34

2.3 Distribuição Geométrica

2.3.1 Definição

Considere o seguinte experimento: uma moeda com probabilidade p de cara é lançada até queapareça cara pela primeira vez. Para tal experimento, podemos definir a seguinte v.a. discretaX = “número de repetições necessárias até a ocorrência da primeira cara”. Essa v.a. pode assumiros valores 1, 2, 3, . . . , ou seja, teoricamente, poderíamos ter que lançar a moeda infinitas vezes paraobter a primeira cara. Essa é uma situação em que é impossível encontrar algum paralelo na prática;no entanto, o “infinito” na prática, em geral, é substituído por um “valor muito grande”. Considereuma população muito grande onde p% das pessoas sofrem de uma doença desconhecida. Precisa-seencontrar uma pessoa portadora da doença para que os médicos possam estudá-la. Quantas pessoasteremos que examinar até encontrar uma portadora? Em ambas as situações, cada repetição doexperimento (lançamento da moeda ou exame de uma pessoa) tem dois resultados possíveis (caraou coroa e Portadora ou não portadora da doença), ou seja, temos experimentos de Bernoulli e, deum modo geral, podemos assumir que as repetições sejam independentes.Consideremos, então, repetições independentes de um experimento de Bernoulli com parâmetro

p. Vamos definir a seguinte v.a. associada a esse experimento aleatório:

X = número de repetições necessárias para obtenção do primeiro sucesso (2.11)

Os valores possíveis de X são 1 (primeiro sucesso na primeira repetição), 2 (primeiro sucesso nasegunda repetição e, portanto, fracasso na primeira), 3 (primeiro sucesso na terceira repetição e,portanto, fracasso nas duas primeiras), etc. Esse é um exemplo de v.a. discreta onde o espaçoamostral, enumerável, é infinito.Para calcular a probabilidade de X = k, k = 1, 2, 3, . . . , devemos notar que tal evento corre-

sponde à ocorrência de fracassos nas k − 1 primeiras repetições e sucesso na k-ésima repetição.Denotando por Fi e Si a ocorrência de fracasso e sucesso na i-ésima repetição respectivamente,temos a seguinte equivalência de eventos:

X = k = F1 ∩ F2 ∩ · · · ∩ Fk−1 ∩ Sk

Como as repetições são independentes, segue que

Pr (X = k) = Pr (F1 ∩ F2 ∩ · · · ∩ Fk−1 ∩ Sk) = Pr (F1)× Pr (F2)× · · · × Pr (Fk−1)× Pr (Sk) == (1− p)× (1− p)× · · · × (1− p)× p

ou seja,Pr(X = k) = (1− p)k−1p k = 1, 2, 3, · · · (2.12)

Dizemos que X tem distribuição geométrica com parâmetro p (o único valor necessário para especi-ficar completamente a fdp) e vamos representar tal fato por X ∼ Geom(p).As características definidoras desse modelo são: (i) repetições de um mesmo experimento de

Bernoulli, o que significa que em todas elas a probabilidade de sucesso (e, portanto, de fracasso)é a mesma e (ii) as repetições são independentes. No caso do lançamento de uma moeda essashipóteses são bastante plausíveis, mas no caso da doença a hipótese de independência poderia não

Page 20: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 35

ser satisfeita se cuidados na seleção da amostra não fossem tomados; por exemplo, poderia haverum componente de hereditariedade.Para mostrar que (2.12) realmente define uma fdp, temos que mostrar que a soma das prob-

abilidades, isto é, a probabilidade do espaço amostral é 1 (obviamente, Pr(X = k) ≥ 0). Temosque:

∞Xk=1

Pr(X = k) =∞Xk=1

(1− p)k−1p = p∞Xk=1

(1− p)k−1.

Fazendo a mudança de variável j = k − 1, temos quek = j + 1

k = 1⇒ j = 0

k = ∞⇒ j =∞Portanto,

∞Xk=1

Pr(X = k) = p∞Xj=0

(1− p)j

Mas essa é a série geométrica de razão 1− p; pelo resultado (1.1) do Capítulo 1, obtém-se que:∞Xk=1

Pr(X = k) = p× 1

1− (1− p)= 1.

Na Figura 2.3 temos o gráfico da distribuição geométrica para p = 0, 2 e p = 0, 5. À medida quep aumenta o decaimento é muito mais rápido.

2.3.2 Função de distribuição acumulada

Vamos usar novamente a seguinte notação: [x] representa o maior inteiro contido em x, isto é, omaior inteiro menor ou igual a x. Então, para x < 1, F (x) = 0 e para x ≥ 1 temos que

F (x) = Pr(X ≤ x) =

[x]Xk=1

Pr(X = k) =

[x]Xk=1

p(1− p)k−1

Fazendo a mudança de variável j = k − 1, temos quek = j + 1

k = 1⇒ j = 0

k = [x]⇒ j = [x]− 1e, portanto, se x ≥ 1

F (x) =

[x]−1Xj=0

p(1− p)j = p1− (1− p)[x]−1+1

1− (1− p)= 1− (1− p)[x]

Resumindo:

F (x) =

½0 se x < 1

1− (1− p)[x] se x ≥ 1 (2.13)

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 36

Distribuição geométrica - p = 0,2

0

0,1

0,2

0,3

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

k

P(X

= k

)

Distribuição geométrica - p = 0,5

0

0,1

0,2

0,3

0,4

0,5

0,6

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

k

P(X

= k

)

Figura 2.3: Distribuição geométrica - p = 0, 2 e p = 0, 5

Page 21: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 37

2.3.3 Esperança

E(X) =∞Xk=1

kPr(X = k) =∞Xk=1

kp(1− p)k−1 = p∞Xk=1

k(1− p)k−1

Fazendo a mesma mudança de variável k − 1 = j, resulta que

E(X) = p∞Xj=0

(j + 1)(1− p)j

Usando o resultado (1.3) do Capítulo 1 com r = 1− p, obtemos que:

E(X) = p× 1

[1− (1− p)]2=

p

p2=1

p

Logo,

X ∼ Geom(p)⇒ E(X) =1

p(2.14)

2.3.4 Variância

Para calcular a variância, temos que calcular E(X2). Por definição,

E(X2) =∞Xk=1

k2p(1− p)k−1 = p∞Xk=1

¡k2 − k + k

¢(1− p)k−1 =

= p∞Xk=1

¡k2 − k

¢(1− p)k−1 + p

∞Xk=1

k(1− p)k−1

= p∞Xk=1

k(k − 1)(1− p)k−1 +∞Xk=1

kp(1− p)k−1

O segundo somatório é a esperança da distribuição geométrica com parâmetro p; logo, ele é iguala 1

p. Portanto,

E(X2) = p∞Xk=1

k(k − 1)(1− p)k−1 +1

p

No somatório acima, a parcela correspondente a k = 1 é nula, logo, podemos escrever (note o índicedo somatório!):

E(X2) = p∞Xk=2

k(k − 1)(1− p)k−1 +1

p

= p∞Xk=2

k(k − 1)(1− p)k−2(1− p) +1

p=

= p(1− p)∞Xk=2

k(k − 1)(1− p)k−2 +1

p

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 38

Fazendo a mudança de variável k − 2 = j no somatório, resulta que

k = j + 2

k = 2⇒ j = 0

k = ∞⇒ j =∞

Portanto,

E(X2) = p(1− p)∞Xj=0

(j + 2)(j + 1)(1− p)j +1

p

Usando o resultado (1.5) do Capítulo 1 com r = 1− p, obtemos que:

E¡X2¢= p(1− p)× 2

[1− (1− p)]3+1

p=

=2(1− p)

p2+1

p=2− 2p+ p

p2=2− p

p2

Segue que:

V ar(X) = E(X2)− [E(X)]2 = 2− p

p2− 1

p2=1− p

p2

Logo,

X ∼ Geom(p)⇒ V ar(X) =1− p

p2(2.15)

Resumindo:

X ∼ Geom(p)⇒

⎧⎪⎪⎪⎨⎪⎪⎪⎩E(X) =

1

p

V ar(X) =1− p

p2

(2.16)

2.3.5 Função geradora de momentos

Por definição,

φX(t) = E(etX) =∞Pk=1

etkp(1− p)k−1 =∞Pj=0

et(j+1)p(1− p)j = pet∞Pj=0

etj(1− p)j

= pet∞Pj=0

£et(1− p)

¤jEntão, se

et(1− p) < 1

isto é, para t < ln 11−p temos que

φX(t) = pet1

1− et(1− p)=

pet

1− et(1− p)

Page 22: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 39

Calculando as derivadas primeira e segunda, temos que

φ0X(t) =pet [1− et(1− p)]− pet [−et(1− p)]

[1− et(1− p)]2=

pet − pe2t(1− p) + pe2t(1− p)

[1− et(1− p)]2=

pet

[1− et(1− p)]2

φ00X(t) =pet [1− et(1− p)]

2 − 2pet [1− et(1− p)] [−et(1− p)]

[1− et(1− p)]4

=pet [1− et(1− p)]

2+ 2pe2t [1− et(1− p)] (1− p)

[1− et(1− p)]4

Logo,

E(X) = φ0X(0) =p

[1− (1− p)]2=

p

p2=1

p

e

E(X2) = φ00X(0) =p [1− (1− p)]2 + 2p [1− (1− p)] (1− p)

[1− (1− p)]4

=p3 + 2p2(1− p)

p4=2p2 − p3

p4=2− p

p2

e, portanto

V ar(X) =2− p

p2− 1

p2=1− p

p2

mesmos resultados obtidos anteriormente.

2.3.6 Exercícios resolvidos

1. Um atirador acerta na mosca do alvo, 20% dos tiros. Qual a probabilidade de ele acertar namosca pela primeira vez no 10o tiro?

Solução:

Podemos pensar os tiros como experimentos independentes de Bernoulli (acerta ou não ac-erta). A probabilidade de sucesso (acertar no alvo) é p = 0, 20. Estamos querendo o númerode tiros até o primeiro acerto e calcular a probabilidade de que esse número seja 10. Seja X =número de tiros até primeiro acerto. Então, X ∼ Geom(0, 20) e Pr (X = 10) = 0, 89 × 0, 2 =0, 02684.

2. Joga-se um dado equilibrado. Qual é a probabilidade de serem necessários 10 lançamentosaté a primeira ocorrência de um seis?

Solução:

Nesse caso, sucesso é a ocorrência de face seis. Logo, Pr(sucesso) = p = 16e Pr(fracasso) =

1 − p = 56. Seja X = número de lançamentos até primeiro seis. Então, X ∼ geom

¡16

¢e o

problema pede Pr (X = 10) =¡56

¢9 ¡16

¢= 0, 03230.

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 40

2.3.7 Forma alternativa da distribuição geométrica

Em vez de definir a variável geométrica como “número de repetições até primerio sucesso”, podemosusar a seguinte definição alternativa:

Y = “número de fracassos antes do primeiro sucesso” (2.17)

Neste caso, a distribuição de Y é

Pr(Y = k) = (1− p)kp k = 0, 1, 2, . . . (2.18)

Em termos da variável geométrica X definida anteriormente em (2.11), podemos ver que

Y = X − 1e essa distribuição de probabilidade é às vezes chamada distribuição geométrica deslocada (eminglês, shifted geometric distribution).Foi visto que se U e V são variáveis aleatórias tais que U = aV + b então

E(U) = aE(V ) + b

V ar(U) = b2V ar(V )

φU(t) = ebtφV (at)

No caso da distribuição geométrica deslocada, temos que Y = X − 1; logo,

E(Y ) = E(X)− 1 = 1

p− 1 = 1− p

p

V ar(Y ) = V ar(X) =1− p

p2

φY (y) = e−tφX(t) = e−tpet

1− et(1− p)=

p

1− et(1− p)et(1− p) < 1

2.3.8 Propriedade da falta de memória da geométrica

Seja X ∼ geom(p). Considere a seguinte probabilidade condicional Pr(X > m + n|X > n), cujainterpretação é a seguinte: dado que já foram realizadas mais de n repetições do experimento deBernoulli, qual é a probabilidade de serem necessárias mais de m repetições adicionais para se obtero primeiro sucesso? Vamos calcular essa probabilidade; por definição de probabilidade condicionaltemos que

Pr(X > m+ n|X > n) =Pr [(X > m+ n) ∩ (X > n)]

Pr(X > n)=Pr(X > m+ n)

Pr(X > n)

=1− Pr(X ≤ m+ n)

1− Pr(X ≤ n)=1− [1− (1− p)m+n]

−1 [1− (1− p)n]=(1− p)m+n

(1− p)n

= (1− p)m = Pr(X > m)

Note o resultado: a probabilidade de serem necessárias mais de m repetições do experimento éa mesma, quer o sistema tenha ou não rodado n vezes. Isto é, o sistema “esquece” que já rodou nvezes e, por isso, essa propriedade é chamada de “falta de memória” da geométrica.

Page 23: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 41

2.4 Distribuição binomial negativa

2.4.1 Definição

Consideremos novamente repetições independentes de um experimento de Bernoulli com probabi-lidade p de sucesso. Vamos considerar agora uma generalização da v.a. geométrica, no seguintesentido:

X = número de repetições necessárias até a obtenção do r-ésimo sucesso, r ≥ 1 (2.19)

Quando r = 1 temos a distribuição geométrica.Note que na distribuição binomial negativa, o número de lançamentos é variável e o número de

sucessos é um número fixo (pré-determinado); note o contraste com a distribuição binomial , emque o número de lançamentos é fixo e o número de sucessos é a variável de interesse;

Número de sucessos Número de repetiçõesDist. binomial negativa fixo variável aleatóriaDist. binomial variável aleatória fixo

Para definir os possíveis valores de X, devemos notar que para ter r sucessos, são necessáriosno mínimo r repetições. Logo, os possíveis valores de X são r, r + 1, r + 2, . . . . O evento X = kindica que foram necessárias k repetições para obter r sucessos e, portanto, k − r fracassos. Peladefinição da variável, a última repetição resultou em sucesso e os outros r−1 sucessos podem estarem quaisquer das k − 1 posições restantes (ver Figura 2.4).

Figura 2.4: Ilustração do evento X = k para a v.a. binomial negativa

S

k repetições

r-1 sucessosk-1 repetições

Uma seqüência possível de resultados é ter os r − 1 sucessos nas primeiras posições, os k − rfracassos nas posições seguintes e o último sucesso na última posição: S1 . . . Sr−1Fr . . . Fk−1Sk. Aprobabilidade de tal seqüência é dada pelo produto das probabilidades, já que as repetições sãoindependentes, isto é:

Pr (S1 ∩ . . . ∩ Sr−1 ∩ Fr ∩ . . . Fk−1 ∩ Sk) == Pr (S1)× · · · × Pr (Sr−1)× Pr (Fr)× · · · × Pr (Fk−1)× Pr (Sk)= p× · · · × p× (1− p)× · · · × (1− p)× p = pr (1− p)k−r

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 42

Mas existem¡k−1r−1¢maneiras de arrumar r − 1 sucessos em k − 1 posições e as seqüências resul-

tantes têm todas a probabilidade acima. Como elas constituem eventos mutuamente exclusivos, aprobabilidade da união delas, que é Pr (X = k) , é a soma das probabilidades, ou seja:

Pr (X = k) = pr (1− p)k−r + pr (1− p)k−r + · · ·+ pr (1− p)k−r

onde o número de parcelas é¡k−1r−1¢. Logo

Pr (X = k) =

µk − 1r − 1

¶pr(1− p)k−r k ≥ r (2.20)

Essa distribuição, caracterizada pelos parâmetros r e p, é chamada distribuição binomial negativa,também conhecida como distribuição de Pascal. Se X tem tal distribuição, vamos representar talfato por X ∼ BinNeg(r, p).Como Pr (X = k) ≥ 0, para mostrar que (2.20) realmente define uma fdp, fica faltando mostrar

que∞Pk=r

Pr (X = k) =∞Pk=r

µk − 1r − 1

¶pr(1− p)k−r = 1.

Fazendo k − r = j, temos que k = r ⇒ j = 0 e k = r + j. Logo

∞Pk=r

Pr (X = k) =∞Pj=0

µr + j − 1r − 1

¶pr(1− p)j = pr

∞Pj=0

µr − 1 + j

r − 1¶(1− p)j

Usando o resultado dado na equação (1.8) do Capítulo 1 com k = r − 1 e r = 1− p, obtemos que:

∞Pk=r

Pr (X = k) = pr × 1

[1− (1− p)]r−1+1= 1

2.4.2 Forma alternativa da distribuição binomial negativa

Assim como no caso da distribuição geométrica, podemos definir a variável binomial negativa como

Y = “número de fracassos antes do r-ésimo sucesso” (2.21)

e, neste caso,

Pr(Y = k) =

µk + r − 1r − 1

¶pr(1− p)k k = 0, 1, 2, . . . (2.22)

Note a seguinte relação: se X tem distribuição dada por (2.20), então

Y = X − r

2.4.3 Por que binomial negativa?

Quando definimos o número binomial¡nk

¢, supusemos que n > 0 e 0 < k < n e vimos queµ

n

k

¶=

n!

k!(n− k)!=

n(n− 1) · · · (n− k + 1)(n− k)!

k!(n− k)!=

n(n− 1) · · · (n− k + 1)

k!

Page 24: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 43

De forma análoga, definimosµ−nk

¶=(−n)(−n− 1) · · · (−n− k + 1)

k!

que pode ser escrito comoµ−nk

¶=

[(−1)(n)] [(−1)(n+ 1)] · · · [(−1)(n+ k − 1)]k!

=(−1)kn(n+ 1) · · · (n+ k − 1)

k!

Vamos, agora, analisar a expressão (2.22):

Pr(Y = k) =

µk + r − 1r − 1

¶pr(1− p)k

=

µk + r − 1

k

¶pr(1− p)k

=(k + r − 1)!k!(r − 1)! p

r(1− p)k

=(k + r − 1)(k + r − 2) · · · (k + r − k + 1)(k + r − k)(k + r − k − 1)!

k!(r − 1)! pr(1− p)k

=(k + r − 1)(k + r − 2) · · · (k + r − k + 1)(k + r − k)

k!pr(1− p)k

=r(r + 1) · · · (r + k − 2)(r + k − 1)

k!pr(1− p)k

=[(−1)(−r)] [(−1)(−r − 1)] · · · [(−1)(−r − k + 1]

k!pr(1− p)k

= (−1)kµ−r

k

¶pr(1− p)k

Logo, uma outra forma de escrever a distribuição binomial negativa é

Pr(Y = k) = (−1)kµ−r

k

¶pr(1− p)k k = 0, 1, 2, . . .

daí o nome binomial negativa. Note que essa distribuição corresponde à variável Y =“número defracassos antes do r-ésimo sucesso”.

2.4.4 Esperança

Por definição, temos que

E(X) =∞Xk=r

k

µk − 1r − 1

¶pr(1− p)k−r =

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 44

Fazendo k − r = j, temos que k = r ⇒ j = 0 e k = r + j. Logo,

E(X) = pr∞Xj=0

(j + r)

µr + j − 1r − 1

¶(1− p)j =

= pr∞Xj=0

j

µr − 1 + j

r − 1¶(1− p)j + rpr

∞Xj=0

µr − 1 + j

r − 1¶(1− p)j = (por 1.8 do Cap. 1)

= pr∞Xj=0

j

µr − 1 + j

r − 1¶(1− p)j +

rpr

[1− (1− p)]r−1+1=

= pr∞Xj=0

j

µr − 1 + j

r − 1¶(1− p)j + r (2.23)

Vamos calcular esse somatório. A primeira observação é que, quando j = 0, a parcela correspon-dente no somatório é nula; logo, podemos começar o somatório de j = 1, ou seja:

∞Xj=0

j

µr − 1 + j

r − 1¶(1− p)j =

∞Xj=1

j

µr − 1 + j

r − 1¶(1− p)j =

=∞Xj=1

j × (r − 1 + j)!

(r − 1)! (r − 1 + j − r + 1)!(1− p)j

=∞Xj=1

j × (r − 1 + j)!

(r − 1)!j! (1− p)j =

=∞Xj=1

j × (r − 1 + j)!

(r − 1)!j (j − 1)!(1− p)j

Como j 6= 0, podemos dividir o numerador e o denominador por j, o que resulta na simplificação:∞Xj=0

j

µr − 1 + j

r − 1¶(1− p)j =

∞Xj=1

j × (r − 1 + j)!

(r − 1)!j (j − 1)!(1− p)j

=∞Xj=1

(r + j − 1)!(r − 1)!(j − 1)!(1− p)j

= (1− p)∞Xj=1

(r + j − 1)!(r − 1)!(j − 1)!(1− p)j−1

Page 25: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 45

Fazendo j − 1 = n, temos que j = 1⇒ n = 0 e j =∞⇒ n =∞; logo:∞Xj=0

j

µr − 1 + j

r − 1¶(1− p)j = (1− p)

∞Xn=0

(r + n)!

(r − 1)!n!(1− p)n =

= (1− p)∞Xn=0

r(r + n)!

r(r − 1)!n!(1− p)n =

= r(1− p)∞Xn=0

(r + n)!

r!n!(1− p)n

= r(1− p)∞Xn=0

µr + n

n

¶(1− p)n

Usando novamente o resultado (1.8) do Capítulo 1 com r = 1− p e k = r, otém-se que:

∞Xj=0

j

µr − 1 + j

r − 1¶(1− p)j = r(1− p)× 1

[1− (1− p)]r+1=

r(1− p)

pr+1(2.24)

Substituindo em (2.23), obtemos que:

E(X) = pr × r(1− p)

pr+1+ r =

r(1− p)

p+ r

Logo,X ∼ BinNeg(r, p)⇒ E(X) =

r

p(2.25)

Com a forma alternativa, temos que Y = X − r e, portanto,

E(Y ) = E(X)− r =r

p− r =

r(1− p)

p

2.4.5 Variância

Vamos calcular E(X2). Como antes, vamos usar a mudança de variável k − r = j.

E(X2) =∞Xk=r

k2µk − 1r − 1

¶pr(1− p)k−r =

= pr∞Xj=0

(j + r)2µr + j − 1r − 1

¶(1− p)j =

= pr∞Xj=0

(r2 + 2rj + j2)

µr − 1 + j

r − 1¶(1− p)j =

= r2pr∞Xj=0

µr − 1 + j

r − 1¶(1− p)j + 2rpr

∞Xj=0

j

µr − 1 + j

r − 1¶(1− p)j + pr

∞Xj=0

j2µr − 1 + j

r − 1¶(1− p)j

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 46

Usando os resultados (1.8) do Capítulo 1 com k = r − 1 e r = 1− p e (2.24) anterior, temos que:

E(X2) = r2pr × 1

[1− (1− p)]r−1+1+ 2rpr × r(1− p)

pr+1+ pr

∞Xj=0

j2µr − 1 + j

r − 1¶(1− p)j

= r2 +2r2(1− p)

p+ pr

∞Xj=0

j2µr − 1 + j

r − 1¶(1− p)j =

=2r2 − r2p

p+ pr

∞Xj=0

j2µr − 1 + j

r − 1¶(1− p)j (2.26)

De modo análogo, esse somatório é calculado, notando inicialmente que, quando j = 0, a parcelado somatório é nula; logo,

∞Xj=0

j2µr − 1 + j

r − 1¶(1− p)j =

∞Xj=1

j2 × (r − 1 + j)!

(r − 1)!(r − 1 + j − r + 1)!(1− p)j

=∞Xj=1

j2 × (r − 1 + j)!

(r − 1)!j (j − 1)!(1− p)j =

= (1− p)∞Xj=1

j(r + j − 1)!

(r − 1)!(j − 1)!(1− p)j−1 =

Fazendo j − 1 = n, obtemos que:

∞Xj=0

j2µr − 1 + j

r − 1¶(1− p)j = (1− p)

∞Xn=0

(n+ 1)(r + n)!

(r − 1)!n!(1− p)n =

= (1− p)∞Xn=0

(n+ 1)r(r + n)!

r (r − 1)!n!(1− p)n =

= r(1− p)∞Xn=0

n(r + n)!

r!n!(1− p)n + r(1− p)

∞Xn=0

(r + n)!

r!n!(1− p)n =

= r(1− p)∞Xn=0

n

µr + n

r

¶(1− p)n + r(1− p)

∞Xn=0

µr + n

n

¶(1− p)n

Usando o resultado (2.24) com r no lugar de r − 1 e o resultado (1.8) do Capítulo 1, obtemos:

Page 26: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 47

∞Xj=0

j2µr − 1 + j

r − 1¶(1− p)j = (1− p)r × (1− p)(r + 1)

pr+2+ (1− p)r × 1

[1− (1− p)]r+1=

=(1− p)2r(r + 1)

pr+2+(1− p)r

pr+1

=(1− 2p+ p2)(r2 + r) + pr(1− p)

pr+2=

=r2 − 2pr2 + p2r2 + r − 2pr + p2r + pr − p2r

pr+2=

=r2 − 2pr2 + p2r2 + r − pr

pr+2

Substituindo em (2.26), obtemos que:

E(X2) =2r2 − r2p

p+ pr × r2 − 2pr2 + p2r2 + r − pr

pr+2=

=2r2 − r2p

p+

r2 − 2pr2 + p2r2 + r − pr

p2

=2r2p− r2p2 + r2 − 2pr2 + p2r2 + r − pr

p2=

=r2 + r − pr

p2

Logo,

V ar(X) =r2 + r − pr

p2−µr

p

¶2=

r2 + r − pr − r2

p2

ou

X ∼ BinNeg(r, p)⇒ V ar(X) =r(1− p)

p2(2.27)

Para a forma alternativa, como Y = X − r, resulta que

V ar(Y ) = V ar(X) =r(1− p)

p2

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 48

2.4.6 Função geradora de momentos

Por definição

φX(t) = E(etX) =∞Pk=r

etkP (X = k)

=∞Pk=r

etkµk − 1r − 1

¶pr(1− p)k−r

=∞Pj=0

et(j+r)µr + j − 1r − 1

¶pr(1− p)j

=∞Pj=0

¡pet¢r µr + j − 1

r − 1¶£

et(1− p)¤j

=¡pet¢r ∞P

j=0

µr + j − 1r − 1

¶£et(1− p)

¤j=

¡pet¢r 1

[1− et(1− p)]r

=

∙pet

1− et(1− p)

¸rse et(1− p) < 1

Aqui fez-se uso do resultado (1.8) do Capítulo 1.Com a forma alternativa, temos que Y = X − r; logo,

φY (t) = e−rtφX(t) = e−rt∙

pet

1− et(1− p)

¸r=

∙p

1− et(1− p)

¸rse et(1− p) < 1

2.4.7 Exercícios resolvidos

1. Joga-se um dado equilibrado. Qual é a probabilidade de serem necessários 10 lançamentosaté a terceira ocorrência de um seis?

Solução:

Nesse caso, sucesso é a ocorrência de face seis. Logo, Pr(sucesso) = p = 16e Pr(fracasso) =

1− p = 56. Seja X = número de lançamentos até terceiro seis. Então, X ∼ BinNeg

¡3; 1

6

¢e

o problema pede Pr (X = 10) =¡92

¢ ¡56

¢7 ¡16

¢3= 0, 046514.

2. Deseja-se produzir 5 peças boas, em uma máquina que dá 20% de peças defeituosas. Qual éa probabilidade de ser necessário fabricar 8 peças para se conseguir as 5 peças boas?

Solução:

Seja X = número de peças fabricadas até a obtenção de 5 boas (sucesso). Temos que Pr(peçaboa) = 0, 80 e Pr(peça defeituosa) = 0, 20. Logo, X ∼ BinNeg (5; 0, 80) . O problema pedePr(X = 8) =

¡74

¢(0, 80)5 (0, 20)3 = 0, 0917504.

Page 27: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 49

Resumo da distribuição geométricaX =“número de repetições até 1o. sucesso” Y =“número de fracassos antes do 1o. sucesso”

Y = X − 1Pr(X = k) = (1− p)k−1p k = 1, 2, . . . Pr(Y = k) = (1− p)kp k = 0, 1, 2, . . .

E(X) =1

pE(Y ) = E(X)− 1 = 1− p

p

V ar(X) =1− p

p2V ar(Y ) = V ar(X) =

1− p

p2

φX(t) =pet

1− et(1− p)et(1− p) < 1 φY (t) = e−tφX(t) =

p

1− et(1− p)et(1− p) < 1

Resumo da distribuição binomial negativaX =“número de repetições até ro sucesso” Y =“número de fracassos antes do ro sucesso”

Y = X − r

Pr(X = k) =

µk − 1r − 1

¶pr(1− p)k−r

k = r, r + 1, . . .

Pr(Y = k) =

µk + r − 1r − 1

¶pr(1− p)k

= (−1)kµ−r

k

¶pr(1− p)k

k = 0, 1, 2, . . .

E(X) =r

pE(Y ) = E(X)− r =

r(1− p)

p

V ar(X) = r

µ1− p

p2

¶V ar(Y ) = V ar(X) = r

µ1− p

p2

¶φX(t) =

∙pet

1− et(1− p)

¸ret(1− p) < 1 φY (t) = e−tφX(t) =

∙p

1− et(1− p)

¸ret(1− p) < 1

2.5 Distribuição hipergeométrica

2.5.1 Exemplo

Iremos introduzir a distribuição hipergeométrica a partir do seguinte exemplo: de uma urna combolas verdes (Sucessos) e brancas (Fracassos), serão retiradas 4 bolas sem reposição e o interesseestá no número X de bolas verdes (Sucessos) retiradas.

• Caso 1: Bolas suficientes de ambas as cores

Consideremos uma urna com 11 bolas, das quais 5 são verdes e 6 são brancas. Dessa urnairemos extrair 4 bolas sem reposição. Como 4 < 5 e 4 < 6 temos bolas sufucientes de ambas ascores, ou seja, na amostra podemos ter 0 bola verde, 1 bola verde, 2 bolas verdes, 3 bolas verdes e4 bolas verdes. Logo, os possíveis valores de X são 0, 1, 2, 3, 4.Vamos calcular a probabilidade de cada um destes valores, usando a definição clássica de pro-

babilidade:

Pr(A) =#A

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 50

em que o símbolo # indica o número de elementos do evento (conjunto) e Ω representa o espaçoamostral. O espaço amostral de tal experimento consiste em todas as amostras de 4 bolas quepodemos retirar desta urna contendo 11 bolas. Logo,

#Ω =

µ11

4

¶X = 0 equivale à retirada de 4 bolas brancas; como temos 6 bolas brancas na urna, há

¡64

¢maneiras

de retirar 4 bolas brancas. Logo,

Pr(X = 0) =

¡64

¢¡114

¢X = 1 equivale à retirada de 1 bola verde e 3 bolas brancas. Como temos 6 bolas brancas na

urna, há¡63

¢maneiras de retirar 3 bolas brancas e como há 5 bolas verdes, há

¡51

¢maneiras de

retirar 1 bola verde. Pelo princípio fundamental da multiplicação, o número total de maneiras deretirarmos 1 bola verde e 3 bolas brancas é

¡51

¢× ¡63

¢. Logo,

Pr(X = 1) =

¡51

¢¡63

¢¡114

¢De maneira geral, temos que

Pr(X = k) =

¡5k

¢¡64−k¢¡

114

¢ k = 0, 1, 2, 3, 4 (2.28)

• Caso 2: Não há bolas verdes (sucessos) suficientes

Consideremos uma urna com 11 bolas, das quais 2 são verdes e 9 são brancas. Dessa urnairemos extrair 4 bolas sem reposição. Como só há 2 bolas verdes na urna, não podemos ter 3 ou 4bolas verdes na amostra, ou seja, o número máximo possível de bolas verdes na amostra é 2. Osvalores possíveis de X neste caso são 0, 1, 2 e a probabilidade de cada um desses valores é

Pr(X = k) =

¡2k

¢¡94−k¢¡

114

¢ k = 0, 1, 2 (2.29)

Como não podemos ter 3 nem 4 bolas verdes na amostra, os valores X = 3 e X = 4 sãoimpossíveis e, portanto, Pr(X = 3) = 0 e Pr(X = 4) = 0. Suponhamos que usássemos a fórmula(2.29) para calcular Pr(X = 3) neste caso; isso resultaria em

Pr(X = 3) =

¡23

¢¡94−3¢¡

114

¢Note o número combinatório

¡23

¢! No estudo da Análise Combinatória, vimos que a definição de¡

nk

¢requer que n ≥ k, ou seja, não é possível calcular

¡23

¢. No entanto, se “definirmos”

¡23

¢= 0

obtemos o resultado desejado: Pr(X = 3) = 0. Analogamente, se cálculássemos Pr(X = 4) com afórmula (2.29), apareceria o número combinatório

¡24

¢e definindo esse número como 0, obteríamos

o resultado desejado: Pr(X = 4) = 0.

Page 28: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 51

Com essa convenção, podemos “esquecer” que o valor máximo de X é 2 e podemos trabalharcom valores de X indo de 0 até o tamanho da amostra, como no caso mais favorável em que hábolas suficientes de ambas as cores. O único cuidado é lembrar que, por definição,

¡nk

¢= 0 sempre

que k > n.

• Caso 3: Não bolas brancas (fracassos) suficientes

Consideremos uma urna com 11 bolas, das quais 9 são verdes e 2 são brancas. Dessa urnairemos extrair 4 bolas sem reposição. Como só há 2 bolas brancas na urna, não podemos ter 0 ou1 bolas verdes na amostra, uma vez que isso implicaria em 4 e 3 bolas brancas, repsectivamente.Assim, o número mínimo possível de bolas verdes na amostra é 2, ou seja, os valores possíveis deX neste caso são 2, 3, 4 e a probabilidade de cada um desses valores é

Pr(X = k) =

¡9k

¢¡24−k¢¡

114

¢ k = 2, 3, 4 (2.30)

Como no caso anterior, os valores X = 0 e X = 1 são impossíveis e, portanto, Pr(X = 0) = 0 ePr(X = 1) = 0. Suponhamos que usássemos a fórmula (2.30) para calcular Pr(X = 0) neste caso;isso resultaria em

Pr(X = 0) =

¡90

¢¡24−0¢¡

114

¢Definindo

¡24

¢= 0, obtemos o resultado desejado: Pr(X = 0) = 0. Analogamente, se calculássemos

Pr(X = 1) com a fórmula (2.30), apareceria o número combinatório¡23

¢e definindo esse número

como 0, obteríamos o resultado desejado: Pr(X = 1) = 0.Como antes, podemos trabalhar com valores de X indo de 0 até o tamanho da amostra, como

no caso mais favorável em que há bolas suficientes de ambas as cores. O único cuidado é lembrarque, por definição,

¡nk

¢= 0 sempre que k > n.

2.5.2 Definição

Em termos mais gerais, o exemplo acima descreve a seguinte situação: considere uma população detamanho N (a urna com as bolas) dividida em 2 classes (duas cores), uma composta de r “sucessos”e a outra composta de N−r “fracassos”. Dessa população, vamos extrair uma amostra de tamanhon sem reposição (ver Figura 2.5).

Vamos considerar a seguinte v.a. para esse experimento:

X = número de sucessos em uma amostra retirada sem reposição.

Definindo¡nk

¢= 0 sempre que k > n, define-se a função de distribuição de probabilidade da

variável aleatória X como

Pr (X = k) =

µr

k

¶µN − r

n− k

¶µN

n

¶ k = 0, . . . , n (2.31)

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 52

Figura 2.5: Ilustração do experimento definidor da v.a. hipergeométrica

Essa é a distribuição hipergeométrica com parâmetros N, r e n. Notação: X ∼ hiper(N, r, n).Para provar que (2.31) realmente define uma função de distribuição de probabilidade, note

inicialmente que Pr (X = k) ≥ 0. Temos que provar que a probabilidade do espaço amostral é 1,isto é, que

Pk Pr (X = k) = 1, ou seja

nPk=0

µr

k

¶µN − r

n− k

¶µN

n

¶ = 1

e isso é equivalente a provar que

nPk=0

µr

k

¶µN − r

n− k

¶=

µN

n

¶(2.32)

Para tal, vamos recordar a fórmula de Euler, vista anteriormente:

sPk=0

µm

k

¶µn

s− k

¶=

µm+ n

s

¶(2.33)

Podemos ver que a expressão (2.32) nada mais é que a fórmula de Euler com m = r, n = N − r es = n, o que resulta que

nPk=0

µr

k

¶µN − r

n− k

¶=

µr +N − r

n

¶=

µN

n

¶e isso completa a prova de que (2.31) realmente define uma função de probabilidade.

2.5.3 Esperança

Por definição,

Page 29: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 53

E (X) =nP

k=0

k

µr

k

¶µN − r

n− k

¶µN

n

¶ =1µN

n

¶ nPk=1

k

µr

k

¶µN − r

n− k

¶= (note o índice)

=1µN

n

¶ nPk=1

kr(r − 1)!

k(k − 1)! (r − k)!

µN − r

n− k

¶= (porque k 6= 0)

=rµN

n

¶ nPk=1

(r − 1)!(k − 1)! (r − k)!

µN − r

n− k

¶= (j = k − 1)

=rµN

n

¶ n−1Pj=0

(r − 1)!j! (r − 1− j)!

µN − r

n− 1− j

¶=

=rµN

n

¶ n−1Pj=0

µr − 1j

¶µN − r − 1n− 1− j

¶= (por (2.33),com n = N − r,m = r − 1, s = n− 1)

=rµN

n

¶µN − 1n− 1

=rn! (N − n)!

N !

(N − 1)!(n− 1)! (N − n)!

=rn(n− 1)!N(N − 1)!

(N − 1)!(n− 1)!

Logo,X ∼ hiper(N, r, n) ⇒ E (X) = n

r

N(2.34)

2.5.4 Variância

Vamos calcular E(X2).

E¡X2¢=

nPk=0

k2

µr

k

¶µN − r

n− k

¶µN

n

¶ =1µN

n

¶ nPk=1

k2µr

k

¶µN − r

n− k

¶= (note o índice)

=1µN

n

¶ nPk=1

k2r(r − 1)!

k(k − 1)! (r − k)!

µN − r

n− k

¶=

=rµN

n

¶ nPk=1

k(r − 1)!

(k − 1)! (r − k)!

µN − r

n− k

¶= orque k 6= 0)

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 54

=rµN

n

¶ n−1Pj=0

(j + 1)(r − 1)!

j! (r − 1− j)!

µN − r

n− 1− j

¶= (j = k − 1)

=rµN

n

¶ n−1Pj=0

(j + 1)

µr − 1j

¶µN − r

n− 1− j

¶=

=rµN

n

¶ "n−1Pj=0

j

µr − 1j

¶µN − r

n− 1− j

¶+

n−1Pj=0

µr − 1j

¶µN − r

n− 1− j

¶#=

=

r

µN − 1n− 1

¶µN

n

¶⎡⎢⎢⎣n−1Pj=0

j

µr − 1j

¶µN − 1− (r − 1)

n− 1− j

¶µN − 1n− 1

¶ +n−1Pj=0

µr − 1j

¶µN − 1− (r − 1)

n− 1− j

¶µN − 1n− 1

¶⎤⎥⎥⎦

Mas o primeiro somatório é a esperança de uma hipergeométrica com parâmetrosN−1, n−1 e r−1e o segundo somatório é a soma das probabilidades no espaço amostral de uma hipergeométricacom os mesmos parâmetros. Segue, então, que

E¡X2¢=

r

µN − 1n− 1

¶µN

n

¶ ∙(n− 1) r − 1

N − 1 + 1¸=

=rn

N× (n− 1) (r − 1) +N − 1

N − 1e, portanto,

Var (X) =rn

N× (n− 1) (r − 1) +N − 1

N − 1 − n2r2

N2

=rn

N×∙(n− 1) (r − 1) +N − 1

N − 1 − nr

N

¸=

rn

N×∙nr − n− r + 1 +N − 1

N − 1 − nr

N

¸=

rn

N×∙nr − n− r +N

N − 1 − nr

N

¸=

rn

N×∙Nnr − nN −Nr +N2 −Nnr + nr

N (N − 1)¸

=rn

N×∙−nN −Nr +N2 + nr

N (N − 1)¸

= nr

N

N (N − n)− r (N − n)

N (N − 1)= n

r

N

(N − n) (N − r)

N (N − 1)

Page 30: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 55

ou seja,

X ∼ hiper(N, r, n) ⇒ V ar (X) = nr

N

N − r

N

N − n

N − 1 (2.35)

Não iremos calcular a função geradora de momentos da distribuição hipergeométrica, uma vezque ela não tem muita utilidade.

2.5.5 Distribuição binomial versus distribuição hipergeométrica

Vamos fazer agora algumas comparações entre as distribuições binomial e hipergeométrica atravésdo seguinte exemplo. Considere uma urna r bolas verdes e N − r bolas brancas. Dessa urna extrai-se uma amostra de n bolas e estamos interessados na variável aleatória X = “número de bolasverdes na amostra”.Se as extrações são feitas com reposição, então X tem distribuição binomial com parâmetros n

e p = rN. Se as extrações são feitas sem reposição, então X tem distribuição hipergeom´trica com

parâmetros r, n,N.A esperança da binomial é igual ao produto do tamanho da amostra pela probabilidade de

sucesso e, nesse caso, é nr

N. Na hipergeométrica, a esperança também é n

r

N, que é o produto do

tamanho da amostra pela probabilidade de sucesso na primeira extração.A variância da binomial é igual ao produto do tamanho da amostra pelas probabilidades de

sucesso e fracasso e, nesse caso, é é n³ r

N

´µN − r

N

¶. Na hipergeométrica, a variância é igual a

esse produto, mas corrigido pelo fatorN − n

N − 1 .Empesquisas estatísticas por amostragem, normalmente lidamos com amostragem sem reposição.

No entanto, os resultados teóricos sobre amostragem com reposição são bem mais simples (comovocê verá na segunda parte do curso, isso equivale a lidar com variáveis independentes); assim,costuma-se usar uma aproximação, sempre que possível. Ou seja, quando a população (tamanhoN) é suficientemente grande (de modo que podemos encará-la como uma população infinita) e otamanho da amostra é relativamente pequeno, podemos “ignorar” o fato de as extrações seremfeitas sem reposição. Lembre-se que a probabilidade em extrações sucessivas são 1

N, 1N−1 , . . . ,

1N−n .

Então, se N é “grande” e n é pequeno, temos que N ≈ N − 1 ≈ · · · ≈ N − n. Nessas condições,extrações com e sem reposição podem ser consideradas como equivalentes. O termo que aparecena variância da hipergeométrica, N−n

N−1 , é chamado correção para populações finitas, exatamenteporque, se a população é pequena, não podemos ignorar o fato de as extrações estarem sendo feitassem reposição.

2.5.6 Exercícios resolvidos

1. Um caçador, após um dia de caça, verificou que matou 5 andorinhas e 2 aves de uma espécierara, proibida de ser caçada. Como todos os espécimes tinham o mesmo tamanho, ele os colo-cou na mesma bolsa, pensando em dificultar o trabalho dos fiscais. No posto de fiscalizaçãohá dois fiscais, Manoel e Pedro, que adotam diferentes métodos de inspeção. Manoel retiratrês espécimes de cada bolsa dos caçadores. Pedro retira um espécime, classifica-o e o repõena bolsa, retirando em seguida um segundo espécime. Em qualquer caso, o caçador é multado

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 56

se é encontrado pelo menos um espécime proibido. Qual dos dois fiscais é mais favorável parao caçador em questão?

Solução:

Seja X = número de aves proibidas (sucessos) encontradas por um fiscal. No caso de Manoel,temos que X ∼ hiper(7; 2; 3) e no caso do fiscal Pedro, X ∼ bin

¡2; 2

7

¢. Queremos calcular

Pr (multa) = Pr (X ≥ 1) = 1− Pr (X = 0) .

Manoel: Pr (multa) = 1− Pr (X = 0) = 1−¡20

¢¡53

¢¡73

¢ = 1− 27=5

7=35

49

Pedro: Pr (multa) = 1− Pr (X = 0) = 1−µ2

0

¶µ5

7

¶2= 1− 25

49=24

49

Logo, a probabilidade de multa é maior no caso do fiscal Manoel, e, portanto, Pedro é o fiscalmais favorável para o caçador.

2. Entre os 16 programadores de uma empresa, 12 são do sexo masculino. A empresa decidesortear 5 programadores para fazer um curso avançado de programação. Qual é a probabili-dade dos 5 sorteados serem do sexo masculino?

Solução:

Sucesso = sexo masculino. Se X = número de homens sorteados, então X ∼ hiper(16; 12; 5)e o problema pede

Pr (X = 5) =

¡125

¢¡165

¢ = 12× 11× 10× 9× 816× 15× 14× 13× 12 =

33

14× 13 = 0, 181319

2.6 Distribuição de Poisson

2.6.1 Definição

A variável aleatória discreta X tem distribuição de Poisson com parâmetro λ se sua função dedistribuição de probabilidade é dada por

Pr(X = k) =λk

k!e−λ k = 0, 1, 2, . . .

Para mostrar que a expressão acima realmente define uma função de distribuição de probabil-

idade, temos que mostrar que∞Pk=0

Pr(X = k) = 1, uma vez que é óbvio que Pr(X = k) > 0. De

fato:∞Pk=0

Pr(X = k) =∞Pk=0

λk

k!e−λ = e−λ

∞Pk=0

λk

k!= e−λeλ = 1

Aqui fez-se uso do resultado (??) do Capítulo 1.

Page 31: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 57

Se X ∼ Poi(λ), então temos

P (X = k + 1)

P (X = k)=

λk+1

(k + 1)!e−λ

λk

k!e−λ

k + 1k = 0, 1, 2, . . .

Suponhamos que a probabilidade máxima ocorra em k0; então temos que ter (usando o resultadoanterior)

P (X = k0 + 1)

P (X = k0)≤ 1 =⇒ λ

k0 + 1≤ 1 =⇒ k0 ≥ λ− 1

e tambémP (X = k0)

P (X = k0 − 1) ≥ 1 =⇒λ

k0≥ 1 =⇒ k0 ≤ λ

Vemos , então, queλ− 1 ≤ k0 ≤ λ

e como k0 tem que ser inteiro, resulta que o ponto de máximo ocorre quando k0 = [λ] , ou seja, amoda da distribução ocorre em k0 = [λ] . Note que, se λ é inteiro, então a distribuição é bimodal,com modas em k0 = λ e k0 = λ− 1, pois neste caso

P (X = λ) =λλ

λ!e−λ =

λ · λλ−1λ · (λ− 1)!e

−λ =λλ−1

(λ− 1)!e−λ = P (X = λ− 1)

Na Figura 2.6 ilustram-se a distribuição de Poisson para dois valores do parâmetro; note quequando λ = 2 há duas modas (x = 1 e x = 2) e para λ = 4, 3 a moda ocorre em x = 4.

2.6.2 Esperança

Vamos agora calcular a esperança de tal distribuição.

E(X) =∞Pk=0

kλk

k!e−λ = e−λ

∞Pk=1

kλk

k(k − 1)!

= e−λ∞Pk=1

λλk−1

(k − 1)! = λe−λ∞Pk=1

λk−1

(k − 1)!

= λe−λ∞Pj−0

λj

j!= λe−λeλ

onde, mais uma vez, usou-se o resultado (??) do Capítulo 1. Logo,

X ∼ Poi(λ)⇒ E(X) = λ (2.36)

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 58

X ~ Poi(2)

0

0,1

0,2

0,3

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

X ~ Poi(4,3)

0

0,1

0,2

0,3

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

Figura 2.6: Distribuição de Poisson para λ = 2 e λ = 4, 3

Page 32: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 59

2.6.3 Variância

O segundo momento é calculado de forma análoga como

E(X2) =∞Pk=0

k2λk

k!e−λ =

∞Pk=1

k2λλk−1

k(k − 1)!e−λ =

= λe−λ∞Pk=1

kλk−1

(k − 1)!

= λe−λ∞Pj−0(j + 1)

λj

j!

= λ∞Pj−0

jλj

j!e−λ + λe−λ

∞Pj−0

λj

j!

O primeiro somatório é a esperança de uma distribuição de Poisson com parâmetro λ, que, comovisto anteriormente, é λ. O segundo somatório é a série de Taylor da função ex em x = λ. Logo,

E(X2) = λ2 + λe−λeλ = λ2 + λ

Logo,V ar(X) = E(X2)− [E(X)]2 = λ2 + λ− λ2 = λ

Note que a esperança e a variância são iguais!

2.6.4 Função geradora de momentos

Por definição,

φX(t) = E(etX) =∞Pk=0

etkλk

k!e−λ = e−λ

∞Pk=0

etkλk

k!= e−λ

∞Pk=0

(λet)k

k!= e−λeλe

t

ou seja, se X ∼ Poi(λ), então sua função geradora de momentos é

φX(t) = eλ(et−1)

Vamso calcular as derivadas de ordem primeira e ordem segunda para calcular os respectivosmomentos:

φ0X(t) = eλ(et−1)λet = λeteλ(e

t−1) = λet+λ(et−1)

φ00X(t) = λet+λ(et−1) ¡1 + λet

¢Logo,

E(X) = φ0X(0) = λe0+λ(e0−1) = λ

E(X2) = φ00X(0) = λe0+λ(e0−1) ¡1 + λe0

¢= λ(1 + λ) = λ2 + λ

o que nos leva ao mesmo resultado anterior:

V ar(X) = λ

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 60

2.6.5 Aproximação da binomial pela Poisson

Suponha que estejamos observando um determinado fenômeno de interesse por um certo períodode tempo de comprimento t, com o intuito de contar o número de vezes X que determinado eventoocorre.Vamos fazer as seguintes hipóteses sobre a forma como esse evento ocorre:

H1) Em um intervalo de tempo suficientemente curto, apenas 0 ou 1 evento ocorre, ou seja, 2 oumais ocorrências não podem acontecer simultaneamente. Então, em cada um desses intervalostemos um experimento de Bernoulli.

H2) A probabilidade de exatamente 1 ocorrência nesse pequeno intervalo de tempo, de compri-mento ∆t, é proporcional a esse comprimento, ou seja, é λ∆t. Logo, a ocorrência de nenhumevento é 1− λ∆t.

H3) As ocorrências em intervalos pequenos e disjuntos são experimentos de Bernoulli indepen-dentes.

Estamos interessados na v.a. X = número de ocorrências do evento no intervalo (0, t]. Particio-nando esse intervalo em n subintervalos de comprimento suficientemente pequeno ∆t, temos queo número total de ocorrências será a soma do número de ocorrências em cada subintervalo. Masem cada subintervalo podemos aplicar as hipóteses acima. Logo, X é uma variável binomial com

parâmetros n =t

∆t(note que ∆t =

t

n) e probabilidade de sucesso igual a λ∆t pela hipótese 2

acima. Então, para k = 0, 1, 2, . . . , n temos que:

Pr(X = k) =

µn

k

¶(λ∆t)k (1− λ∆t)n−k =

µn

k

¶µλt

n

¶k µ1− λt

n

¶n−k=

=n!

k!(n− k)!× 1

nk× (λt)k ×

µ1− λt

n

¶n

×µ1− λt

n

¶−k=

=n(n− 1) · · · (n− k + 1)(n− k)!

(n− k)!× 1

nk× (λt)

k

k!×µ1− λt

n

¶n

×µ1− λt

n

¶−k=

=n(n− 1) · · · (n− k + 1)

nk× (λt)

k

k!×µ1− λt

n

¶n

×µ1− λt

n

¶−k=

=n

n× n− 1

n× · · · × n− k + 1

n× (λt)

k

k!×µ1− λt

n

¶n

×µ1− λt

n

¶−kConsideremos, agora, a situação em que ∆t → 0, ou equivalentemente, n → ∞. Nesse caso, a

v.a. X pode assumir qualquer valor inteiro não negativo e

limn→∞

Pr(X = k) = limn→∞

"n

n× n− 1

n× · · · × n− k + 1

n× (λt)

k

k!×µ1− λt

n

¶n

×µ1− λt

n

¶−k#

= 1× 1× · · · × 1× (λt)k

k!× lim

n→∞

µ1− λt

n

¶n

× 1 = (λt)k

k!e−λt

Aqui fêz-se uso do resultado (1.15) do Capítulo 1. Provamos, assim, o seguinte resultado:

Page 33: Material estatística UFF demonstração das medias e var

CAPÍTULO 2. ALGUMAS DISTRIBUIÇÕES DISCRETAS 61

Teorema 2.1 Sejam eventos gerados de acordo com as hipóteses H1 a H3 acima. SeX é o númerode eventos em um intervalo de tempo de comprimento t, então a função de distribuição deprobabilidade de X é

Pr(X = k) =(λt)k

k!exp(−λt) k = 0, 1, 2, . . . (2.37)

ou seja, X tem distribuição de Poisson com parâmetro λt : X ∼ Poi(λt).

Pelos resultados anteriores, μ é o número médio de ocorrências do evento de interesse em umintervalo unitário e o número de ocorrências num intervalo qualquer é proporcional ao comprimentodo intervalo.A interpretação desses resultados nos dá que o número médio de ocorrências do evento em um

intervalo de comprimento t é λt, proporcional ao comprimento. Fazendo t = 1, obtém-se o númeromédio de ocorrências em um intervalo unitário.

2.6.6 Exercícios resolvidos

1. Uma central telefônica recebe uma média de 5 chamadas por minuto. Supondo que aschamadas cheguem segundo uma distribuição de Poisson, qual é a probabilidade de a centralnão receber nenhuma chamada em um minuto? e de receber no máximo 2 chamadas em 2minutos?

Solução:

Seja X = número de chamadas por minuto. Então, X ∼ Poi(5). Logo,

Pr(X = 0) =50

0!exp(−5) = 0, 00673795

Seja Y = número de chamadas em 2 minutos. Então, Y ∼ Poi(5× 2). Logo,Pr(Y ≤ 2) = Pr(Y = 0) + Pr(Y = 1) + Pr(Y = 2) =

= exp(−10)µ100

0!+101

1!+102

2!

¶=

= 0, 00276940

2. (Bussab &Morettin) Em um certo tipo de fabricação de fita magnética, ocorrem cortes a umataxa de um corte por 2000 pés. Qual é a probabilidade de que um rolo com comprimento de4000 pés apresente no máximo dois cortes? Pelo menos dois cortes?

Solução:

Seja Y = número de cortes num rolo de 4000 pés. Então, Y ∼ Poi(2).

Pr(no máximo 2 cortes) = Pr(Y ≤ 2) = Pr(Y = 0) + Pr(Y = 1) + Pr(Y = 2) == exp(−2)

µ20

0!+21

1!+22

2!

¶= 5exp(−2) = 0, 676676

Pr(pelo menos 2 cortes) = Pr(Y ≥ 2) = 1− Pr(Y < 2) = 1− [Pr(Y = 0) + Pr(Y = 1)] == 1− exp(−2)

µ20

0!+21

1!

¶= 1− 3 exp(−2) = 0, 593994

Capítulo 3

Algumas Distribuições Contínuas

3.1 Distribuição uniforme

Uma variável aleatória contínuaX tem distribuição uniforme no intervalo [a, b] (finito) se sua funçãode densidade é constante nesse intervalo, ou seja, temos que ter

f(x) = k ∀x ∈ [a, b]

Então, o gráfico da f.d.p. de X é como o ilustrado na Figura 3.1:

Figura 3.1: Densidade uniforme no intervalo [a, b]

Para que tal função seja uma f.d.p., temos que ter k > 0 e a área do retângulo tem que ser 1,ou seja,

(b− a)× k = 1⇒ k =1

b− a

Logo, a função de densidade de uma v.a. uniforme no intervalo [a, b] é dada por

f(x) =

½1

b−a se x ∈ [a, b]0 caso contrário

(3.1)

62

Page 34: Material estatística UFF demonstração das medias e var

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 63

Os valores a e b são chamados parâmetros da distribuição uniforme; note que ambos têm que serfinitos para que a integral seja igual a 1. Quando a = 0 e b = 1 temos a uniforme padrão, denotadapor U(0, 1).

3.1.1 Função de distribuição acumulada

Por definição, temos queF (x) = Pr (X ≤ x)

e essa probabilidade é dada pela área sob a curva de densidade à esquerda de x, conforme ilustradona Figura 3.2.

Figura 3.2: Função de distribuição acumulada da densidade Unif [a, b]

Essa é a área de um retângulo com base (x− a) e altura1

b− a. Logo,

F (x) =

⎧⎪⎨⎪⎩0 se x < ax− a

b− ase a ≤ x ≤ b

1 se x > b

(3.2)

O gráfico dessa f.d.a. é dado na Figura 3.3.No caso da U [0, 1] , temos que

F (x) =

⎧⎨⎩ 0 se x < 0x se 0 ≤ x < 11 se x ≥ 1

3.1.2 Esperança

Das propriedades da esperança e das características da densidade uniforme, sabemos que E(X) éo ponto médio do intervalo [a, b], ou seja,

E(X) = a+b− a

2=

a+ b

2

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 64

Figura 3.3: Função de distribuição acumulada da Unif [a, b]

Usando a integral:

E (X) =

Z b

a

x1

b− adx =

1

b− a

x2

2

¯ba

=b2 − a2

2 (b− a)=(b− a) (a+ b)

2 (b− a)

ou seja,

E (X) =a+ b

2(3.3)

3.1.3 Variância

Por definição,V ar (X) = E

¡X2¢− [E (X)]2 ;

Vamos calcular E (X2) . Temos que:

E¡X2¢=

Z b

a

x21

b− adx =

1

b− a

x3

3

¯ba

=b3 − a3

3 (b− a)=(b− a) (b2 + ab+ a2)

3 (b− a)(3.4)

Logo,

V ar (X) =(b2 + ab+ a2)

3−µa+ b

2

¶2=(b2 + ab+ a2)

3− a2 + 2ab+ b2

4=

=4b2 + 4ab+ 4a2 − 3a2 − 6ab− 3b2

12=

a2 − 2ab+ b2

12

ou

V ar (X) =(b− a)2

12(3.5)

Page 35: Material estatística UFF demonstração das medias e var

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 65

3.2 Distribuição exponencial

3.2.1 Definição

Da equação (??) do Capítulo 1, podemos ver que é possível definir uma função de densidade apartir da função exponencial eλx, desde que nos limitemos ao domínio dos números reais negativos.Mas isso é equivalente a trabalhar com a função e−λx para x positivo. Por outro lado, comoZ ∞

0

e−λxdx = 1λ, podemos trabalhar com um novo parâmetro β = 1

λ.Dessa forma,

Z ∞

0

e−x/βdx = β.

Então, para que uma função exponencial do tipo e−x/β defina uma função de densidade, temos quemultiplicá-la por 1

βpara que a integral resultante dê 1.

Define-se, então, uma variável aleatória exponencial como sendo aquela cuja função de densidadeé dada por

f (x) =1

βe−x/β, x > 0;β > 0 (3.6)

Como a f.d.p. exponencial depende apenas do valor de β, esse é o parâmetro da densidade exponen-cial. Então, usaremos a notação X ∼ exp(β) para indicar o fato de que a v.a. X tem distribuiçãoexponencial com parâmetro β. Na Figura 3.4 temos o gráfico da f.d.p. para β = 1

2.

Figura 3.4: Densidade exponencial - β = 12

3.2.2 Função de distribuição acumulada

Temos que

F (x) = Pr (X ≤ x) =

Z x

0

f (t) dt =

Z x

0

1

βe−t/βdt = −e−t/β

¯x0= − ¡e−x/β − 1¢

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 66

ou seja

F (x) =

½1− e−x/β se x > 00 se x ≤ 0 (3.7)

.

Figura 3.5: Função de distribuição acumulada da v.a. exponencial - β = 12

3.2.3 Esperança

O cálculo dos momentos da distribuição exponencial se faz com auxílio de integração por partes.A esperança é:

E(X) =

∞Z0

x1

βe−x/βdx

Definindo

• u = x⇒ du = dx;

• dv = 1βe−x/βdx⇒ v = −e−x/β

O método de integração por partes nos dá que:

−xe−x/β¯∞0=

Z ∞

0

x1

βe−x/βdx+

Z ∞

0

¡−e−x/β¢ dxPelo resultado (1.16), o lado esquerdo desta última igualdade é zero. Logo,

0 = E(X) + βe−x/β¯∞0⇒ 0 = E(X) + (0− β)

ou seja,E (X) = β (3.8)

Page 36: Material estatística UFF demonstração das medias e var

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 67

Desse resultado segue que Z ∞

0

x1

βe−x/βdx = β ⇒

Z ∞

0

xe−x/βdx = β2 (3.9)

3.2.4 Variância

Vamos calcular o segundo momento de uma v.a. exponencial.

E(X2) =

Z ∞

0

x21

βe−x/βdx

Seguindo raciocínio análogo ao empregado no cálculo da esperança, vamos definir:

• u = x2 ⇒ du = 2xdx;

• dv = 1βe−x/βdx⇒ v = −e−x/β

Logo,

−x2e−x/β¯∞0=

Z ∞

0

x21

βe−x/βdx+

Z ∞

0

¡−2xe−x/β¢ dx⇒ 0 = E¡X2¢− 2Z ∞

0

xe−x/βdx

Usando o resultado (3.9), resulta queE¡X2¢= 2β2 (3.10)

e, portanto:Var(X) = 2β2 − β2 ⇒ Var (X) = β2 (3.11)

Resumindo:

X ∼ exp(β) =⇒½

E(X) = βV ar(X) = β2

(3.12)

3.2.5 Função geradora de momentos

Por definição

φX(t) = E(etX) =

Z ∞

0

etx1

βe−x/βdx =

Z ∞

0

1

βe−(

1β−t)xdx

Para que essa integral exista, é necessário que

1

β− t > 0⇐⇒ t <

1

β

Neste caso, fazendo a mudança de variável u =³1β− t´x resulta que

φX(t) =1

β

Z ∞

0

e−(1β−t)xdx =

1

β

11β− t

ou seja

φX(t) =1

1− βtt <

1

β

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 68

As derivadas primeira e segunda são

φ0X(t) =β

(1− βt)2

φ00X(t) =β × 2 (1− βt)× (−β)

(1− βt)4=

2β2

(1− βt)2

e os momentos de ordem 1 e 2 são:

E(X) = φ0X(0) = β

E(X2) = φ00X(0) = 2β2

o que nos dá, como antes,V ar(X) = β2

3.2.6 Parametrização alternativa

É possível parametrizar a densidade exponencial em termos de um parâmetro λ = 1β. Neste caso,

f(x) = λe−λx x > 0;λ > 0

φX(t) =λ

λ− tt < λ

E(X) =1

λ

E(X2) =2

λ2

V ar(X) =1

λ2

3.2.7 Propriedade da falta de memória da exponencial

Assim como a geométrica, a distribuição exponencial também goza da propriedade da falta dememória. Seja X ∼ exp(β). Então

Pr(X > p+ q|X > p) =Pr(X > p+ q)

Pr(X > p)=1− Pr(X ≤ p+ q)

1− Pr(X ≤ p)

=1−

h1− exp

³−p+q

β

´i1−

h1− exp

³− p

β

´i =exp

³−p+q

β

´exp

³− p

β

´ =exp

³− p

β

´exp

³− q

β

´exp

³− p

β

´= exp

µ− q

β

¶= Pr(X > q)

3.2.8 Exercícios resolvidos

1. Seja X ∼ exp(4). Calcule

Page 37: Material estatística UFF demonstração das medias e var

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 69

(a) Pr(X > 1)

Solução

Pr(X > 1) = 1− Pr(X ≤ 1) = 1− F (1) = 1− [1− e−1/4] = e−0.25 = 0, 7788

(b) Pr(1 ≤ X ≤ 2)Solução

Pr(1 ≤ X ≤ 2) = Pr(X ≤ 2)− Pr(X < 1)

= Pr(X ≤ 2)− Pr(X ≤ 1)= F (2)− F (1) = [1− e−2/4]− [1− e−1/4]

= e−0.25 − e−0.5 = 0, 17227

2. Seja X ∼ exp(β). Calcule Pr(X > β).

Solução

Pr(X > β) = 1− Pr(X ≤ β) = 1− F (β) = 1− £1− e−β/β¤= e−1

Note que essa é a probabilidade de uma v.a. exponencial ser maior que o seu valor médio; oque mostramos é que essa probabilidade é constante, qualquer que seja β.

3.3 Distribuição gama

A distribuição gama é uma generalização da distribuição exponencial.

3.3.1 Definição

Diz-se que uma variável aleatória tem distribuição gama com parâmetros α e β se sua função dedensidade de probabilidade é dada por

f(x) =

⎧⎪⎪⎨⎪⎪⎩1

Γ(α)βαxα−1e−x/β se x > 0

0 se x ≤ 0(3.13)

Note que, quando α = 1, resulta a densidade exponencial com parâmetro β, ou seja, a dis-tribuição exponencial é um caso particular da densidade gama.Para verificar que a função dada em (3.13) realmente define uma função de densidade, notemos

inicialmente que f(x) ≥ 0. Além disso,Z ∞

0

f(x)dx =

Z ∞

0

1

Γ(α)βαxα−1e−x/β =

1

Γ(α)βα

Z ∞

0

xα−1e−x/βdx

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 70

Fazendo a mudança de variávelx

β= t resulta

x = βt

dx = βdt

x = 0⇒ t = 0

x = ∞⇒ t =∞

e, portanto, Z ∞

0

f(x)dx =1

Γ(α)βα

Z ∞

0

xα−1e−x/βdx =

=1

Γ(α)βα

Z ∞

0

(βt)α−1e−tβdt

=1

Γ(α)βαβαZ ∞

0

tα−1e−tdt

=1

Γ(α)Γ(α) = 1

Logo, as duas condições para uma função de densidade são satisfeitas. Usaremos a notaçãoX ∼ gama(α;β) para indicar que a variável aleatória X tem distribuição gama com parâmetrosα, β.

3.3.2 O gráfico da distribuição gama

Para a construção do gráfico da densidade gama, devemos observar inicialmente que

limx→∞

f(x) = 0 e limx→0

f(x) = 0

Vamos, agora, calcular as derivadas primeira e segunda de f(x).

f 0(x) =1

Γ(α)βα

∙(α− 1)xα−2e−x/β − 1

βxα−1e−x/β

¸=

1

Γ(α)βα

∙¡xα−2e−x/β

¢µα− 1− 1

βx

¶¸(3.14)

f 00(x) =1

Γ(α)βα

"(α− 2)(α− 1)xα−3e−x/β − 1

β(α− 1)xα−2e−x/β − 1

β(α− 1)xα−2e−x/β

+ 1β2xα−1e−x/β

#

=1

Γ(α)βα

½¡xα−3e−x/β

¢ ∙(α− 2)(α− 1)− 2

β(α− 1)x+ 1

β2x2¸¾

=1

Γ(α)βα

(¡xα−3e−x/β

¢β2

£β2(α− 2)(α− 1)− 2β(α− 1)x+ x2

¤)(3.15)

Page 38: Material estatística UFF demonstração das medias e var

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 71

O sinal da derivada primeira depende do sinal de α − 1 − 1βx e o sinal da derivada segunda

depende do sinal da expressão entre colchetes, que é uma função do segundo grau. Vamos denotaressa expressão por h(x), de modo que

h(x) = x2 − 2β(α− 1)x+ β2(α− 2)(α− 1)

Vamos analisar a derivada primeira. A primeira observação é que, se α ≤ 1, f 0(x) < 0, ou seja,se α ≤ 1 a densidade gama é uma função estritamente decrescente.No caso em que α > 1, temos que

f 0(x) = 0⇔ x = β(α− 1)f 0(x) < 0⇔ x > β(α− 1)f 0(x) > 0⇔ x < β(α− 1)

Logo,x = β(α− 1) é um ponto de máximo

Vamos, agora, analisar o sinal da derivada segunda da densidade gama, estudando o sinal dodiscriminante da equação dada pela expressão de h(x), para analisar a concavidade da densidadegama:

∆ = 4β2(α− 1)2 − 4β2(α− 2)(α− 1) = 4β2(α− 1) (α− 1− α+ 2) = 4β2(α− 1)

Se α < 1. o discrirminante é negativo e a equação não tem raízes reais e terá sempre o sinal docoeficiente do termo quadrático, que é 1. Assim, neste caso, a concavidade é para cima. Resumindo,se α < 1 a densidade gama é decrescente com concavidade para cima. As mesmas observações valempara o caso em que α = 1, quando o discriminante é nulo e a equação só tem uma raiz.Vamos analisar agora o caso em que α > 1 : neste caso, o discriminante é sempre positivo, ou

seja, temos duas raizes reais distintas, calculadas da seguinte forma:

(α− 2)(α− 1)− 2β(α− 1)x+ 1

β2x2 = 0⇐⇒

β2(α− 2)(α− 1)− 2β(α− 1)x+ x2 = 0⇐⇒

x =2β(α− 1)±√

2⇐⇒

x =2β(α− 1)± 2β

p(α− 1)(α− 1− α+ 2)

2⇐⇒

x = β(α− 1)± β√α− 1⇐⇒

x = β√α− 1 ¡√α− 1± 1¢

A raiz r2 = β√α− 1 ¡√α− 1 + 1¢ é sempre positiva. Já a raiz r1 = β

√α− 1 ¡√α− 1− 1¢ só

será positiva se√α− 1− 1 > 0, ou seja, se α > 2.

Considerando a funçãode segundo grau h(x) que define o sinal da derivada segunda, vemos queo coeficiente do termo quadrático é 1; assim, a função é negativa (sinal oposto ao de a) para valoresde x entre as raízes, e positiva (mesmo sinal de a) fora das raízes. Veja a Figura 3.6; aí podemos

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 72

+ +

r 1 r 2

+ - +

r 1 r 2

+ +

r 2r 1 = 0

-

0

0

-

-

2>α

2=α

2<α

Figura 3.6: Ilustração do sinal da derivada segunda da função de densidade gama

ver que, se α > 2, a derivada segunda muda de sinal em dois pontos dentro do domínio de definiçãoda densidade gama. Isso não ocorre se α < 2 (ou α = 2), uma vez que, neste caso a menor raíz énegativa (nula).

Mais precisamente, se α > 2 temos a seguinte situação:

f 00(x) < 0 se β√α− 1 ¡√α− 1− 1¢ < x < β

√α− 1 ¡√α− 1 + 1¢

f 00(x) > 0 se x > β√α− 1 ¡√α− 1 + 1¢ ou x < β

√α− 1 ¡√α− 1− 1¢

ou seja, a função de densidade é côncava para cima se se x > β√α− 1 ¡√α− 1 + 1¢ ou x <

β√α− 1 ¡√α− 1− 1¢ e é côncava para baixo se β√α− 1 ¡√α− 1− 1¢ < x < β

√α− 1 ¡√α− 1 + 1¢ ,

o que indica a ocorrência de dois pontos de inflexão.Quando α ≤ 2

f 00(x) < 0 se 0 < x < β(α− 1) + β√α− 1

f 00(x) > 0 se x > β(α− 1) + β√α− 1

ou seja, a função de densidade gama é côncava para cima se x > β(α− 1) + β√α− 1 e é côncava

para baixo se 0 < x < β(α − 1) + β√α− 1, o que indica a ocorrência de apenas um ponto de

inflexão.Na Figura 3.7 ilustra-se o efeito do parâmetro α sobre a densidade gama. Aí o parâmetro β

está fixo (β = 2) e temos o gráfico para diferentes valores de α. Note que, para α = 1, o gráfico éda distribuição exponencial com parâmetro β = 2 e para qualquer valor de α < 1, o gráfico teráessa forma. Note que para α = 2 só há um ponto de inflexão; essa situação se repetirá para valoresde α no intervalo (1, 2]. Para valores de α maiores que 2, há dois pontos de inflexão.Na Figura

Page 39: Material estatística UFF demonstração das medias e var

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 73

3.8 ilustra-se o efeito do parâmetro β sobre a densidade gama. Aí o parâmetro α está fixo (α = 2ou α = 3) e temos o gráfico para diferentes valores de β. Analisando essas duas figuras, vemosque o parâmetro α tem grande influência sobre a forma da distribuição, enquanto o parâmetro βtem grande influência sobre a escala (ou dispersão) da distribuição. Dessa forma, o parâmetro α échamado parâmetro de forma, enquanto o parâmetro β é chamado parâmetro de escala.

0

0,05

0,1

0,15

0,2

0,25

0,3

0,35

0,4

0,45

0,5

0 5 10 15 20 25 30

2=β

2=α4=α

5=α

1=α

Figura 3.7: Efeito do parâmetro de forma α sobre a densidade gama

3.3.3 Esperança

Se X ∼ gama(α;β) , então

E(X) =

Z ∞

0

xf(x)dx =1

Γ(α)βα

Z ∞

0

xxα−1e−x/βdx

=1

Γ(α)βα

Z ∞

0

xαe−x/βdx

0,0

0,1

0,2

0,3

0,4

0 2 4 6 8 10 12 14

2=α

1=β

2=β

0,0

0,1

0,2

0,3

0 2 4 6 8 10 12 14

5,1=β

3=α

1=β

5,1=β

2=β

Figura 3.8: Efeito do parâmetro de escala sobre a densidade gama

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 74

Fazendo a mesma mudança de variável já usada anteriormentex

β= t temos que

E(X) =1

Γ(α)βα

Z ∞

0

(βt)αe−tβdt

=1

Γ(α)βαβα+1

Z ∞

0

tαe−tdt

Γ(α)

Z ∞

0

tαe−tdt

Γ(α)Γ(α+ 1)

Γ(α)αΓ(α)

ou seja,X ∼ gama(α, β)⇒ E(X) = αβ

3.3.4 Variância

De modo análogo, vamos calcular o segundo momento da densidade gama.

E(X2) =

Z ∞

0

x2f(x)dx =1

Γ(α)βα

Z ∞

0

x2xα−1e−x/βdx

=1

Γ(α)βα

Z ∞

0

xα+1e−x/βdx

Fazendo a mesma mudança de variável usada anteriormentex

β= t temos que

E(X2) =1

Γ(α)βα

Z ∞

0

(βt)α+1e−tβdt

=1

Γ(α)βαβα+2

Z ∞

0

tα+1e−tdt

=β2

Γ(α)

Z ∞

0

tα+1e−tdt

=β2

Γ(α)Γ(α+ 2)

=β2

Γ(α)(α+ 1)Γ(α+ 1)

=β2

Γ(α)(α+ 1)αΓ(α)

= β2(α+ 1)α

Logo,V ar(X) = β2(α+ 1)α− (αβ)2 = α2β2 + αβ2 − α2β2 = αβ2

Page 40: Material estatística UFF demonstração das medias e var

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 75

Resumindo:

X ∼ gama(α, β) =⇒⎧⎨⎩ E(X) = αβ

V ar(X) = αβ2(3.16)

3.3.5 Função geradora de momentos

Por definição

φX(t) = E(etX) = E(X2) =1

Γ(α)βα

Z ∞

0

etxxα−1e−x/βdx

=1

Γ(α)βα

Z ∞

0

xα−1e−x(1β−t)dx

e essa integral será finita se 1β− t > 0, ou seja, se t < 1

β. Neste caso, fazendo a mudança de variável

u = x( 1β− t) resulta que

φX(t) =1

Γ(α)βα

Z ∞

0

Ãu

1β− t

!α−1

e−u1

1β− t

du

=1

Γ(α)βα

Ã1

1β− t

!α Z ∞

0

uα−1e−udu

=1

Γ(α)βα

µβ

1− βt

¶α

Γ(α)

ou seja,

φX(t) =1

(1− βt)αt <

1

β

3.3.6 Distribuição de Erlang

Quando o parâmetro de forma α é um inteiro positivo, a distribuição gama é conhecida comodistribuição de Erlang.

3.3.7 Distribuição qui-quadrado como caso particular da gama

Fazendo α = n2, n inteiro, e β = 2 na densidade gama, obtemos a distribuição qui-quadrado com n

graus de liberdade. A densidade qui-quadrado, então, é

f(x) =

⎧⎪⎪⎨⎪⎪⎩1

Γ(n2)2n/2

xn/2−1e−x/2 se x > 0

0 se x ≤ 0(3.17)

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 76

Se X tem distribuição qui-quadrado com n graus de liberdade, representaremos este fato porX ∼ χ2(n). Da esperança e da variância da gama resulta que, se X ∼ χ2(n), então

E(X) =n

2× 2 = n

V ar(X) =n

2× 22 = 2n

3.4 Distribuição de Weibull

3.4.1 Definição

Uma variável aleatória X tem distribuição de Weibull com parâmetros α > 0 e β > 0 se sua funçãode densidade de probabilidade é dada por

f(x) =α

βαxα−1e

−xβ

α

x > 0 (3.18)

Note que podemos reescrever essa expressão como

f(x) =α

β

µx

β

¶α−1e−xβ

α

x > 0 (3.19)

e alguns autores (ver Rohatgi, por exemplo) usam um novo parâmetro η em vez de βα. Para mostrarque f define uma densidade, vamos mostrar que a integral é 1. Para tal, vamos fazer a seguintemudança de variável:

u =

µx

β

¶α

=⇒ du =α

β

µx

β

¶α−1

x = 0 =⇒ u = 0;x =∞ =⇒ u =∞

Dessa forma, Z ∞

0

α

β

µx

β

¶α−1e−xβ

α

dx =

Z ∞

0

e−udu = 1

3.4.2 Esperança e variância

Vamos calcular o momento de ordem r :

E(Xr) =

Z ∞

0

α

β

µx

β

¶α−1e−xβ

α

xrdx

Fazendo u = xβ, resulta que x = βu e dx = βdu; logo

E(Xr) =

Z ∞

0

α

β

µx

β

¶α−1e−xβ

α

xrdx =

Z ∞

0

α

βuα−1e−u

α

βrurβdu

=

Z ∞

0

αuα−1e−uα

βrurdu

Page 41: Material estatística UFF demonstração das medias e var

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 77

Fazendo uα = t resulta que u = t1/α e αuα−1du = dt; logo,

E(Xr) =

Z ∞

0

e−tβr¡t1/α

¢rdt = βr

Z ∞

0

tr/αe−tdt

= βrZ ∞

0

tr/α+1−1e−tdt = βrZ ∞

0

tr+αα−1e−tdt = βrΓ

µr + α

α

¶Fazendo r = 1, obtemos que

E(X) = βΓ

µα+ 1

α

¶Fazendo r = 2 obtemos que

E(X2) = β2Γ

µα+ 2

α

¶e, portanto,

V ar(X) = β2∙Γ

µα+ 2

α

¶− Γ2

µα+ 1

α

¶¸3.4.3 Função de distribuição acumulada

Por definição,

F (x) =

Z x

0

α

β

µt

β

¶α−1e− tβ

α

dt

Fazendo a mudança de variável

u =

µx

β

¶α

=⇒ du =α

β

µx

β

¶α−1

t = 0 =⇒ u = 0; t = x =⇒ u =

µx

β

¶α

resulta

F (x) =

Z x

0

α

β

µt

β

¶α−1e− tβ

α

dt =

Z ( xβ )α0

e−udu = −e−u¯( xβ )α0

= 1− exp∙µ

x

β

¶α¸

3.5 Distribuição de Pareto

3.5.1 Definição

Uma variável aleatória X tem distribuição de Pareto com parâmetros α > 0 e b > 0 se sua funçãode densidade de probabilidade é dada por

f(x) =

⎧⎨⎩ α

b

µb

x

¶α+1

se x ≥ b

0 se x < b

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 78

Para mostrar que f(x) realmente define uma f.d.p. resta provar que a integral é 1, uma vez quef(x) ≥ 0. Z ∞

b

α

b

µb

x

¶α+1

dx = αbαZ ∞

b

x−α−1dx = αbαx−α

−α

¯∞b

Essa integral converge apenas se −α < 0 ou equivalentemente, α > 0, pois nesse caso limx→∞ x−α =limx→∞ 1

xα= 0. Satisfeita esta condição, temos que

αbαx−α

−α

¯∞b

= 0− αbαb−α

−α = 1

3.5.2 Esperança

Se X ∼ Pareto(α, b) então

E(X) =

Z ∞

b

b

µb

x

¶α+1

dx = αbαZ ∞

b

x−αdx = αbαx−α+1

−α+ 1

¯∞b

Para que essa integral convirja, temos que ter −α+ 1 < 0, ou α > 1. Satisfeita esta condição,

E(X) = αbαµ0− b−α+1

−α+ 1¶=−αbα−α+11− α

=αb

α− 1

3.5.3 Variância

Se X ∼ Pareto(α, b) então

E(X2) =

Z ∞

b

x2α

b

µb

x

¶α+1

dx = αbαZ ∞

b

x−α+1dx = αbαx−α+2

−α+ 2

¯∞b

Para que essa integral convirja, temos que ter −α+ 2 < 0, ou α > 2. Satisfeita esta condição,

E(X) = αbαµ0− b−α+2

−α+ 2¶=−αbα−α+22− α

=αb2

α− 2Logo,

V ar(X) =αb2

α− 2 −µ

αb

α− 1¶2=

αb2 (α− 1)2 − α2b2 (α− 2)(α− 1)2 (α− 2)

=αb2 [α2 − 2α+ 1− α(α− 2)]

(α− 1)2 (α− 2) =αb2 [α2 − 2α+ 1− α2 + 2α]

(α− 1)2 (α− 2)=

αb2

(α− 1)2 (α− 2)Resumindo:

X ∼ Pareto(α, b) =⇒

⎧⎪⎪⎨⎪⎪⎩E(X) =

αb

α− 1 se α > 1

V ar(X) =αb2

(α− 1)2 (α− 2) se α > 2(3.20)

Page 42: Material estatística UFF demonstração das medias e var

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 79

3.6 Distribuição beta

A função beta é definida por

B(α, β) =1R0

tα−1(1− t)β−1dt 0 < x < 1

Então, se definirmos

f(x) =1

B(α, β)xα−1(1− x)β−1 0 < x < 1 (3.21)

temos que f(x) > 0 e1R0

f(x)dx =1

B(α, β)

1R0

xα(1− x)β−1dx =B(α, β)

B(α, β)= 1

ou seja, f(x) define uma função de densidade que é chamada densidade beta com parâmetros α eβ. Lembrando a relação entre a função gama e a função beta, podemos escrever

f(x) =Γ(α+ β)

Γ(α)Γ(β)xα−1(1− x)β−1 0 < x < 1

A densidade beta assume várias formas, dependendo dos valores dos parâmetros α, β. Vamosver alguns casos:

• α = 1

Neste caso,

f(x) =Γ(β + 1)

Γ(β)(1− x)β−1 = β(1− x)β−1

Logof 0(x) = −β(β − 1)(1− x)β−2

f 00(x) = β(β − 1)(β − 2)(1− x)β−2

— β = 1

Neste caso, a densidade beta coincide com a uniforme padrão.

— β < 1

Neste caso, β− 1 < 0 e β− 2 < 0. Logo, f 0(x) > 0 e f 00(x) > 0, ou seja, f é estritamentecrescente e estritamente convexa.

— 1 < β < 2

Neste caso, β− 1 > 0 e β− 2 < 0. Logo, f 0(x) < 0 e f 00(x) < 0, ou seja, f é estritamentedecrescente e estritamente côncava.

— β = 2

Neste caso, f(x) = 2(1− x), que é uma reta decrescente.

— β > 2

Neste caso, β− 1 > 0 e β− 2 > 0. Logo, f 0(x) < 0 e f 00(x) > 0, ou seja, f é estritamentedecrescente e convexa.

Na Figura 3.9 ilustram-se as formas da densidade beta quando α = 1.

CAPÍTULO 3. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS 80

Figura 3.9: Função de densidade beta - parâmetro α = 1

Page 43: Material estatística UFF demonstração das medias e var

Capítulo 4

Funções de Variáveis AleatóriasContínuas

Dada uma v.a. contínua X com função de densidade fX(x), muitas vezes estamos interessados emconhecer a densidade de uma outra v.a. Y = g(x) definida como uma função de X.

4.1 Exemplo

Se X ∼ Unif(−1, 1), calcule a densidade de Y = g(X) = X2 e de W = h(X) = |X| .Solução:Temos que

fX(x) =

½12

− 1 < x < 10 x ≤ −1 ou x ≥ 1

−1 < x < 1⇒½0 ≤ g(x) < 10 ≤ h(x) < 1

Para calcular a fdp de Y = g(X) = X2 devemos notar que

FY (y) = Pr(Y ≤ y) = Pr(X2 ≤ y)

= Pr (−√y ≤ X ≤ √y)= FX (

√y)− FX (−√y)

e, portanto

fY (y) =d

dy[FX (

√y)]− d

dy[FX (−√y)]

= F 0X (√y)

1

2√y− F 0

X (−√y)

µ− 1

2√y

¶= fX (

√y)

1

2√y+ fX (−√y) 1

2√y

Como 0 ≤ √y < 1 e −1 < −√y ≤ 0, resulta que fX¡√

y¢= fX

¡−√y¢ = 12. Logo

fY (y) =

½ 12√y

se 0 ≤ y < 1

0 caso contrário

81

CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 82

De modo análogo, para 0 ≤ w < 1

FW (w) = Pr(W ≤ w) = Pr(|X| ≤ w) = Pr(−w ≤ X ≤ w) =

= FX(w)− FX(−w)e, portanto

fW (w) = F 0W (w) = F 0

X(w)− F 0X(−w)(−1) =

= fX(w) + fX(−w)Como 0 ≤ w < 1 e −1 < −w ≤ 0, resulta que fX (w) = fX (−w) = 1

2. Logo

fW (w) =

½1 se 0 ≤ y < 10 caso contrário

4.2 Funções inversíveis

Quando a função g é inversível, é possível obter uma expressão para a função de densidade de Y .

Teorema 4.1 Seja X uma v.a. contínua com função de densidade fX(x) e seja Y = g(x) umaoutra v.a. Se a função g(x) é inversível e diferenciável, então a função de densidade de Y é dadapor:

fY (y) = fX£g−1(y)

¤ ¯dg−1(y)dy

¯(4.1)

Demonstração:Esse resultado segue diretamente da relação entre as funções de densidade e de distribuição

acumulada dada na equação (4.2):fX(x) = F

0X(x) (4.2)

Suponhamos inicialmente que g(x) seja crescente; nesse caso, g0(x) > 0 e x1 < x2 ⇒ g (x1) < g (x2) .Então, a função de distribuição acumulada de Y é:

FY (y) = Pr (Y ≤ y) = Pr (g(X) ≤ y)

Mas, conforme ilustrado na Figura 4.1, g(X) ≤ y ⇔ X ≤ g−1(y).

Logo,FY (y) = Pr (g(X) ≤ y) = Pr

¡X ≤ g−1(y)

¢= FX

£g−1(y)

¤Da relação entre a fdp e a fda e da regra da cadeia, segue que:

fY (y) = F0Y (y) = F

0X

£g−1(y)

¤ dg−1(y)dy

= fX£g−1(y)

¤ dg−1(y)dy

(4.3)

Comodg−1(y)

dy> 0, (4.3) pode ser reescrita como

fY (y) = F0Y (y) = fX

£g−1(y)

¤ ¯dg−1(y)dy

¯(4.4)

Page 44: Material estatística UFF demonstração das medias e var

CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 83

y

)(1 yg −

yXg ≤)(

)(1 ygX −≤

Figura 4.1: Função inversa de uma função crescente

yXg ≤)(

)(1 yg −

y

)(1 ygX −≥

Figura 4.2: Função inversa de uma função decrescente

CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 84

Quando g(x) é decrescente, vale notar que que g0(x) < 0 e, conforme ilustrado na Figura 4.2,g(X) ≤ y ⇔ X ≥ g−1(y).

Dessa forma, como X é uma v.a. contínua temos que

FY (y) = Pr (Y ≤ y) = Pr (g(X) ≤ y) = Pr¡X ≥ g−1(y)

¢= 1− Pr £X < g−1(y)

¤= 1− Pr £X ≤ g−1(y)

¤= 1− FX

£g−1(y)

¤e, portanto

fY (y) = F0Y (y) = −F

0X

£g−1(y)

¤ dg−1(y)dy

= −fX£g−1(y)

¤ dg−1(y)dy

(4.5)

Comodg−1(y)

dy< 0 (lembre que estamos considerando g decrescente agora), resulta

−dg−1(y)dy

=

¯dg−1(y)

dy

¯e (4.5) pode ser reescrita como

fY (y) = F0Y (y) = fX

£g−1(y)

¤ ¯dg−1(y)dy

¯(4.6)

Os resultados (4.4) e (4.6), para funções crescentes e decrescentes, podem ser reunidos para com-pletar a prova do teorema.

Quando a função não é monotóna, não podemos aplicar o teorema acima e nem sempre con-seguiremos obter uma expressão usando os recursos vistos neste curso.

4.2.1 Exemplo

Seja X ∼ Unif(0, 1), isto é:

fX(x) =

½1 se 0 < x < 10 se x ≤ 0 ou x ≥ 1

Defina Y = − lnX. Vamos calcular a f.d.p. de Y. A função g(x) = − lnx é estritamente decrescentee podemos aplicar o Teorema 4.1. Então, como 0 < x < 1, segue que 0 < Y = − lnX < ∞ (verFigura 4.3).Por outro lado, a inversa de y = g(x) = − lnx é g−1(y) = e−y e, portanto,

dg−1(y)dy

= −e−y

Como 0 < y <∞, então 0 < e−y < 1 e a f.d.p. de Y é

fY (y) = fX£e−y¤× ¯−e−y ¯ = 1× e−y ⇒ fY (y) = e−y

uma vez que fX(x) = 1 no intervalo (0, 1).

Page 45: Material estatística UFF demonstração das medias e var

CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 85

-2

-1

0

1

2

3

4

0 1 2 3 4 5

Figura 4.3: Gráfico da função Y = g(X) = − lnX

4.2.2 Transformação linear

Consideremos a tranformação Y = aX + b, que define uma reta. Se X é uma v.a. contínuacom densidade fX(x), então podemos aplicar o Teorema 4.1 para calcular a densidade de Y. SeY = g(X) = aX + b, então a função inversa é

X = g−1(Y ) =Y − b

a

cuja derivada édg−1(y)

dy=1

a

Logo, a densidade de Y é

fY (y) = fX

µy − b

a

¶ ¯1

a

¯(4.7)

Exemplo

Se a função de densidade da variável aleatória X é dada por

f(x) =

½3x2 se − 1 ≤ x ≤ 00 se x < −1 ou x > 0

calcule a função de densidade de Y = 2X − 35, bem como sua esperança e sua variância.

Solução:Temos que a = 2 e b = −0, 6. Como −1 ≤ x ≤ 0, resulta que −2, 6 ≤ y ≤ −0, 6. Logo,

fY (y) = fX

µy + 0, 6

2

¶× 12

se − 2, 6 ≤ y ≤ −0, 6

CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 86

ou seja

fY (y) = 3

µy + 0, 6

2

¶2× 12=3

8(y + 0, 6)2 se − 2, 6 ≤ y ≤ −0, 6

E(Y ) =

Z −0,6

−2,6y3

8(y + 0, 6)2 dy =

3

8

Z −0,6

−2,6

¡y3 + 1, 2y2 + 0, 36y

¢dy

=3

8

∙y4

4+ 1, 2

y3

3+ 0, 36

y2

2

¸−0,6−2,6

=3

8

"(−0,6)44

+ 0, 4× (−0, 6)3 + 0, 18× (−0, 6)2− (−2,6)4

4− 0, 4× (−2, 6)3 − 0, 18× (−2, 6)2

#=

3

8[0, 0321− 0, 0864 + 0, 0648− 11, 4244 + 7, 0304− 1, 2168]

= −2, 10

E(Y 2) =

Z −0,6

−2,6y23

8(y + 0, 6)2 dy =

3

8

Z −0,6

−2,6

¡y4 + 1, 2y3 + 0, 36y2

¢dy

=3

8

∙y5

5+ 1, 2

y4

4+ 0, 36

y3

3

¸−0,6−2,6

=3

8

"(−0.6)55

+ 0, 3× (−0, 6)4 + 0, 12× (−0, 6)3− (−2,6)5

5− 0, 3× (−2, 6)4 − 0, 12× (−2, 6)3

#=

3

8[−0, 01552 + 0, 03888− 0, 02592 + 23, 762752− 13, 70928 + 2, 10912]

= 12, 160032− (2, 10)2 = 7, 750032

Page 46: Material estatística UFF demonstração das medias e var

CAPÍTULO 4. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 87

.

Capítulo 5

A Distribuição Normal

5.1 Distribuição normal padrão

5.1.1 Definição

Analisando a equação (1.12), vemos que a função1√2πexp

µ−t

2

2

¶satisfaz as condições para ser

uma função de densidade. Essa é, por definição, a densidade normal padrão ϕ(x) (note que ϕ(x) >0) definida por:

ϕ(x) =1√2πexp

µ−x

2

2

¶−∞ < x <∞ (5.1)

Vamos denotar por N(0; 1) a densidade normal padrão e, se uma v.a. Z é distribuída segundouma normal padrão, representaremos esse fato como Z ∼ N(0; 1).

5.1.2 Esperança

Seja Z ∼ N(0, 1). Por definição, a esperança de Z é:

E(Z) =

Z ∞

−∞xϕ(x)dx =

1√2π

Z ∞

−∞x exp

µ−x

2

2

¶dx

Como ϕ(x) é simétrica em torno do ponto x = 0, sabemos que E(Z) = 0.

5.1.3 Variância

Como E(Z) = 0 se Z ∼ N(0; 1), então

V ar(Z) = E(Z2) =

Z +∞

−∞x2

1√2πexp

µ−x

2

2

¶dx =

2√2π

Z +∞

0

x2 exp

µ−x

2

2

¶dx

uma vez que o integrando é par. Esta integral é calculada usando o método de integração porpartes. Fazendo:

• x exp

µ−x

2

2

¶dx = dv ⇒ v = − exp

µ−x

2

2

¶88

Page 47: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 89

• x = u⇒ dx = du

resulta que:

−x expµ−x

2

2

¶¯∞0

=

Z ∞

0

∙− exp

µ−x

2

2

¶¸dx+

Z ∞

0

x2 exp

µ−x

2

2

¶dx (5.2)

Pelos resultados (1.16) e (1.11)

0 = −r

π

2+

Z ∞

0

x2 exp

µ−x

2

2

¶dx =⇒

Z ∞

0

x2 exp

µ−x

2

2

¶dx =

2

Logo,

Var(Z) =2√2π×r

π

2⇒ Var(Z) = 1 (5.3)

5.1.4 Função geradora de momentos

Por definição,

φZ(t) =1√2π

Z ∞

−∞etxe−x

2/2dx =1√2π

Z ∞

−∞exp

∙−µx2 − 2tx

2

¶¸dx

=1√2π

Z ∞

−∞exp

∙−µx2 − 2tx+ t2 − t2

2

¶¸dx

=1√2π

Z ∞

−∞exp

∙−µx2 − 2tx+ t2

2

¶exp

µt2

2

¶¸dx

= exp

µt2

2

¶1√2π

Z ∞

−∞exp

"−(x− t)2

2

#dx

Fazendo a mudança de variável x− t = t, resulta que

φZ(t) = exp

µt2

2

¶1√2π

Z ∞

−∞exp

µ−u

2

2

¶du

= exp

µt2

2

¶1√2π

√2π

pelo resultado (1.11). Logo,

φZ(t) = exp

µt2

2

¶(5.4)

5.2 Distribuição N(μ;σ2)

Seja Z ∼ N(0; 1) e vamos definir uma nova v.a. por X = g(Z) = μ+ σZ, em que σ > 0. Usando oresultado (4.7), temos que:

fX(x) = fZ

µx− μ

σ

¶× 1

σ=

1√2πexp

"−12

µx− μ

σ

¶2#× 1

σ

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 90

ou ainda:

fX(x) =1√2πσ2

exp

"−12

µx− μ

σ

¶2#e essa é a densidade da normal N(μ;σ2)Diz-se, então, que, uma variável aleatória contínua X, definida para todos os valores da reta

real, tem densidade normal com parâmetros μ e σ2, onde −∞ < μ < ∞ e 0 < σ2 < ∞, se suafunção de densidade de probabilidade é dada por

f(x) =1√2πσ2

exp

∙−(x− μ)2

2σ2

¸−∞ < x <∞ . (5.5)

Usaremos a seguinte notação para indicar que uma v.a. X tem distribuição normal com parâmetrosμ e σ2 : X ∼ N(μ, σ2).

5.2.1 Características da curva normal

1. Simétrica em torno de μ; note que f (μ− x) = f (μ+ x) .

2. Assíntotas: limx→−∞

f(x) = limx→∞

f(x) = 0; esse resultado segue diretamente dos resultados

sobre a função exponencial dados em (??).

3. Ponto de máximo

Para calcular a primeira e segunda derivadas de f(x), devemos lembrar que (ex)0 = ex e, pelaregra da cadeia, (eg(x))0 = eg(x)g0(x). Aplicando esses resultados à densidade normal, obtemosque:

f 0(x) =1√2πσ2

exp

∙−(x− μ)2

2σ2

¸ ∙− 1

2σ22(x− μ)

¸= −f(x)

µx− μ

σ2

¶(5.6)

Derivando novamente, obtemos:

f00(x) = −f 0(x)

µx− μ

σ2

¶− f(x)

1

σ2= −

∙−f(x)

µx− μ

σ2

¶¸∙x− μ

σ2

¸− f(x)

1

σ2=

= f(x)

∙(x− μ)2

σ4

¸− f(x)

1

σ2= f(x)

∙(x− μ)2 − σ2

σ4

¸(5.7)

Analisando a equação (5.6) e lembrando que f(x) > 0, pode-se ver que:

f 0(x) = 0⇔ x = μ

e assim, x = μ é um ponto crítico. Como f 0(x) > 0 para x < μ e f 0(x) < 0 para x > μ,então f é crescente à esquerda de μ e decrescente à direita de μ. Segue, então, que x = μ éum ponto de máximo e nesse ponto

f(μ) =1√2πσ2

(5.8)

Page 48: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 91

4. Pontos de inflexão

Analisando a segunda derivada dada por (5.7), tem-se que:

f00(x) = 0⇔ (x− μ)2 = σ2 ⇔ |x− μ| = σ ⇔

½x = μ+ σx = μ− σ

(5.9)

Além disso,

f00(x) > 0⇔ (x− μ)2 > σ2 ⇔ |x− μ| > σ ⇔

⇔ x− μ > σ ou μ− x > σ (5.10)

⇔ x > μ+ σ ou x < μ− σ

e

f00(x) < 0⇔ (x− μ)2 < σ2 ⇔ |x− μ| < σ ⇔

⇔½

x− μ < σμ− x < σ

⇔ μ− σ < x < μ+ σ (5.11)

Logo, f(x) é côncava para cima se x > μ + σ ou x < μ − σ e é côncava para baixo quandoμ− σ < x < μ+ σ.

Na Figura 5.1 é apresentado o gráfico da densidade normal no caso em que μ = 3 e σ2 = 1.Aí alinha pontilhada central representa o eixo de simetria e as linhas pontilhadas laterais passam pelospontos de inflexão 3± 1.

0,0

0,1

0,2

0,3

0,4

0,5

-5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10

N(3;1)

Figura 5.1: Densidade normal com média μ = 3 e variância σ2 = 1

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 92

5.2.2 Parâmetros da N¡μ;σ2

¢Se X ∼ N (μ;σ2) , então X = μ + σZ, em que Z ∼ N(0; 1). Vimos que E(Z) = 0 e V ar(Z) = 1.Das propriedades de média e variância, sabemos que, se X é uma v.a. e k1 6= 0 e k2 são constantesquaisquer, então

E(k1X + k2) = k1E(X) + k2 (5.12)

Var(k1X + k2) = k21 Var (X)

Resulta, então, que se X ∼ N (μ;σ2) então

E(X) = μ+ σE(Z) = μ+ 0⇒ E (X) = μ (5.13)

eVar (X) = σ2Var (Z) = σ2 × 1⇒ Var (X) = σ2 (5.14)

Resumindo:

X ∼ N¡μ;σ2

¢=⇒

½E(X) = μ

V ar(X) = σ2(5.15)

Os parâmetros da densidade normal são, então, a média e a variância, que são medidas deposição e dispersão respectivamente. Valores diferentes de μ deslocam o eixo de simetria da curvae valores diferentes de σ2 mudam a dispersão da curva. Quanto maior σ2, mais “espalhada” é acurva; mas o ponto de máximo, dado pela equação (5.8), é inversamente proporcional a σ2. Logo,quanto maior σ2, mais “espalhada” e mais “achatada” é a curva. A questão é que a forma é semprea de um “sino”. Na Figura 5.2 temos exemplos de densidades normais com a mesma variância, mascom médias diferentes. O efeito é o “delocamento” da densidade. Já na Figura 5.3, temos duasdensidades com a mesma média, mas variâncias diferentes. O efeito é que a densidade com maiorvariância é mais dispersa e achatada.

5.2.3 Função geradora de momentos

Se X ∼ N(μ;σ2) então X = σZ + μ, onde Z ∼ N(0; 1) com função geradora de mometnos dadapor φZ(t) = et

2/2.Como X é uma transformação linear de Z, resulta que a função geradora de momentos de X

é dada porφX(t) = eμtφZ(σt) = eμteσ

2t2/2

ou seja,

φX(t) = exp

µμt+

σ2t2

2

¶Note que φX(0) = 1. Calculando a derivada primeira tem-se que

φ0X(t) = φX(t)¡μ+ tσ2

¢e, portanto,

E(X) = φ0X(0) = φX(0) (μ) = μ

Page 49: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 93

0,0

0,1

0,2

0,3

0,4

0,5

-5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10

N(0;1)N(3;1)

Figura 5.2: Exemplos de densidades normais com mesma variância e médias diferentes

0,0

0,1

0,2

0,3

0,4

0,5

-5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10

N(3;1)

N(3;4)

Figura 5.3: Exemplos de densidades normais com mesma média e variâncias diferentes

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 94

Calculando a derivada segunda:

φ00X(t) = φ0X(t)¡μ+ tσ2

¢+ σ2φX(t)

Logo,E(X2) = φ00X(0) = φ0X(0) (μ) + σ2φX(0) = μ2 + σ2

e, portantoV ar(X) = σ2

5.3 Função de distribuição acumulada

A função de distribuição acumulada de qualquer v.a. X é definida por FX(X) = Pr (X ≤ x) . Nocaso da densidade normal, essa função é dada pela integral

F (x) =

Z x

−∞

1√2πσ2

exp

"−12

µt− μ

σ

¶2#dt (5.16)

para a qual não existe uma antiderivada em forma de função elementar. Assim, a f.d.a. da normal écalculada por integração numérica. Todos os pacotes estatísticos possuem rotinas especiais para essecálculo. No EXCEL, a função DIST.NORM calcula Pr (X ≤ x) para qualquer x e para quaisquervalores dos parâmetros μ e σ. Com auxílio dessa função, obtemos os seguintes gráficos da f.d.a.para as densidades N(0, 1), N(3, 1) e N(3, 2) ilustrados na Figura 5.4.Vamos denotar por Φ(z) a f.d.a. da densidade normal padrão, isto é:

Φ(z) =

Z z

−∞ϕ(t)dt =

1√2π

Z z

−∞exp

µ−t

2

2

¶dt (5.17)

Note que, pela simetria da densidade em torno da média μ, sempre teremos Φ(μ) = 0, 5.

5.4 Tabulação da distribuição normal padrão

Para completar o estudo da distribuição normal, é necessário calcular probabilidades de quaisquereventos, tais como Pr (a ≤ X ≤ b) . Por definição da função de densidade, essa probabilidade, nocaso da normal, é dada por:

Pr(a ≤ X ≤ b) =

Z b

a

1√2πσ2

exp

"−12

µx− μ

σ

¶2#dx

No entanto, tal integral, que dá a área sob a curva compreendida entre os pontos a e b, não podeser calculada pelos procedimentos usuais; a dificuldade está no fato de que aí não podemos aplicaro Teorema Fundamental do Cálculo, já que não existe uma função elementar cuja derivada seja

exp

µ−x

2

2

¶. Assim, para calcular probabilidades do tipo acima, é necessária a aplicação de métodos

numéricos, sendo possível, então, tabular Pr(X ≤ x) para qualquer valor de x. Mas como podemos

Page 50: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 95

0,0

0,2

0,4

0,6

0,8

1,0

1,2

-6 -4 -2 0 2 4 6 8 10

N(0;1)

N(3;2)

N(3;1)

Figura 5.4: Função de distribuição acumulada de várias densidades normais

ter diferentes valores para os parâmetros μ e σ, seria necessária a geração de uma tabela para cadapar μ, σ. Mas isso não é preciso, pois o resultado a seguir garante que probabilidades de qualquervariável normal podem ser calculadas a partir das probabilidades da normal padrão.De fato, já foi visto que se X ∼ N (μ, σ2) , então X = μ + σZ, onde Z ∼ N(0, 1). Vamos ver

como utilizar esse resultado para calcular probabilidades da normal. Temos que

Pr (X ≤ x) = Pr

µX − μ

σ≤ x− μ

σ

¶= Pr

µZ ≤ x− μ

σ

¶= Φ

µx− μ

σ

¶(5.18)

Na Figura 5.5 ilustra-se esse fato, utilizando as densidades Z ∼ N(0; 1) e X ∼ N(3; 4). Nográfico inferior a área sombreada representa Pr(X ≤ 5) e, no gráfico superior, a área sombreadarepresenta a probabilidade equivalente:

Pr(X ≤ 5) = PrµX − 32≤ 5− 3

2

¶= Pr(Z ≤ 1)

O que o resultado diz é que essas áreas (probabilidades) são iguais.

Esse resultado mostra que probabilidades de qualquer variável normal podem ser obtidas a partirde probabilidades da normal padrão e, assim, só é necessário tabular a distribuição normal padrão;qualquer livro de estatística apresenta alguma versão de tal tabela e programas de computadortambém podem ser usados para tal. No EXCEL, por exemplo, há duas funções para cálculo deprobabilidades de normais. A função DIST.NORMP lida com a normal padrão, enquanto a funçãoDIST.NORM lida com normais de parâmetros quaisquer. Essas rotinas foram utilizadas paraconstruir os gráficos anteriores e também as tabelas do Anexo, que são as tabelas usuais para adistribuição normal padrão. Na Tabela 1 é dada a distribuição acumulada: para cada valor de z,tem-se o valor deΦ(z) = Pr(Z ≤ z).Na Tabela 2, usa-se o fato de a distribuição normal ser simétricapara “economizar” no tamanho da tabela e apresenta-se, para cada z > 0, tab(z) = Pr(0 ≤ Z ≤ z).

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 96

Figura 5.5: Ilustração da propriedade (5.18)

Page 51: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 97

A partir de qualquer uma delas é possível calcular a probabilidade de qualquer evento associado àdistribuição normal.

5.5 Exemplos

Seja Z ∼ N(0, 1). Calcule:

1. Pr (0 ≤ Z ≤ 1)Essa probabilidade corresponde à área sombreada na Figura 5.6. Pela Tabela 1, temos:

Pr (0 ≤ Z ≤ 1) = Φ(1)−Φ(0) = 0, 84134− 0, 5 = 0, 34134

Pela Tabela 2, temos que

Pr (0 ≤ Z ≤ 1) = tab(1) = 0, 34134

onde tab(z) representa o valor dado na Tabela 2 correspondente à abscissa z.

Figura 5.6: Cálculo de probabilidades normais - Exemplo 1

2. Pr (1 ≤ Z < 2, 5)

Essa probabilidade corresponde à área sombreada na Figura 5.7. Pela Tabela 1, temos:

Pr (1 ≤ Z ≤ 2, 5) = Φ(2, 5)−Φ(1) = 0, 99379− 0, 84134 = 0, 15245

Pela Tabela 2, temos que

Pr (1 ≤ Z ≤ 2, 5) = tab(2, 5)− tab(1) = 0, 49379− 0, 34134 = 0, 15245

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 98

Figura 5.7: Cálculo de probabilidades normais - Exemplo 2

3. Pr(−1 ≤ Z ≤ 0)Essa probabilidade corresponde à área sombreada na Figura 5.8. Pela Tabela 1, temos:

Pr (−1 < Z < 0) = Pr(−1 ≤ Z ≤ 0) = Φ(0)−Φ(−1) = 0, 5− 0, 15866 = 0, 34134Pela Tabela 2, temos que (note a simetria das áreas!)

Pr (−1 < Z < 0) = Pr(−1 ≤ Z ≤ 0) = Pr(0 ≤ Z ≤ 1) = tab(1) = 0, 34134

4. Pr (−1 < Z < 2)

Essa probabilidade corresponde à área sombreada na Figura 5.9. Pela Tabela 1, temos:

Pr (−1 < Z < 2) = Pr(−1 ≤ Z ≤ 2) = Φ(2, 0)−Φ(−1) = 0, 97725− 0, 15866 = 0, 81859Pela Tabela 2, temos que

Pr (−1 < Z < 2) = Pr (−1 ≤ Z ≤ 2) = Pr (−1 ≤ Z ≤ 0) + Pr (0 ≤ Z ≤ 2) == Pr (0 ≤ Z ≤ 1) + Pr (0 ≤ Z ≤ 2) == tab(1, 0) + tab(2, 0) = 0, 34134 + 0, 47725 = 0, 81859

5. Pr (Z > 2, 0)

Essa probabilidade corresponde à área sombreada na Figura 5.10. Pela Tabela 1, temos:

Pr (Z > 2) = 1− Pr(Z ≤ 2) = 1−Φ(2, 0) = 1− 0, 97725 = 0, 02275Pela Tabela 2, temos que

Pr (Z > 2) = 0, 5− Pr (0 ≤ Z ≤ 2) = 0, 5− 0, 47725 = 0, 02275

Page 52: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 99

Figura 5.8: Cálculo de probabilidades normais - Exemplo 3

Figura 5.9: Cálculo de probabilidades normais - Exemplo 4

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 100

Figura 5.10: Cálculo de probabilidades normais - Exemplo 5

6. Pr (Z < −1, 5)Essa probabilidade corresponde à área sombreada na Figura 5.11. Pela Tabela 1, temos:

Pr (Z < −1, 5) = Pr(Z ≤ −1, 5) = Φ(−1, 5) = 0, 06681Pela Tabela 2, temos que (note a simetria das áreas!)

Pr (Z < −2) = Pr(Z > 2) = 0, 5− Pr (0 ≤ Z ≤ 2) = 0, 5− 0, 47725 = 0, 02275Quando a variável tem distribuição normal qualquer, basta usar o resultado (5.18).

7. Se X ∼ N (2, 4) calcule Pr (−1 ≤ X ≤ 5) . Temos que (veja Figura 5.12)

Pr (−1 ≤ X ≤ 5) = Pr

µ−1− 2√4≤ X − 2√

4≤ 5− 2√

4

¶= Pr (−1, 5 ≤ Z ≤ 1, 5) =

= 2Pr (0 ≤ Z ≤ 1, 5) = 2× tab(1, 5) = 2× 0, 43319 = 0, 86638

8. Se X ∼ N (−1, 9) calcule Pr (−1 ≤ X ≤ 5) . Temos que (veja Figura 5.13)

Pr (−1 ≤ X ≤ 9) = Pr

µ−1− (−1)√9

≤ X − (−1)√9

≤ 5− (−1)√9

¶= Pr (0 ≤ Z ≤ 2) =

= tab(2, 0) = 0, 47725

9. Se X ∼ N (3, 4) calcule Pr (−7 ≤ X ≤ 5) . Temos que (veja Figura 5.14)

Pr (−7 ≤ X ≤ 5) = Pr

µ−7− 3√4≤ X − 3√

4≤ 5− 3√

4

¶= Pr (−5 ≤ Z ≤ 1) =

= Pr (−5 ≤ Z ≤ 0) + Pr (0 ≤ Z ≤ 1) == Pr (0 ≤ Z ≤ 5) + tab(1, 0) = 0, 5 + 0, 34134 = 0, 84134

Page 53: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 101

Figura 5.11: Cálculo de probabilidades normais - Exemplo 6

Figura 5.12: Cálculo de probabilidades normais - Exemplo 7

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 102

Figura 5.13: Cálculo de probabilidades normais - Exemplo 8

Figura 5.14: Cálculo de probabilidades normais - Exemplo 9

Page 54: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 103

10. Se X ∼ N (μ, σ2) , calcule Pr (μ− 2σ ≤ X ≤ μ+ 2σ) . Temos que (veja Figura 5.15):

Pr (μ− 2σ ≤ X ≤ μ+ 2σ) = Pr

µμ− 2σ − μ

σ≤ Z ≤ μ+ 2σ − μ

σ

¶=

= Pr (−2 ≤ Z ≤ 2) = 2× Pr (0 ≤ Z ≤ 2) == 2× tab(2, 0) = 2× 0, 47725 = 0, 9545 ' 95%

Note que essa probabilidade não depende dos parâmetros μ e σ. Isso significa que a probabi-lidade de uma v.a. normal estar compreendida entre dois desvios padrões em torno da médiaé sempre 95%!

Figura 5.15: Cálculo de probabilidades normais - Exemplo 10

11. Se X ∼ N(2; 9), encontre o valor de k tal que Pr(X < k) = 0, 95.

Solução:

Aqui, estamos analisando um problema inverso: dada a probabilidade de um evento, queremosencontrar a abscissa correspondente. Nesse exemplo, podemos observar que a abscissa k temque estar do lado direito da curva, ou seja, acima da média, uma vez que a probabilidadeabaixo dela tem que ser maior do que 0,5.

Para resolver este problema, devemos, como antes, obter a probabilidade equivalente emtermos da normal padrão (veja a Figura 5.16):

Pr(X < k) = 0, 95⇐⇒ Pr

µX − 23

<k − 23

¶= 0, 95⇐⇒

Pr

µZ <

k − 23

¶= 0, 95⇐⇒ Pr(Z < 0) + Pr

µ0 ≤ Z <

k − 23

¶= 0, 95⇐⇒

0, 5 + tab

µk − 23

¶= 0, 95⇐⇒ tab

µk − 23

¶= 0, 45

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 104

Então, na Tabela 2, temos que procurar, no corpo da tabela, a abscissa que corresponde àárea de 0,45. É fácil ver que essa abscissa é 1,64, ou seja:

k − 23

= 1, 64 =⇒ k = 2 + 3× 1.64 = 6, 92

Figura 5.16: Determinação de abscissas de curvas normais - Exemplo 11

12. Se X ∼ N(2; 9), encontre o valor de k tal que Pr(X < k) = 0, 10.

Solução:

Como no exemplo anterior, dada a probabilidade de um evento, queremos encontrar a abscissacorrespondente. Nesse exemplo, podemos observar que a abscissa k tem que estar do ladoesquerdo da curva, ou seja, abaixo da média, uma vez que a probabilidade abaixo dela temque ser menor do que 0,5.

Em termos da probabilidade equivalente da normal padrão :

Pr(X < k) = 0, 10⇐⇒ Pr

µX − 23

<k − 23

¶= 0, 10⇐⇒ Pr

µZ <

k − 23

¶= 0, 10

Veja a Figura 5.17. Se abaixo da abscissa k−23temos área de 0,10, pela simetria da curva,

temso que ter área 0,10 acima da abscissa simétrica. Ou seja, acima de −k−23temos área 0,10

e, portanto, a área entre 0 e −k−23tem que ser 0,40.

Pr

µZ <

k − 23

¶= 0, 10⇐⇒ Pr

µZ > −k − 2

3

¶= 0, 10⇐⇒

Pr

µ0 ≤ Z ≤ −k − 2

3

¶= 0, 40⇐⇒ tab

µ−k − 2

3

¶= 0, 40⇐⇒

−k − 23

= 1, 28⇐⇒−k + 2 = 3, 84⇐⇒ k = −1, 84

Page 55: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 105

Figura 5.17: Determinação de abscissas de curvas normais - Exemplo 12

5.6 A distribuição log-normal

5.6.1 Definição

Seja X ∼ N(μ, σ2). Se definimos uma nova v.a. Y = eX então diz-se que Y tem distribuição log-normal com parâmetros μ e σ2. Reciprocamente, se Y tem distribuição log-normal, então X = lnYtem distribuição N(μ, σ2).Vamos calcular a f.d.p. de uma v.a. log-normal a partir de sua função de distribuição acumulada.

Note que Y só pode assumir valores positivos. Temos que:

FY (y) = Pr (Y ≤ y) = Pr¡eX ≤ y

¢= Pr (X ≤ ln y) =

= Pr

µX − μ

σ≤ ln y − μ

σ

¶= Pr

µZ ≤ ln y − μ

σ

¶= Φ

µln y − μ

σ

¶y > 0

Sabemos que fY (y) = F 0(y) e, também, no caso da normal padrão, Φ0(z) = ϕ(z). Logo, pelaregra da cadeia,

fY (y) = Φ0µln y − μ

σ

¶× 1

σy= ϕ

µln y − μ

σ

¶× 1

σy=

=1√2πexp

"−12

µln y − μ

σ

¶2#× 1

σy

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 106

ou ainda:

fY (y) =1

y√2πσ2

exp

"−12

µln y − μ

σ

¶2#y > 0

5.6.2 Esperança

A esperança de Y é:

E(Y ) =

Z ∞

0

y1

y√2πσ2

exp

"−12

µln y − μ

σ

¶2#dy

Fazendo a mudança de variável

• t = ln y

temos que

• y = 0⇒ t = −∞• y =∞⇒ t =∞• dt = 1

ydy

• y = et

e, portanto

E(Y ) =1√2πσ2

Z ∞

−∞et exp

"−12

µt− μ

σ

¶2#dt =

1√2πσ2

Z ∞

−∞exp

"−12

µt− μ

σ

¶2+ t

#dt

=1√2πσ2

Z ∞

−∞exp

∙−t

2 − 2tμ+ μ2 − 2σ2t2σ2

¸dt =

=1√2πσ2

Z ∞

−∞exp

∙−t

2 − 2t (μ+ σ2) + μ2

2σ2

¸dt

=1√2πσ2

Z ∞

−∞exp

∙−t

2 − 2t (μ+ σ2)

2σ2

¸exp

µ− μ2

2σ2

¶dt =

= exp

µ− μ2

2σ2

¶1√2πσ2

∞Z−∞

exp

"−t

2 − 2t (μ+ σ2) + (μ+ σ2)2 − (μ+ σ2)

2

2σ2

#dt

= exp

µ− μ2

2σ2

¶1√2πσ2

∞Z−∞

exp

(− [t− (μ+ σ2)]

2

2σ2

)exp

Ã(μ+ σ2)

2

2σ2

!dt

= exp

Ã− μ2

2σ2+(μ+ σ2)

2

2σ2

!⎡⎣ 1√2πσ2

∞Z−∞

exp

(− [t− (μ+ σ2)]

2

2σ2

)dt

⎤⎦

Page 56: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 107

Mas o termo entre os colchetes externos é a integral de uma densidade normal com médiaλ = (μ+ σ2) e variância σ2; logo, essa integral é 1 e, portanto:

E(Y ) = exp

Ã− μ2

2σ2+(μ+ σ2)

2

2σ2

!= exp

µ−μ2 + μ2 + 2μσ2 + σ4

2σ2

¶⇒

E(Y ) = exp

µμ+

σ2

2

¶(5.19)

5.6.3 Variância

Vamos calcular de modo análogo E(Y 2), usando a mesma transformação:

E(Y 2) =

Z ∞

0

y21

y√2πσ2

exp

"−12

µln y − μ

σ

¶2#dy

=1√2πσ2

Z ∞

−∞e2t exp

"−12

µt− μ

σ

¶2#dt =

1√2πσ2

Z ∞

−∞exp

"−12

µt− μ

σ

¶2+ 2t

#dt

=1√2πσ2

Z ∞

−∞exp

∙−t

2 − 2tμ+ μ2 − 4σ2t2σ2

¸dt =

=1√2πσ2

Z ∞

−∞exp

∙−t

2 − 2t (μ+ 2σ2) + μ2

2σ2

¸dt

=1√2πσ2

Z ∞

−∞exp

∙−t

2 − 2t (μ+ 2σ2)2σ2

¸exp

µ− μ2

2σ2

¶dt =

= exp

µ− μ2

2σ2

¶1√2πσ2

∞Z−∞

exp

"−t

2 − 2t (μ+ 2σ2) + (μ+ 2σ2)2 − (μ+ 2σ2)22σ2

#dt

= exp

µ− μ2

2σ2

¶1√2πσ2

∞Z−∞

exp

(− [t− (μ+ 2σ

2)]2

2σ2

)exp

Ã(μ+ 2σ2)

2

2σ2

!dt

= exp

Ã− μ2

2σ2+(μ+ 2σ2)

2

2σ2

!⎡⎣ 1√2πσ2

∞Z−∞

exp

(− [t− (μ+ 2σ

2)]2

2σ2

)dt

⎤⎦Como antes, o termo entre os colchetes externos é 1 porque é a integral de uma densidade normalcom média μ+ 2σ2 e variância σ2. Logo,

E(Y 2) = exp

Ã− μ2

2σ2+(μ+ 2σ2)

2

2σ2

!= exp

µ−μ2 + μ2 + 4μσ2 + 4σ4

2σ2

¶⇒

E(Y 2) = exp¡2μ+ 2σ2

¢

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 108

e

Var(Y ) = exp¡2μ+ 2σ2

¢− ∙expµμ+ σ2

2

¶¸2=

= exp¡2μ+ 2σ2

¢− exp ∙2µμ+ σ2

2

¶¸=

= exp¡2μ+ 2σ2

¢− exp ¡2μ+ σ2¢

= exp¡2μ+ σ2

¢ ∙exp (2μ+ 2σ2)exp (2μ+ σ2)

− 1¸=

= exp¡2μ+ σ2

¢ £exp

¡2μ+ 2σ2 − 2μ− σ2

¢− 1¤ == exp

¡2μ+ σ2

¢ £expσ2 − 1¤

Definindo m = E(X) = exp³μ+ σ2

2

´, temos que m2 = exp (2μ+ σ2) . Logo,

Var(Y ) = m2heσ

2i− 1 (5.20)

5.7 Exemplo: qui-quadrado e normal

Seja Z ∼ N(0; 1) e considere Y = Z2. Para y > 0 temos

FY (y) = Pr(Y ≤ y) = Pr(Z2 ≤ y)

= Pr (−√y ≤ Z ≤ √y)= FZ (

√y)− FZ (−√y)

= Φ (√y)−Φ (−√y)

e, portanto

fY (y) =d

dy[Φ (√y)]− d

dy[Φ (−√y)]

= Φ0 (√y)

1

2√y−Φ0 (−√y)

µ− 1

2√y

¶= ϕ (

√y)

1

2√y+ ϕ (−√y) 1

2√y

=1√2πexp

Ã−¡√

y¢22

!1

2√y+

1√2πexp

Ã−¡−√y¢22

!1

2√y

= 2×∙1√2πexp

³−y2

´ 1

2√y

¸=

1√π√2exp

³−y2

´y−1/2

=1

Γ¡12

¢21/2

y1/2−1e−y/2

Page 57: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 109

Comparando com a densidade qui-quadrado dada em (3.17)

f(x) =1

Γ(n2)2n/2

xn/2−1e−x/2 se x > 0

vemos que fY (y) é uma qui-quadrado com 1 grau de liberdade, ou seja, se Z ∼ N(0; 1), então Z2

∼ χ2(1). Este resultado se generaliza da seguinte forma: se Z1, Z2, . . . , Zn são variáveis aleatóriasindependentes, todas com distribuição normal padrão, então Y = Z21+Z

22+. . .+Z

2n tem distribuição

qui-quadrado com n graus de liberdade.

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 110

9 8 7 6 5 4 3 2 1 0-3,5 0,00017 0,00017 0,00018 0,00019 0,00019 0,00020 0,00021 0,00022 0,00022 0,00023-3,4 0,00024 0,00025 0,00026 0,00027 0,00028 0,00029 0,00030 0,00031 0,00032 0,00034-3,3 0,00035 0,00036 0,00038 0,00039 0,00040 0,00042 0,00043 0,00045 0,00047 0,00048-3,2 0,00050 0,00052 0,00054 0,00056 0,00058 0,00060 0,00062 0,00064 0,00066 0,00069-3,1 0,00071 0,00074 0,00076 0,00079 0,00082 0,00084 0,00087 0,00090 0,00094 0,00097-3,0 0,00100 0,00104 0,00107 0,00111 0,00114 0,00118 0,00122 0,00126 0,00131 0,00135-2,9 0,00139 0,00144 0,00149 0,00154 0,00159 0,00164 0,00169 0,00175 0,00181 0,00187-2,8 0,00193 0,00199 0,00205 0,00212 0,00219 0,00226 0,00233 0,00240 0,00248 0,00256-2,7 0,00264 0,00272 0,00280 0,00289 0,00298 0,00307 0,00317 0,00326 0,00336 0,00347-2,6 0,00357 0,00368 0,00379 0,00391 0,00402 0,00415 0,00427 0,00440 0,00453 0,00466-2,5 0,00480 0,00494 0,00508 0,00523 0,00539 0,00554 0,00570 0,00587 0,00604 0,00621-2,4 0,00639 0,00657 0,00676 0,00695 0,00714 0,00734 0,00755 0,00776 0,00798 0,00820-2,3 0,00842 0,00866 0,00889 0,00914 0,00939 0,00964 0,00990 0,01017 0,01044 0,01072-2,2 0,01101 0,01130 0,01160 0,01191 0,01222 0,01255 0,01287 0,01321 0,01355 0,01390-2,1 0,01426 0,01463 0,01500 0,01539 0,01578 0,01618 0,01659 0,01700 0,01743 0,01786-2,0 0,01831 0,01876 0,01923 0,01970 0,02018 0,02068 0,02118 0,02169 0,02222 0,02275-1,9 0,02330 0,02385 0,02442 0,02500 0,02559 0,02619 0,02680 0,02743 0,02807 0,02872-1,8 0,02938 0,03005 0,03074 0,03144 0,03216 0,03288 0,03362 0,03438 0,03515 0,03593-1,7 0,03673 0,03754 0,03836 0,03920 0,04006 0,04093 0,04182 0,04272 0,04363 0,04457-1,6 0,04551 0,04648 0,04746 0,04846 0,04947 0,05050 0,05155 0,05262 0,05370 0,05480-1,5 0,05592 0,05705 0,05821 0,05938 0,06057 0,06178 0,06301 0,06426 0,06552 0,06681-1,4 0,06811 0,06944 0,07078 0,07215 0,07353 0,07493 0,07636 0,07780 0,07927 0,08076-1,3 0,08226 0,08379 0,08534 0,08692 0,08851 0,09012 0,09176 0,09342 0,09510 0,09680-1,2 0,09853 0,10027 0,10204 0,10383 0,10565 0,10749 0,10935 0,11123 0,11314 0,11507-1,1 0,11702 0,11900 0,12100 0,12302 0,12507 0,12714 0,12924 0,13136 0,13350 0,13567-1,0 0,13786 0,14007 0,14231 0,14457 0,14686 0,14917 0,15151 0,15386 0,15625 0,15866-0,9 0,16109 0,16354 0,16602 0,16853 0,17106 0,17361 0,17619 0,17879 0,18141 0,18406-0,8 0,18673 0,18943 0,19215 0,19489 0,19766 0,20045 0,20327 0,20611 0,20897 0,21186-0,7 0,21476 0,21770 0,22065 0,22363 0,22663 0,22965 0,23270 0,23576 0,23885 0,24196-0,6 0,24510 0,24825 0,25143 0,25463 0,25785 0,26109 0,26435 0,26763 0,27093 0,27425-0,5 0,27760 0,28096 0,28434 0,28774 0,29116 0,29460 0,29806 0,30153 0,30503 0,30854-0,4 0,31207 0,31561 0,31918 0,32276 0,32636 0,32997 0,33360 0,33724 0,34090 0,34458-0,3 0,34827 0,35197 0,35569 0,35942 0,36317 0,36693 0,37070 0,37448 0,37828 0,38209-0,2 0,38591 0,38974 0,39358 0,39743 0,40129 0,40517 0,40905 0,41294 0,41683 0,42074-0,1 0,42465 0,42858 0,43251 0,43644 0,44038 0,44433 0,44828 0,45224 0,45620 0,460170,0 0,46414 0,46812 0,47210 0,47608 0,48006 0,48405 0,48803 0,49202 0,49601 0,50000

Tabela 1

Normal PadrãoFunção de Distribuição Acumulada

)Pr()(

)1;0(~

zZz

NZ

≤=Φ

Page 58: Material estatística UFF demonstração das medias e var

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 111

0 1 2 3 4 5 6 7 8 90,0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,535860,1 0,53983 0,54380 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,575350,2 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,614090,3 0,61791 0,62172 0,62552 0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,651730,4 0,65542 0,65910 0,66276 0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,687930,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,722400,6 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,754900,7 0,75804 0,76115 0,76424 0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,785240,8 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,813270,9 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,838911,0 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,862141,1 0,86433 0,86650 0,86864 0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,882981,2 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,901471,3 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91308 0,91466 0,91621 0,917741,4 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,931891,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,944081,6 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,954491,7 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,963271,8 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,970621,9 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,976702,0 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,981692,1 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,985742,2 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,988992,3 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,991582,4 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,993612,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,995202,6 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,996432,7 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,997362,8 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,998072,9 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,998613,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,999003,1 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,999293,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,999503,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,999653,4 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,999763,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983

Tabela 1Função de Distribuição Acumulada

Normal Padrão

)Pr()(

)1;0(~

zZz

NZ

≤=Φ

CAPÍTULO 5. A DISTRIBUIÇÃO NORMAL 112

0 1 2 3 4 5 6 7 8 9

0,0 0,0000 0,0040 0,0080 0,0120 0,0160 0,0199 0,0239 0,0279 0,0319 0,0359

0,1 0,0398 0,0438 0,0478 0,0517 0,0557 0,0596 0,0636 0,0675 0,0714 0,0753

0,2 0,0793 0,0832 0,0871 0,0910 0,0948 0,0987 0,1026 0,1064 0,1103 0,1141

0,3 0,1179 0,1217 0,1255 0,1293 0,1331 0,1368 0,1406 0,1443 0,1480 0,1517

0,4 0,1554 0,1591 0,1628 0,1664 0,1700 0,1736 0,1772 0,1808 0,1844 0,1879

0,5 0,1915 0,1950 0,1985 0,2019 0,2054 0,2088 0,2123 0,2157 0,2190 0,2224

0,6 0,2257 0,2291 0,2324 0,2357 0,2389 0,2422 0,2454 0,2486 0,2517 0,2549

0,7 0,2580 0,2611 0,2642 0,2673 0,2704 0,2734 0,2764 0,2794 0,2823 0,2852

0,8 0,2881 0,2910 0,2939 0,2967 0,2995 0,3023 0,3051 0,3078 0,3106 0,3133

0,9 0,3159 0,3186 0,3212 0,3238 0,3264 0,3289 0,3315 0,3340 0,3365 0,3389

1,0 0,3413 0,3438 0,3461 0,3485 0,3508 0,3531 0,3554 0,3577 0,3599 0,3621

1,1 0,3643 0,3665 0,3686 0,3708 0,3729 0,3749 0,3770 0,3790 0,3810 0,3830

1,2 0,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015

1,3 0,4032 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131 0,4147 0,4162 0,4177

1,4 0,4192 0,4207 0,4222 0,4236 0,4251 0,4265 0,4279 0,4292 0,4306 0,4319

1,5 0,4332 0,4345 0,4357 0,4370 0,4382 0,4394 0,4406 0,4418 0,4429 0,4441

1,6 0,4452 0,4463 0,4474 0,4484 0,4495 0,4505 0,4515 0,4525 0,4535 0,4545

1,7 0,4554 0,4564 0,4573 0,4582 0,4591 0,4599 0,4608 0,4616 0,4625 0,4633

1,8 0,4641 0,4649 0,4656 0,4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706

1,9 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767

2,0 0,4772 0,4778 0,4783 0,4788 0,4793 0,4798 0,4803 0,4808 0,4812 0,4817

2,1 0,4821 0,4826 0,4830 0,4834 0,4838 0,4842 0,4846 0,4850 0,4854 0,4857

2,2 0,4861 0,4864 0,4868 0,4871 0,4875 0,4878 0,4881 0,4884 0,4887 0,4890

2,3 0,4893 0,4896 0,4898 0,4901 0,4904 0,4906 0,4909 0,4911 0,4913 0,4916

2,4 0,4918 0,4920 0,4922 0,4925 0,4927 0,4929 0,4931 0,4932 0,4934 0,4936

2,5 0,4938 0,4940 0,4941 0,4943 0,4945 0,4946 0,4948 0,4949 0,4951 0,4952

2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964

2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974

2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981

2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986

3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990

3,1 0,4990 0,4991 0,4991 0,4991 0,4992 0,4992 0,4992 0,4992 0,4993 0,4993

3,2 0,4993 0,4993 0,4994 0,4994 0,4994 0,4994 0,4994 0,4995 0,4995 0,4995

3,3 0,4995 0,4995 0,4995 0,4996 0,4996 0,4996 0,4996 0,4996 0,4996 0,4997

3,4 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4998

3,5 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998

3,6 0,4998 0,4998 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999

3,7 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999

3,8 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999

3,9 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000

4,0 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000

Segunda casa decimalCasa

inteira e primeira decimal

Tabela 2

A tabela dá P(0 < Z < z)

Distribuição Normal Padrão Z ~N();1)