04 probabilidade

39
Capítulo 4 Distribuições de Probabilidade Uma distribuição de probabilidade atribui uma probabilidade a cada valor da variável aleatória ou a cada intervalo de valores. Quando tratamos com variáveis que podem assumir apenas valores discretos, a cada possível valor da variável podemos associar a no máximo um valor de probabilidade. Temos, assim, a noção de função de um conjunto para outro conjunto, de modo que o primeiro conjunto contém os valores possíveis da variável aleatória e o segundo conjunto contém as probabilidades. Para variáveis que assumem valores contínuos em , temos que as variáveis são definidas num dado intervalo de números reais e as probabilidades pertencem ao intervalo ] 1 , 0 [ . No caso discreto, para um certo valor i x do primeiro conjunto associamos diretamente a probabilidade de sua ocorrência, que é designada por ) ( i x P . Por outro lado, para o caso contínuo, não tem sentido o cálculo da probabilidade para um valor especificado de x . Trabalhamos então com a noção de função densidade de probabilidade, que no caso unidimensional é uma função real, isto é, : f , que permite calcular as probabilidades associadas uma variável aleatória contínua. A exemplo dos modelos matemáticos determinísticos, nos quais as funções desempenham importante papel (por exemplo, a linear, a quadrática, a exponencial, a trigonométrica, etc.), verificamos também que, na obtenção de modelos estocásticos para problemas do mundo real, algumas distribuições de probabilidade surgem mais freqüentemente que outras. Neste capítulo estudaremos as distribuições de probabilidade de variáveis discretas, a binomial, a hipergeométrica, a uniforme e a distribuição de Poisson, e também as distribuições de probabilidade de variáveis contínuas, a retangular ou uniforme continua, a normal, a exponencial e a distribuição de Erlang. Antes de iniciarmos o estudo das distribuições de probabilidade, faremos uma breve revisão do conceito de probabilidade. Após esta revisão trataremos dos modelos empíricos e dos modelos teóricos no estudo de probabilidades.

Upload: -

Post on 27-Jul-2015

139 views

Category:

Documents


14 download

TRANSCRIPT

Capítulo 4

Distribuições de Probabilidade

Uma distribuição de probabilidade atribui uma probabilidade a cada valor da

variável aleatória ou a cada intervalo de valores. Quando tratamos com variáveis que podem

assumir apenas valores discretos, a cada possível valor da variável podemos associar a no

máximo um valor de probabilidade. Temos, assim, a noção de função de um conjunto para

outro conjunto, de modo que o primeiro conjunto contém os valores possíveis da variável

aleatória e o segundo conjunto contém as probabilidades. Para variáveis que assumem valores

contínuos em ℜ , temos que as variáveis são definidas num dado intervalo de números reais e

as probabilidades pertencem ao intervalo ]1,0[ . No caso discreto, para um certo valor ix do

primeiro conjunto associamos diretamente a probabilidade de sua ocorrência, que é designada

por )( ixP . Por outro lado, para o caso contínuo, não tem sentido o cálculo da probabilidade

para um valor especificado de x . Trabalhamos então com a noção de função densidade de

probabilidade, que no caso unidimensional é uma função real, isto é, ℜ→ℜ:f , que permite

calcular as probabilidades associadas uma variável aleatória contínua.

A exemplo dos modelos matemáticos determinísticos, nos quais as funções

desempenham importante papel (por exemplo, a linear, a quadrática, a exponencial, a

trigonométrica, etc.), verificamos também que, na obtenção de modelos estocásticos para

problemas do mundo real, algumas distribuições de probabilidade surgem mais

freqüentemente que outras. Neste capítulo estudaremos as distribuições de probabilidade de

variáveis discretas, a binomial, a hipergeométrica, a uniforme e a distribuição de Poisson, e

também as distribuições de probabilidade de variáveis contínuas, a retangular ou uniforme

continua, a normal, a exponencial e a distribuição de Erlang.

Antes de iniciarmos o estudo das distribuições de probabilidade, faremos

uma breve revisão do conceito de probabilidade. Após esta revisão trataremos dos modelos

empíricos e dos modelos teóricos no estudo de probabilidades.

108

4.1 Probabilidade

Um sonho humano sempre foi prever o futuro. No entanto, como este

intento não pode ser plenamente satisfeito, a existência de uma ‘medida’ que permita verificar

as chances de ocorrerem determinados acontecimentos ou eventos é um passo importante. Á

medida da incerteza associada a um dado evento damos o nome de probabilidade. A primeira

tarefa a ser empreendida trata-se de corretamente identificar todos os eventos ou

acontecimentos que de fato sejam possíveis em relação à situação que examinamos. Estamos

particularmente interessados em experiências cujos resultados são imprevisíveis e

mutuamente exclusivos. Isto significa que, em cada repetição dessa experiência é impossível

prever, com absoluta certeza, qual o resultado que será obtido e, além disso, a ocorrência de

um resultado exclui a ocorrência de qualquer um dos demais, o que quer dizer que, só um dos

eventos pode acontecer de cada vez. Toda experiência com essas características é chamada de

experimento aleatório, e seus possíveis resultados são chamados de eventos. Por último, resta-

nos verificar quais são os que possuem maiores ou menores “chances” de ocorrer.

O conceito de probabilidade está diretamente associado ao conceito de

conjunto e, também, à idéia de contagem dos elementos desse conjunto e dos elementos dos

seus subconjuntos.

Para cada experimento aleatório ε , definiremos o espaço amostral S como

o conjunto de todos os resultados possíveis de ε . Dado um experimento aleatório, os métodos

empíricos de cálculo de probabilidade caracterizam-se pela contagem ou enumeração

exaustiva dos elementos do espaço amostral S com a finalidade de obter a freqüência relativa

de certo evento A , sendo que A é um subconjunto de S , ou seja, SA ⊆ . O evento A

relativo a um particular espaço amostral S associado a um experimento ε é simplesmente

um conjunto de resultados possíveis. Aplicamos então a definição clássica de probabilidade.

Definição 4.1 (Probabilidade) Seja um experimento aleatório ε cujo espaço amostral é

caracterizado pelo conjunto S , e seja um evento aleatório caracterizado pelo conjunto A , a

probabilidade de ocorrência do evento A é a razão da cardinalidade de A e a cardinalidade

de S , conforme estabelece a expressão

||||

)(SA

AP = , (4.1)

109

onde, A e S são a quantidade de elementos do conjunto A e a quantidade de elementos do

conjunto S , respectivamente.

Apresentaremos a seguir um exemplo de aplicação da Definição 4.1.

Exemplo 4.1: A cesta ilustrada na Figura 4.1 contém seis bolas, sendo duas pretas e quatro

brancas.

Figura 4.1: Cesta com seis bolas.

Realizaremos o experimento aleatório que consistirá em retirar

simultaneamente duas bolas, anotar suas cores e em seguida devolvê-las à cesta. Qual é a

probabilidade de neste experimento retirar uma bola preta e a outra branca?

Vamos supor inicialmente como se as bolas brancas fossem identificadas

por números de 1 a 4 e as pretas por números de 1 a 2. Com o auxílio desse artifício

descreveremos o espaço amostral S associado a este experimento aleatório, representando as

bolas brancas por 421 ,,, bbb � e, as pretas, por 1p e 2p ,

}}.,{},,{},,{},,{},,{},,{},,{

},,{},,{},,{},,{},,{},,{},,{},,{{

21241423132212

2111434232413121

pppbpbpbpbpbpb

pbpbbbbbbbbbbbbbS =

O número de elementos do espaço amostral, ou seja, || S , é a combinação

simples de seis bolas tomadas duas a duas, isto é, 1526 =C .

O evento “uma bola preta e a outra branca” é um subconjunto de S

representado pelo conjunto A , mostrado a seguir:

}}.,{},,{},,{},,{},,{},,{},,{},,{{ 2414231322122111 pbpbpbpbpbpbpbpbA =

Aplicamos a Definição 4.1 e obtemos a solução,

110

158

||||

)( ==SA

AP .

A fórmula geral para o cálculo da probabilidade de exatamente x eventos

na amostra é

nN

xnDN

xD

C

CC −− ,

onde, N é o número de itens da coleção de objetos, D é o número desses objetos que gozam

de certa propriedade e n é o número de elementos da amostra.

O problema solucionado anteriormente é um exemplo do modelo estocástico

hipergeométrico.

A principal conclusão que extraímos desse exemplo é que a probabilidade

depende diretamente do conjunto que define o espaço amostral e do subconjunto que descreve

o evento que caracteriza objetivamente o processo que estamos estudando.

A seguir resolveremos um exemplo parecido com o Exemplo 4.1, de modo

que as alterações do enunciado levarão a um problema completamente diferente.

Exemplo 4.2: Considere a cesta ilustrada na Figura 4.1. Realizaremos o experimento aleatório

que consistirá em retirar uma bola anotar sua cor e devolvê-la à cesta e, em seguida, pegar

uma segunda bola e proceder do mesmo modo. Qual é a probabilidade de retirar uma bola

preta e a outra branca?

O número de elementos do espaço amostral, S , é 3662 = . Se fossemos

enumerar os elementos do espaço amostral, bastaria obter o produto cartesiano do conjunto

},,,,,{ 214321 ppbbbb com ele próprio. Neste caso, percebemos que a ordem de aparecimento

do elemento, ou seja, qual cor ocorre em primeiro lugar está em discussão, isto porque um

elemento é retirado e depois é retirado outro, diferentemente do que foi feito no Exemplo 4.1.

O evento “uma bola preta e a outra branca” é um subconjunto de S

representado por A , mostrado a seguir:

)}.,(),,(),,(),,(),,(),,(),,(),,(

),,(),,(),,(),,(),,(),,(),,(),,{(

4241323122211211

2414231322122111

bpbpbpbpbpbpbpbp

pbpbpbpbpbpbpbpbA =

111

Note que cada elemento do conjunto é um par ordenado, enquanto que, no

exemplo anterior, cada elemento era um conjunto de dois elementos.

Aplicamos a Definição 4.1 e obtemos a solução,

94)(

3616

||||

)( =→== APSA

AP .

Uma forma alternativa para solucionar o exemplo é a seguinte. As

probabilidades de retirar uma bola branca e de retirar uma preta, são, respectivamente, 32 e

31 . Se desenvolvermos o binômio 2

31

32 )( + obtemos

91

94

942

310

321

311

320

312

322

31

32 )()()()(2)()()( ++→++=+ .

A segunda parcela do desenvolvimento binomial corresponde à

probabilidade de retirar uma bola branca e uma preta (vide os expoentes). O expoente do

binômio é o número de tentativas no evento. A generalização desse procedimento nos levaria

a uma fórmula geral para o cálculo de probabilidade com reposição. Este exemplo

corresponde ao modelo estocástico binomial.

A probabilidade tal como estudada nesta seção não permite sua aplicação

em problemas complexos, uma vez que a contagem dos elementos do espaço amostral nem

sempre é trivial e a representação do fenômeno aleatório sob a forma de conjuntos não é

praticável em muitas situações.

Uma forma de trabalhar com probabilidade que permite o uso do

computador é a sua interpretação como freqüência relativa no contexto de um experimento

aleatório.

4.1.1 Probabilidade e freqüência relativa

Considere um experimento aleatório e um evento a ele associado, designado

por A . São realizadas, inicialmente, 1k repetições do experimento; depois 21 kk + repetições;

em seguida, 321 kkk ++ , continuando dessa maneira até realizarmos rkkkk ++++ �321

112

repetições do experimento. Seja n o número de repetições do experimento, isto é,

rkkkkn ++++= �321 , e )(An o número de vezes que o evento A ocorre, então a

freqüência relativa de A , )(Af , é

nAn

Af)(

)( = .

(4.2)

A freqüência relativa )(Af goza da seguinte propriedade: à medida que o

número de repetições do experimento aleatório for aumentado, a freqüência relativa baseada

neste número crescente de repetições tenderá a se ‘estabilizar’ próxima de algum valor

numérico definido (MEYER, 1980). Esta propriedade é descrita formalmente no Teorema 4.1,

que é atribuído a Bernoulli, 1713, e é conhecido como ‘Primeira Lei dos Grandes Números’.

Teorema 4.1: Quando o número de realizações de um experimento aleatório cresce muito, a

freqüência relativa do sucesso associado vai se aproximando cada vez mais de certo valor que

denominamos de probabilidade.

Este teorema nos fornece uma interpretação da probabilidade que é

adequada a cálculos com o computador. Esta noção é explorada exaustivamente no capítulo

deste livro que trata de Simulações.

Os fenômenos aleatórios podem ser descritos através de métodos empíricos

ou por meio de modelos teóricos de probabilidade. Utilizando uma distribuição empírica de

probabilidade seja no processo de simulação seja na solução de problemas de tomada de

decisão, estaremos limitando as possíveis ocorrências futuras às condições válidas no passado.

Alguns acontecimentos podem não ter tido oportunidade de ocorrência, o que impede sua

reprodução no futuro. Usando uma distribuição teórica de probabilidade nas condições

descritas, estaremos adicionando informações ao comportamento da variável, o que torna o

modelo mais apto a prever o futuro. Desta forma, sempre que houver condições favoráveis,

devemos optar pelo uso do modelo teórico ajustado ao invés do modelo empírico.

A seguir trataremos os métodos empíricos para depois abordarmos os

modelos teóricos.

4.2 Distribuição de probabilidade e variável aleatória

113

1 2 0 X

Com o objetivo de mostrar a relação entre a variável aleatória X e a

probabilidade )(XP , iniciaremos o estudo de distribuições de probabilidade analisando

alguns casos empíricos.

Exemplo 4.3: Consideremos o lançamento simultâneo de duas moedas, cujo espaço amostral é

)},(),,(),,(),,{( CoCoCaCoCoCaCaCaS = . A variável aleatória X representa o número de

caras que aparecem. Na Tabela 4.1 vemos a associação existente entre o evento ‘cara’, a

variável X e a probabilidade ).(XP

Tabela 4.1: Relações entre evento, variável aleatória e probabilidade.

Espaço amostral Número de caras )(X )(XP ),( CaCa 2

41

),( CoCa , ),( CaCo 1 2

14

14

1 =+

),( CoCo 0 4

1

Ao definirmos a distribuição de probabilidade estabelecemos uma

correspondência entre os valores da variável aleatória e os valores da probabilidade. A função

)()( ii xXPxf == determina a distribuição de probabilidade da variável aleatória X .

A Figura 4.2 ilustra a distribuição de probabilidade da Tabela 4.1.

Figura 4.2: Distribuição de probabilidade do evento ‘número de caras’.

O Exemplo 4.4 que será apresentado a seguir mostra a estreita relação

existente entre distribuição de freqüência e distribuição de probabilidade.

Exemplo 4.4: Após 30 dias de observações o número de acidentes diários num grande

estacionamento de veículos foi catalogado. A Tabela 4.2 mostra os dados obtidos.

21

41

)(XP

114

Tabela 4.2: Distribuição de freqüência de acidentes num estacionamento.

Número de acidentes Freqüência 0 22 1 5 2 2 3 1 30=�i if

As probabilidades são obtidas dividindo as freqüências pelo total de

observações. A Tabela 4.3 mostra a distribuição de probabilidade para este problema.

Tabela 4.3: Distribuição de probabilidade de acidentes num estacionamento.

Número de acidentes Probabilidade 0 0,73 1 0,17 2 0,07 3 0,03 � = 00,1)(XP

Devemos ressaltar que a associação entre freqüência relativa e probabilidade

só é possível se o número de observações for suficientemente grande.

Exemplo 4.5: No lançamento de dois dados são observados os números de pontos das faces

que saem voltadas para cima. Definimos uma variável aleatória X que é igual à soma dos

pontos das faces de cima de ambos os dados. Os resultados possíveis são catalogados e estão

apresentados na Tabela 4.4.

Tabela 4.4: Distribuição de probabilidade de X .

X 2 3 4 5 6 7 8 9 10 11 12 )(XP 36

1 362 36

3 364 36

5 366 36

5 364 36

3 362 36

1

A Figura 4.3 representa graficamente XXP ×)( , sob a forma de histograma.

115

12111098765432

Figura 4.3: Distribuição de probabilidade do evento ‘soma dos pontos das faces de dois

dados’.

A seguir são apresentadas duas definições fundamentais no estudo de

processos estocásticos.

4.2.1 Esperança matemática e variância de uma variável aleatória discreta

Definimos esperança matemática de uma variável aleatória discreta X

como a soma de todos os produtos possíveis dos valores da variável aleatória pelas

respectivas probabilidades. Através da expressão (4.3) definimos a esperança matemática

)(XE .

�=∞

=1),()(

iii xPxXE

(4.3)

onde, )(XE é a média ponderada dos possíveis valores de X , cada um ponderado por sua

probabilidade.

No contexto do estudo de probabilidades, esperança (ou valor esperado)

possui o mesmo significado de média, por isso, é muitas vezes designado por x quando se

trata de amostra e µ para uma população.

Definimos variância de uma variável aleatória como a esperança matemática

do quadrado da diferença entre a variável aleatória e sua média, ou seja,

365

61

91

121

181

361

)(XP

116

2))(()( XEXEXV −= . (4.4)

A expressão (4.4) advém da definição clássica de variância, que é a

seguinte:

1

)(1

2

)( −

� −==

N

xxN

ii

XV ,

onde, N é o número de elementos da amostra e 1−N é o número de graus de liberdade.

Após desenvolvimentos, a definição de variância pode ser expressa

conforme mostrada em (4.5).

22 )]([)()( XEXEXV −= , (4.5)

onde, �= )()( 22ii xPxXE e 2)]([ XE é o quadrado da esperança matemática )(XE .

Ressaltamos que a variância é igual ao desvio padrão ao quadrado, isto é,

2)( sXV = , onde s é o desvio padrão amostral.

Agora estamos preparados para estudar os modelos teóricos de

probabilidade. Iniciaremos o estudo com distribuições de variáveis aleatórias discretas.

4.3 Distribuição hipergeométrica

A distribuição hipergeométrica é a distribuição de probabilidade discreta

mais elementar e é aplicável aos casos de amostragens sem reposição. Consideremos uma

coleção de N itens, sendo que D desses itens tenham certa propriedade e o restante, DN − ,

não tenha esta propriedade. Se a amostra de n itens for retirada sem reposição, então a

probabilidade de exatamente x eventos na amostra é obtida pela relação (4.6):

nN

xD

xnDN

C

CCxXP

−−== )( .

(4.6)

O valor esperado de uma variável hipergeométrica é dado pela expressão

(4.7).

117

ND

nXE =)( .

(4.7)

A variância de uma variável hipergeométrica é dada pela expressão (4.8).

��

���

−−

��

���

� −=1

1)(N

nNND

ND

nXV .

(4.8)

Apresentamos a seguir um exemplo para ilustrar a aplicação da distribuição

de probabilidade hipergeométrica.

Exemplo 4.6: Em um lote de doze peças do mesmo modelo, quatro são defeituosas. Sendo

retiradas aleatoriamente duas peças, qual é a probabilidade de ambas serem defeituosas?

A primeira pergunta que surge é se o experimento é feito sem reposição ou

com reposição. Vamos resolver o problema considerando sem reposição, que é o caso da

distribuição hipergeométrica. Primeiramente, analisemos a retirada de duas peças por meio de

um processo empírico.

Para utilizarmos o método empírico direto, estabelecemos as seguintes

definições:

evento A ={ primeira peça defeituosa };

evento B = { segunda peça defeituosa }.

A probabilidade de retirarmos uma peça defeituosa é124

)( =AP .

Supondo que os eventos A e B sejam dependentes, ou seja, a peça retirada

no evento A afeta a probabilidade de retirada da segunda peça, a probabilidade de retirarmos

simultaneamente duas peças defeituosas é o produto da probabilidade do evento A e a

probabilidade do evento B tendo em vista que A ocorreu.

111

113

124

)()()( =×=×=∧ ABPAPBAP .

Agora, resolveremos o mesmo problema (Exemplo 4.6) aplicando a

definição de distribuição hipergeométrica.

118

Supondo que não haja reposição no experimento teremos a distribuição

hipergeométrica. O experimento aleatório em que são retiradas peças defeituosas de um lote

de peças é um exemplo típico de aplicação da distribuição hipergeométrica.

Pela definição dada em (4.6), a propriedade que é referida pode ser ‘o

defeito das peças’. Portanto, temos 4=D peças com esta propriedade; 12=N peças no lote.

Desejamos calcular a probabilidade de retirar duas peças com defeito, sem

reposição, então: a amostra retirada tem 2=n itens; como queremos duas defeituosas implica

que o número de eventos é 2=x ; portanto, a probabilidade é

111

6661

)2(212

24

08

212

24

228 =×====

C

CC

C

CCxP .

Um método de verificação dos resultados obtidos passa pela enumeração

dos elementos do espaço amostral, o qual denominamos de método empírico enumerativo, é

apresentado a seguir.

Suponhamos que as peças sejam representadas por letras,

lkjihgfedcba ,,,,,,,,,,, . Imaginemos que as peças dcba ,,, sejam as quatro defeituosas

do lote. Formando subconjuntos de duas peças, teremos o espaço amostral S . O total de

elementos de S é 66!)212(!2

!12212 =

−=C elementos, uma vez que a ordem que as peças

aparecem no grupo não é importante. O evento ‘duas peças defeituosas’ é representado pelo

subconjunto }},{},,{},,{},,{},,{},,{{ dcdbcbdacabaA = . Aplicamos a Definição 4.1 e

obtemos 111

666

)( ==AP . Esta é a probabilidade de retirar exatamente duas peças sem

reposição (retirar uma peça, não repô-la no lote e depois retirar uma segunda peça).

4.4 Distribuição binomial

Antes de introduzir a distribuição binomial, primeiramente vamos relembrar

o desenvolvimento do binômio )( pq + elevado ao expoente inteiro n . Segundo o Teorema

Binomial, temos o somatório:

knkn

k

kn

n qpCqp −

=�=+

0)( .

119

O número ���

����

�=

k

nCk

n é conhecido como coeficiente binomial e é definido

pela relação (4.9):

!)(!!

knkn

Ck

n kn −

==���

����

�.

(4.9)

Definimos a variável aleatória X como o número de sucessos nas n

tentativas. Logo, X pode assumir os valores n,,3,2,1,0 � . Para xX = , temos x sucessos

e xn − fracassos, então a distribuição binomial é expressa pela relação (4.10):

xnxxn qpCxXP −== )( , (4.10)

onde: )( xXP = é a probabilidade de exatamente x eventos em n tentativas independentes;

p é a probabilidade do evento numa tentativa;

q é a probabilidade de que o evento não ocorra na mesma tentativa, 1=+ pq .

Ao aplicarmos as definições (4.3) e (4.4), concluímos que o valor esperado

da distribuição binomial é np e sua variância é npq .

As condições para aplicação da distribuição binomial requerem que os

eventos sejam independentes e complementares, e que devemos conhecer a probabilidade do

sucesso de uma tentativa, p , e a probabilidade do insucesso, q , além do que as

probabilidades p e q devem manter-se constantes no decorrer do experimento (isto é, com

reposição).

A distribuição binomial de probabilidade é adequada aos experimentos que

apresentam apenas dois resultados: sucesso ou fracasso. A condição que exige que as

probabilidades p e q sejam constantes é satisfeita tirando-se amostras e repondo no universo

cada unidade amostral retirada.

Para ilustrar a distribuição binomial consideremos o Exemplo 4.7, que é o

mesmo Exemplo 4.6 com a diferença de que há reposição ao retirar as duas peças.

Exemplo 4.7: Em um lote de doze peças do mesmo modelo, quatro são defeituosas. São

retiradas aleatoriamente duas peças, uma após a outra e com reposição. Qual é a probabilidade

de ambas as peças serem defeituosas?

120

Consideremos que o sucesso consiste em retirar uma peça defeituosa do lote

de doze, em que existem quatro defeituosas. Então, a probabilidade do sucesso é31

124 ==p

para uma tentativa. Não retirar uma peça defeituosa corresponde à probabilidade

complementar, 32

31

11 =−=−= pq ou 128=q .

Identificamos os parâmetros .eventos2,tentativas2 == xn São duas

tentativas porque retiramos uma peça e depois a outra. Aplicamos a expressão (4.10) para o

cálculo da probabilidade de ocorrer exatamente duas peças defeituosas,

91

32

31

)2(02

22 =�

���

���

���

�== CxP .

Eis mais um exemplo de aplicação do modelo binomial.

Exemplo 4.8: Considere um processo de fabricação onde a probabilidade de ocorrência de um

item defeituoso é de 0,2. Se tirarmos uma amostra de vinte itens, qual é a probabilidade de

ocorrerem menos de três itens defeituosos na amostra?

A probabilidade de ocorrência de menos de três itens significa o seguinte:

nenhum item defeituoso, um item ou dois itens defeituosos. Portanto, aplicaremos a

distribuição binomial conforme a seguir:

.206,0)3(

,)8,0()2,0()8,0()2,0()8,0()2,0()3(

),2()1()0()3(1822

201911

202000

20

=<++=<

=+=+==<

xP

CCCxP

xPxPxPxP

A soma de termos de probabilidades exibida anteriormente é denominada de

probabilidade conjunta.

4.5 Distribuição uniforme discreta

Para um conjunto com 1+n elementos, a distribuição uniforme de

probabilidade é dada pela relação (4.11):

121

11

)(+

==n

xXP .

(4.11)

A relação (4.11) é válida para os seguintes valores de X ,

nanaaaaxX +−+++== ),1(,,2,1, � .

A média e a variância são, respectivamente,

2)(

naXE += ,

(4.12)

12)2(

)(+= nn

XV .

(4.13)

O Exemplo 4.9 mostra como são feitos os cálculos de probabilidades com a

distribuição uniforme discreta.

Exemplo 4.9: Uma variável aleatória discreta pode ter apenas os valores 6,5,4,3 e 7 .

Supondo que distribuição de probabilidade dessa variável é uniforme, qual é a probabilidade

de que a variável aleatória tenha o valor 4? Qual é a probabilidade de que a variável tenha

valores menores ou iguais a 6? Determine também a média e a variância.

Para este exemplo, com o auxílio da relação (4.11) determinamos o valor de

n ,

.47,6,5,4,3,3),1(3,23,13,3

,),1(,,2,1,

=�=+−+++=

+−+++=

nx

nnx

nanaaaax �

Dado que a distribuição é uniforme, a probabilidade de que uma variável

aleatória tenha um valor particular dentre os valores possíveis para X é a mesma para

qualquer outro valor. Neste exemplo, a probabilidade de que a variável tenha valor 4 é,

20,051

141

11

)4( ==+

=+

==n

XP .

122

A probabilidade de que a variável aleatória x tenha valores menores ou

iguais a 6 é a probabilidade de termos os números 3, 4, 5 ou 6,

80,020,020,020,020,0)6( =+++=≤XP .

A média é

524

32

=+=+= nax .

A variância é

212

)24(4)( =+=XV .

4.6 Distribuição de Poisson

Em muitos casos, conhecemos o número de sucessos, porém, se torna difícil

e, às vezes, sem sentido, determinar o número de fracassos ou o número total de tentativas.

Por exemplo, considere automóveis que passam num cruzamento. Podemos, num dado

intervalo de tempo, anotar quantos carros com uma determinada característica passaram pelo

cruzamento específico, porém, o número de carros que deixaram de passar pela esquina não

poderá ser determinado.

A distribuição de Poisson é usada nas situações probabilísticas onde a área

de oportunidade de ocorrência de um evento é grande, mas a oportunidade de ocorrência em

um intervalo particular (ou em um ponto particular) é muito pequena. Os experimentos de

Poisson fornecem valores numéricos de uma variável aleatória X que representam os

números de sucessos que ocorrem durante um dado intervalo de tempo ou em uma região

especificada. Se for tempo, o intervalo de tempo pode ser de qualquer ordem de grandeza,

como um minuto, um dia, uma semana, um mês ou mesmo um ano. Se for uma medida

geométrica, a região especificada pode ser um segmento de reta, um volume de um sólido, um

pedaço de material, etc.

Assim, um experimento de Poisson pode gerar observações para a variável

aleatória X que representa o número de chamadas telefônicas por hora recebidas num

123

escritório, ou o número de horas que uma escola fica sem luz elétrica. Em outras palavras, a

distribuição de Poisson descreve o número de vezes que ocorre um evento, que certamente

ocorrerá muitas vezes, mas que é pouco provável que ocorra num particular instante de

observação. Essa característica é típica de chegadas em uma fila de espera.

A probabilidade de x ocorrências em um processo de Poisson com

parâmetro α é definida pela relação (4.14).

αα −== ex

xXPx

!)( , +∈ Zx .

(4.14)

O parâmetro α permite empregar o modelo de Poisson seja para tempo,

para distância, para área, etc. Quando trabalhamos com tempo, o parâmetro α é definido

como t∆= λα , onde λ é uma taxa na unidade de tempo.

Os histogramas mostrados na Figura 4.4 ilustram distribuições de

probabilidade de Poisson para quatro diferentes valores de α . A abscissa é a variável x .

Figura 4.4: Histogramas da distribuição de Poisson para quatro valores do parâmetro α .

Na distribuição de Poisson, a média e a variância são, respectivamente,

124

α=)(XE , (4.15)

α=)(XV . (4.16)

Iremos, a seguir, interpretar fisicamente os parâmetros da distribuição de

Poisson através de exemplos.

Exemplo 4.10: Uma fila de atendimento de um pronto socorro recebe em média quatro

acidentados por hora. Qual é a probabilidade de chegar em uma hora até dois acidentados?

Calcularemos primeiro a taxa λ . A taxa de chegada é hora

sacidentado4=λ ,

sendo o tempo de observação hora1=∆t . Vamos calcular as probabilidades dos eventos

2,1,0 === xxx , ou seja, ninguém chega, chega um e chegam dois acidentados no

intervalo de uma hora:

nenhuma chegada, 018,0!0)14(

)0( 140

=×== ×−exP ,

uma chegada, 074,0!1

)14()1( 14

1=×== ×−exP ,

duas chegadas, 146,0!2)14(

)2( 142

=×== ×−exP .

A probabilidade de ocorrerem chegadas de até dois acidentados em uma

hora é a probabilidade conjunta dos eventos analisados anteriormente,

.238,0)3(,146,0074,0018,0)3(

,)2()1()0()3(

=<++=<

=+=+==<

xP

xP

xPxPxPxP

Convidamos o leitor a fazer uma comparação deste exemplo com o

Exemplo 4.8. Será possível resolver o Exemplo 4.8 utilizando o modelo de Poisson?

Exemplo 4.11: Num processo de fabricação que produz lâminas de vidro, em que o número

médio de defeitos por lâmina é cinco, qual é a probabilidade de que uma lâmina tenha

exatamente seis defeitos?

125

Dos dados, temos que o número médio de lâminas é 5=α e o número de

eventos é .6=x Portanto, a solução é imediata,

146,0!6

5)6( 5

6=== −exP .

Exemplo 4.12: Uma companhia de seguros estima que 0,005% de uma população sofre cada

ano de certo tipo de acidente. Qual é a probabilidade que a companhia tenha que pagar a mais

do que três pessoas dentre as dez mil seguradas contra este tipo de acidente em um dado ano?

A probabilidade de uma pessoa acidentar-se é 0,00005. Isto significa que a

taxa anual de ocorrências deste tipo de acidentes é

anopessoas5,0

1000.1000005,0 =×=λ .

O número médio de ocorrências é 5,0=∆tλ e o número de eventos é .3=x

.002,0998,01)1,3(

,!

5,01)1,3(1)1,3(

3

0

5,0

=−==∆>

�×−==∆≤−==∆>

=

=

txP

xe

txPtxPx

x

x

Nas seções seguintes analisaremos as distribuições de probabilidade de

variáveis contínuas mais importantes do ponto de vista da Pesquisa Operacional. Porém, antes

de iniciarmos o estudo dessas distribuições, estabeleceremos definições que serão de grande

utilidade para a compreensão das mesmas.

4.7 Variável aleatória contínua e distribuições de probabilidade

Certos experimentos aleatórios requerem que a variável aleatória, X ,

assuma valores reais. Por exemplo, se estivermos estudando a medida da altura de pessoas em

um conjunto especificado de uma comunidade, a variável X não é mais restrita a valores

discretos. As alturas podem ser 89,1 metros ou 01,2 metros, etc. Outro exemplo é quando

126

precisamos medir uma temperatura ou uma tensão elétrica, que certamente não são números

inteiros. Isto nos leva à consideração das variáveis aleatórias contínuas, que podem ser

definidas em todo conjunto real, ou em intervalos especificados do mesmo conjunto.

Para tratarmos das distribuições continuas, considere as seguintes

definições.

Definição 4.2: (Função densidade de probabilidade, fdp) Seja o intervalo contínuo ),( baI = ,

sendo a e b números reais, ba < . A variável aleatória X que tome os valores reais x , tais

que Ix ∈ , tem uma distribuição ℑ se sua função densidade de probabilidade, )(xf ,

ℜ→ℜ:f , for tal que

a) 0)( ≥xf ,

b) =b

adxxf 1)( ,

c) =≤≤ 21

)()( 21xx dxxfxXxP , probabilidade de que X esteja entre os

valores 1x e 2x ,

d) = dxxfxF )()( , função de probabilidade acumulada.

Definição 4.3: (Esperança matemática de uma variável aleatória contínua) Seja X uma

variável aleatória contínua com função densidade de probabilidade, )(xf , o valor esperado de

X é

= ba dxxxfXE )()( . (417)

Definição 4.4: (Variância de uma variável aleatória contínua) Seja X uma variável aleatória

contínua com função densidade de probabilidade, )(xf , a variância de X é

22 )]([)()( XEdxxfxXVb

a−= . (4.18)

Compare a expressão (4.8) com a expressão (4.5).

127

Agora estamos prontos para o estudo de algumas distribuições de variáveis

aleatórias continuas.

4.7.1 Distribuição normal

Uma das distribuições mais importantes é a distribuição normal. Uma das

razões dessa importância é que a distribuição normal, comumente, representa com boa

aproximação as distribuições de freqüência observadas em diversos fenômenos naturais.

Outra razão é que a distribuição normal pode ser relacionada com a maioria das distribuições

de probabilidade existentes por meio do Teorema do Limite Central (vide seção 4.8). Além

disso, para um número grande de tentativas, as normais servem como aproximação de

probabilidades binomiais.

A distribuição normal é também conhecida como distribuição de Gauss. A

distribuição de Gauss é contínua e simétrica em torno da média e sua curva estende-se de

menos infinito ( ∞− ) a mais infinito ( ∞+ ).

Matematicamente, a função densidade de probabilidade (fdp) da distribuição

normal é definida por (4.19):

,21

)( 22

2)(

σ

µ

σπ

−−=

x

exf ∞+<<∞− x .

(4.19)

Na equação (4.19), os símbolos possuem os seguintes significados:

µ : média da população;

σ : desvio padrão;

π : número irracional cujo valor aproximado é 3,1415;

e : número irracional cujo valor aproximado é 2,71828.

O parâmetro µ é a média da distribuição normal. Este valor é a média

populacional, que junto com a variância populacional, 2σ , são valores supostamente

conhecidos. É importante fazer neste ponto um paralelo entre µ e a média x , definida

anteriormente. Seja uma população de tamanho N donde vamos retirar todas as possíveis

128

amostras simples de tamanho n dessa população, e para cada uma vamos calcular a média x .

A Figura 4.5 ilustra a relação existente entre µ e x .

Figura 4.5: Ilustração da relação entre µ e x .

As relações da média, do desvio padrão e da variância para uma amostra e

para uma população são apresentadas na Tabela 4.5.

Tabela 4.5: Relações dos parâmetros com amostra e população.

Parâmetro Amostra População finita

Quantidade de elementos n N

Média x µ

Desvio padrão s σ

Variância 2s 2σ

A probabilidade de uma variável aleatória contínua normalmente distribuída

ser igual ou menor que um número a é a área sob a curva normal de ∞− a a .

Matematicamente, esta probabilidade é dada pela relação (4.20):

=≤∞−

adxxfaxP )()( = área sob a curva normal de ∞− até a ,

(4.20)

=≤∞−

− −a

dxeaxPx

22

2)(

21

)( σ

µ

σπ.

população

amostra

x média µ média

129

Do mesmo modo, a probabilidade de uma variável aleatória normalmente

distribuída ser maior do que um valor dado a é,

)(1)( axPaxP ≤−=> .

As curvas normais exibem características especiais em termos de sua forma

geométrica, de como se especificam e também de como são utilizadas para obtenção de

probabilidades. O gráfico de uma distribuição normal se assemelha muito a um sino: é suave e

unimodal, e simétrico em relação à sua média. Menos óbvio é o fato de que a curva se

prolonga indefinidamente em qualquer das direções, a partir da média. Aproxima-se cada vez

mais do eixo horizontal à medida que aumenta a distância a contar da média, mas nunca chega

a tocar no eixo.

Outra característica importante é que uma distribuição normal fica

completamente especificada por dois parâmetros: sua média e seu desvio padrão. Em outras

palavras, existe uma única distribuição normal para cada combinação de uma média µ e um

desvio padrão σ . Diferentes combinações de média e desvio padrão originam curvas normais

distintas.

A probabilidade de uma variável aleatória distribuída normalmente tomar

um valor entre dois pontos dados é igual à área sob a curva normal compreendida entre os

dois pontos.

É essencial reconhecer que uma distribuição normal é uma distribuição

teórica. Para mensurações físicas grupadas numa distribuição de freqüência é uma

distribuição ideal; nenhum conjunto de valores efetivos adaptar-se-á exatamente a ela. Assim

é que, por exemplo, os valores reais não variam entre ∞− e ∞+ . As limitações do

instrumento que se usa nas medições eliminam efetivamente outros valores potenciais. Não

obstante, tais deficiências são amplamente contrabalançadas pela facilidade de utilização da

distribuição normal na obtenção de probabilidades, e pelo fato de que a referida distribuição

ainda constitui uma boa aproximação de dados reais. Assim, quando dizemos que uma

variável aleatória é distribuída normalmente, a afirmação deve ser interpretada como uma

implicação de que a distribuição de freqüência de seus resultados possíveis pode ser

satisfatoriamente bem aproximada pela distribuição normal de probabilidades. Logo, a curva

130

normal é um modelo. Em simulações computacionais é comum o emprego da distribuição

normal truncada, conforme será vista no Capítulo 7.

Como a integração indicada na equação (4.20) não pode ser efetuada

diretamente pelos métodos triviais de Cálculo Diferencial e Integral, usamos tabelas para

determinar as áreas sob a curva normal. Uma forma de facilitar a obtenção das probabilidades

normais é utilizar a forma normal padronizada e apresentar os valores em tabelas. As Tabelas

4.6 e 4.7 apresentam valores das áreas sob a curva normal padronizada. Nessas tabelas, dados

os valores de x , µ e σ , tem-se a proporção da área total sob a curva que está sob a porção

da curva de ∞− a σ

µ−= xz .

A distribuição normal constitui, na realidade, uma família infinitamente

grande de distribuições (isto é, uma para cada combinação µ e σ ). Conseqüentemente, seria

inútil procurar elaborar tabelas que atendessem a todas as necessidades. Há, entretanto, uma

alternativa bastante simples que contorna o problema: tomando como ponto de referência a

origem e o desvio padrão como medida de afastamento a contar daquele ponto (unidade de

medida), determinamos uma nova escala que é comumente conhecida como escala z .

Utilizamos a variável normal padronizada dada pela relação (4.21):

σµ−= x

z .

(4.21)

As áreas sob a curva de qualquer distribuição normal podem ser achadas

utilizando-se uma tabela normal padronizada, após fazer a conversão da escala original para a

escala em termos de desvios padrões. A tabela dá a área sob a curva (isto é, a probabilidade de

um valor cair naquele intervalo) entre ∞− e valores escolhidos de z , isto é,

)( zZP ≤<−∞ . Temos, então, que se X é uma variável aleatória com distribuição normal

de média µ e desvio padrão σ , podemos escrever )()( zZPxXP ≤<−∞=≤<−∞ onde

Z é uma variável aleatória tal que σ

µ−= xz . A partir desta transformação, a distribuição

resultante tem média igual a zero e desvio padrão igual a um. Por isso, é denotada por )1,0(N .

131

Tabela 4.6: Áreas sob a curva normal padronizada de ∞− a z , 0≤z .

σµ−x

0,09 0,08

0,07 0,06 0,05 0,04 0,03 0,02 0,01 0,00

−3,5 0,00017 0,00017 0,00018 0,00019 0,00019 0,00020 0,00021 0,00022 0,00022 0,00023 −3,4 0,00024 0,00025 0,00026 0,00027 0,00028 0,00029 0,00030 0,00031 0,00033 0,00034 −3,3 0,00035 0,00036 0,00038 0,00039 0,00040 0,00042 0,00043 0,00045 0,00047 0,00048 −3,2 0,00050 0,00052 0,00054 0,00056 0,00058 0,00060 0,00062 0,00064 0,00066 0,00069 −3,1 0,00071 0,00074 0,00076 0,00079 0,00082 0,00085 0,00087 0,00090 0,00094 0,00097

−3,0 0,00100 0,00104 0,00107 0,00111 0,00114 0,00118 0,00122 0,00126 0,00131 0,00135 −2,9 0,0014 0,0014 0,0015 0,0015 0,0016 0,0016 0,0017 0,0017 0,0018 0,0019 −2,8 0,0019 0,0020 0,0021 0,0021 0,0022 0,0023 0,0023 0,0024 0,0025 0,0026 −2,7 0,0026 0,0027 0,0028 0,0029 0,0030 0,0031 0,0032 0,0033 0,0034 0,0035 −2,6 0,0036 0,0037 0,0038 0,0039 0,0040 0,0041 0,0043 0,0044 0,0045 0,0047

−2,5 0,0048 0,0049 0,0051 0,0052 0,0054 0,0055 0,0057 0,0059 0,0060 0,0062 −2,4 0,0064 0,0066 0,0068 0,0069 0,0071 0,0073 0,0075 0,0078 0,0080 0,0082 −2,3 0,0084 0,0087 0,0089 0,0091 0,0094 0,0096 0,0099 0,0102 0,0104 0,0107 −2,2 0,0110 0,0110 0,0113 0,0116 0,0119 0,0122 0,0125 0,0129 0,0136 0,0139 −2,1 0,0143 0,0146 0,0150 0,0154 0,0158 0,0162 0,0166 0,0170 0,0174 0,0179

−2,0 0,0183 0,0188 0,0192 0,0197 0,0202 0,0207 0,0212 0,0217 0,0222 0,0228 −1,9 0,0233 0,0239 0,0244 0,0250 0,0256 0,0262 0,0268 0,0274 0,0281 0,0287 −1,8 0,0294 0,0301 0,0307 0,0314 0,0322 0,0329 0,0336 0,0344 0,0351 0,0359 −1,7 0,0367 0,0375 0,0384 0,0392 0,0401 0,0409 0,0418 0,0427 0,0436 0,0446 −1,6 0,0455 0,0465 0,0475 0,0485 0,0495 0,0505 0,0516 0,0526 0,0537 0,0548

−1,5 0,0559 0,0571 0,0582 0,0594 0,0606 0,0618 0,0630 0,0643 0,0655 0,0668 −1,4 0,0681 0,0694 0,0708 0,0721 0,0735 0,0749 0,0764 0,0778 0,0793 0,0808 −1,3 0,0823 0,0838 0,0853 0,0869 0,0885 0,0901 0,0918 0,0934 0,0951 0,0968 −1,2 0,0985 0,1003 0,1020 0,1038 0,1057 0,1075 0,1093 0,1112 0,1131 0,1151 −1,1 0,1170 0,1190 0,1210 0,1230 0,1251 0,1271 0,1292 0,1314 0,1335 0,1357

−1,0 0,1379 0,1401 0,1423 0,1446 0,1469 0,1492 0,1515 0,1539 0,1562 0,1587 −0,9 0,1611 0,1635 0,1660 0,1685 0,1711 0,1736 0,1762 0,1788 0,1814 0,1841 −0,8 0,1867 0,1894 0,1922 0,1949 0,1977 0,2005 0,2033 0,2061 0,2090 0,2119 −0,7 0,2148 0,2177 0,2207 0,2236 0,2266 0,2297 0,2327 0,2358 0,2389 0,2420 −0,6 0,2451 0,2483 0,2514 0,2546 0,2578 0,2611 0,2643 0,2676 0,2709 0,2743

−0,5 0,2776 0,2810 0,2843 0,2877 0,2912 0,2946 0,2981 0,3015 0,3050 0,3085 −0,4 0,3121 0,3156 0,3192 0,3228 0,3264 0,3300 0,3336 0,3372 0,3409 0,3446 −0,3 0,3483 0,3520 0,3557 0,3594 0,3632 0,3669 0,3707 0,3745 0,3783 0,3821 −0,2 0,3859 0,3897 0,3936 0,3974 0,4013 0,4052 0,4090 0,4129 0,4168 0,4207 −0,1 0,4247 0,4286 0,4325 0,4364 0,4404 0,4443 0,4483 0,4522 0,4562 0,4602 −0,0 0,4641 0,4681 0,4721 0,4761 0,4801 0,4840 0,4880 0,4920 0,4960 0,5000

132

Tabela 4.7: Áreas sob a curva normal padronizada de ∞− a z , 5,3≤z .

σµ−x

0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09

+0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359 +0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753 +0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141 +0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517 +0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879 +0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224

+0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549 +0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852 +0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8079 0,8106 0,8133 +0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389 +1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621

+1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830 +1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015 +1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177 +1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319 +1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441

+1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545 +1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633 +1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706 +1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767 +2,0 0,9773 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817

+2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857 +2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890 +2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916 +2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936 +2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952

+2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964 +2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974 +2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981 +2,9 0,9981 0,9982 0,9983 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986 +3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99899 0,99893 0,99896 0,99900

+3,1 0,99903 0,99906 0,99910 0,99913 0,99915 0,99918 0,99921 0,99924 0,99926 0,99929 +3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950 +3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965 +3,4 0,99966 0,99967 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976 +3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983

O Exemplo 4.13 mostra como calcular a probabilidade com distribuição

normal utilizando a variável z e as tabelas.

133

Exemplo 4.13: Num laboratório, repetidas medições executadas numa peça utilizando certo

instrumento eletrônico resultam numa seqüência de valores. Os erros de medição comportam-

se de forma aleatória segundo a distribuição de Gauss. A média da distribuição é vinte e o

desvio padrão é oito. Qual é a probabilidade de medir valores menores que quatorze?

Temos: 14;8;20 === aσµ , que é o maior valor da variável aleatória x .

Aplicamos a fórmula (4.21) para variável normal padronizada:

75,08

2014 −=−=z .

Desejamos obter a probabilidade )14( ≤xP . Na verdade, com a

transformação, vamos buscar na tabela a área sob a curva normal modificada de .a z∞−

Consultamos a Tabela 4.6. Localizamos na primeira coluna o valor 7,0− e

no cruzamento dessa linha com a coluna de 0,05 encontramos o número 0,2266. Portanto, a

probabilidade procurada é .2266,0)14( =≤xP O valor 0,2266 pode ser interpretado como a

proporção dos valores menores do que 14.

Exemplo 4.14: Os pesos de 600 estudantes são normalmente distribuídos com média 65,3 kg

e variância 30,25. Determine o número de estudantes que pesam: (a) entre 60 e 70 kg ; e (b)

mais de 63,2 kg .

Vamos considerar primeiro o cálculo da probabilidade para estudantes que

pesam entre 60 e 70 kg. Suporemos também que x≅µ e s≅σ . A variância é o quadrado do

desvio padrão:

kgXV 5,525,30)( ==→= σσ .

Vamos calcular a probabilidade de a variável aleatória estar entre 60 e 70

kg , que é

)7060( ≤≤ xP .

134

Raciocinando em termos da área da curva normal, vamos calcular a área de

∞− a 70 e subtrair desse valor a área que vai de ∞− a 60 ,

)60()70()7060( ≤−≤=≤≤ xPxPxP .

Temos que calcular as variáveis normais padronizadas 6070 e zz (para

isso temos que empregar a relação (4.21)),

.96,05,5

3,6560

,85,05,5

3,6570

60

70

−=−=

=−=

z

z

Consultamos as Tabelas 4.6 e 4.7 entrando com os valores de z e achamos

os seguintes números:

.6338,01685,08023,0)7060(

,1685,0)60(

,8023,0)70(

60

70

=−=≤≤=≤→=≤→

xP

xPz

xPz

O número esperado de estudantes com pesos compreendidos entre 70e60

é o produto 3806006338,0 ≅× estudantes.

A probabilidade de termos estudantes com mais que 63,2 kg é obtida do

seguinte modo. Vamos calcular a probabilidade de a variável aleatória ser menor ou igual a

63,2 kg ,

)2,63( ≤xP .

Como a área total sob a curva normal é igual a um, vamos subtrair dessa

área o resultado obtido, )2,63( ≤xP , já que queremos calcular a probabilidade )2,63( >xP ,

.38,05,5

3,652,63),2,63(1)2,63(

−=−=

≤−=>

z

xPxP

135

Consultamos a Tabela 4.7 e obtemos:

3520,0)2,63( =≤xP .

Concluímos que a probabilidade de, neste universo, encontrarmos

estudantes com mais de 63,2 kg é

648,0352,01)2,63(1)2,63( =−=≤−=> xPxP .

Desse modo, esperamos que 389600648,0 ≅× estudantes tenham peso

superior a 63,2 kg .

4.7.2 Distribuição retangular ou uniforme

Nesta seção trataremos apenas da distribuição retangular (uniforme)

contínua. Esta distribuição é aplicável em situações nas quais as probabilidades de todos os

sucessos são iguais. A Figura 4.6 ilustra a função densidade de probabilidade retangular.

Figura 4.6: Distribuição retangular contínua.

A função da Figura 4.6 é definida conforme a relação (4.22):

xba

)(xf

ab −1

136

>

≤≤−

<

=

bx

bxaab

ax

xf

,0

,1,0

)( .

(4.22)

Notemos que a área do retângulo ilustrado na Figura 4.6 é igual a um, como

deve ser para qualquer função densidade de probabilidade. A probabilidade de que uma

variável aleatória x tenha um valor menor ou igual a um número 1x que pertença ao intervalo

],[ ba é:

bxaabax

abdx

dxxfxxPx

a

d

a≤≤

−−=

−==≤ 1

11

1 )()( ,

onde, )( 1xxP ≤ é a probabilidade acumulada da variável aleatória x de a até 1x .

A média e a variância das variáveis aleatórias da distribuição uniforme são

obtidas pelas expressões (4.23) e (4.24), de acordo com as Definições (4.3) e (4.4).

2)(

baXE

+== µ . (4.23)

12)(

)(2

2 abXV

−== σ . (4.24)

4.7.3 Distribuição exponencial

A função densidade de probabilidade exponencial é definida pela relação

(4.25).

xexf ββ −=)( , ∞<≤ x0 . (4.25)

Esta forma de distribuição de probabilidade é conhecida mais

especificamente como distribuição exponencial negativa ( 0>β ) e, nesta forma, é

137

freqüentemente usada para descrever tempos de serviço em modelos de fila de espera. Neste

tipo de aplicação, a variável aleatória x representa o tempo.

Em aplicações na teoria de filas, o parâmetro β da relação (4.25) é o

número de ocorrências na unidade de tempo. Por exemplo, β pode ser a taxa de chegada de

usuários por unidade de tempo (neste caso, na teoria de filas, β corresponderia ao parâmetro

λ , que é a notação usual para a taxa média de chegada de usuários).

A média e a variância das variáveis aleatórias da distribuição exponencial

são obtidas pelas relações (4.26) e (4.27).

βµ 1

)( ==XE . (4.26)

βσ 1

)( 2 ==XV . (4.27)

A probabilidade acumulada exponencial desde zero até um instante que

tenha transcorrido um tempo t∆ , isto é, a função de distribuição acumulada, é dada por

(4.28):

tetxP ∆−−=∆≤ β1)( (4.28)

A função de distribuição acumulada é obtida integrando a função )(xf em

x de 0 a .t∆ O valor acumulado mede a probabilidade de o intervalo entre duas ocorrências

consecutivas ser menor ou igual ao intervalo de tempo t∆ .

Exemplo 4.15: Numa linha de montagem de televisores, localizada na Zona Franca de

Manaus, obtivemos a informação de que o tempo de serviço médio por aparelho é de duas

horas. Qual é a probabilidade de ocorrer um tempo de serviço de menos de 1:40 horas?

A média é igual a aparelhohoras2

1 =β

o que implica em .5,0=β O

intervalo requerido de execução do serviço é horas.35

6040

1 horas40:1 =+= A probabilidade

de termos intervalos de execução do serviço inferiores a 40:1 horas é:

138

.5654,0)35

(

,11)35

( 83334,035

5,0

=≤

−=−=≤ −×−

xP

eexP

4.7.4 Distribuição de Erlang

Esta distribuição de probabilidade leva o nome do seu criador, o

dinamarquês Erlang, um estudioso pioneiro da área de telecomunicações, que viveu no século

XIX. A função densidade de probabilidade da distribuição de Erlang é definida em (4.29).

m

m

am

exxf

ax

)!1()(

1

−=

−−, ∞<≤ x0 .

(4.29)

Onde:

a : parâmetro de escala ou coeficiente de variação, 0>a ;

m : parâmetro de fôrma ( m é um número inteiro positivo).

Após a comparação entre as distribuições exponencial negativa e Erlang, é

imediata a constatação de que em (4.29) para 1=m e β=a1 teremos a fdp exponencial

definida em (4.25).

A média e a variância das variáveis aleatórias da distribuição Erlang são

obtidas pelas relações (4.30) e (4.31).

amXE == µ)( . (4.30)

maXV 22)( == σ . (4.31)

A função de probabilidade acumulada da fdp de Erlang, calculada desde

zero até um valor especificado x , é dada por (4.32).

139

��

��

�−= � −

=−

10 !

)(1)( m

i

ia

xa

x

iexF .

(4.32)

A distribuição Erlang é usada como uma extensão para a distribuição

exponencial se o coeficiente de variação for menor que 1 (isto é, 1<a ), por exemplo nas

seguintes aplicações:

a) na modelagem de tempos de atendimento (ou de serviço) de sistemas

de filas;

b) na modelagem do tempo de reparo e tempo entre falhas de

equipamentos e sistemas.

Na primeira aplicação mencionada, um servidor com tempos de serviço cuja

distribuição seja Erlang( ma, ) pode ser representado como se fosse uma série de m

servidores com tempos de serviço de distribuição exponencial.

Especificamente em sistemas de telecomunicações, a distribuição Erlang é

empregada na modelagem do tráfego de chamadas telefônicas.

Para m não muito grande, a utilização do computador para o cálculo do

fatorial seja na expressão (4.29) e seja em (4.32) requer certos cuidados por parte do

programador em face das limitações de representação da aritmética inteira das máquinas

atualmente disponíveis. Todavia, existem métodos para contornar essas dificuldades.

Em simulações com o uso do computador, a distribuição Erlang é gerada a

partir de variáveis uniformemente distribuídas seguindo os passos apresentados no Algoritmo

4.1.

Algoritmo 4.1: Obtenção de variáveis de Erlang a partir da distribuição continua uniforme.

Dados: os parâmetros m e a .

Faça 1←P Para mi ,,1 �= )1,0(Uui ← iuPP ×← PamaErlang ln),( ×−←

Na seção seguinte será estudado um teorema de capital importância para

simulações em computador, que encontra muitas aplicações em Pesquisa Operacional.

140

)( yP

61

4.8 Teorema do Limite Central

Este teorema afirma que, sob condições genéricas, as somas e as médias das

amostras de medidas aleatórias extraídas de uma população tendem a apresentar uma

distribuição aproximadamente bem comportada, desde que a amostragem seja repetida. O

significado desta afirmação pode ser melhor ilustrado com um exemplo.

Exemplo 4.16: Considere a população referente à experiência de se jogar um dado não viciado

um número grande de vezes. A distribuição de probabilidade é dada pelo histograma da

Figura 4.7.

Figura 4.7: Distribuição de y , que é o número obtido ao se jogar um dado.

Extraímos uma amostra de 5=n medidas (jogamos o dado cinco vezes e

anotamos os resultados obtidos) obtendo assim a amostra desejada. Por exemplo,

suponhamos que os números anotados nessa primeira amostra sejam 3,1,5,3=y e 2 .

Calculemos a soma dessas cinco medidas e também a média da amostra, y . A título de

experiência, vamos repetir a amostragem cem vezes. Os resultados para cem amostras estão

parcialmente indicados na Tabela 4.8, juntamente com os valores correspondentes de �=

5

1iiy e

y .

Tabela 4.8: Medidas da amostra: soma e média.

Número da amostra Medidas contidas na amostra � iy y

1 3, 5, 1, 3 ,2 14 2,8 2 3, 1, 1, 4, 6 15 3,0

. . . . . . . . . . . . 100 2, 4, 3, 4, 6 19 3,8

y 0

654321

141

Construiremos um histograma de freqüências de y (ou de �=

5

1iiy ) para essas

cem amostras e teremos uma representação gráfica da distribuição empírica. Observaremos

um resultado interessante: embora os valores de y, na população ( 6,5,4,3,2,1=y ), sejam

equiprováveis (vide Figura 4.7) e, por conseguinte, possuam uma distribuição perfeitamente

uniforme, as médias das amostras (ou somas) apresentam uma distribuição não uniforme.

Em termos formais, um enunciado do Teorema do Limite Central é como

apresentado a seguir.

Teorema 4.2: Se amostras aleatórias com n observações forem extraídas de uma população

com média µ e desvio padrão σ , então, quando n for grande, a média amostral será

normalmente distribuída com média µ e desvio padrão n

σ.

A aproximação aludida no Teorema 4.2 será tanto mais perfeita quanto

maior for o valor de n .

Para ilustrar este teorema foi elaborado no ambiente MATLAB um código

para simular o lançamento do dado por cinco vezes consecutivas. Esse experimento foi

repetido mil vezes. O histograma de freqüências resultante é conforme ilustrado na Figura 4.8.

Figura 4.8: Histograma de freqüências que se apresenta com o aspecto de uma normal.

142

O código escrito com instruções do MATLAB é mostrado na Figura 4.9.

n = input('Entrar com o tamanho da amostra: ');

m = input('Entrar com a quantidade de simulações: ');

for k = 1:m,

soma = 0;

for i = 1:n,

y(i) = fix(1 + 6*rand);

soma = soma + y(i);

end;

media(k) = soma/n;

end;

maior = norm(media, inf); menor = norm(media, -inf);

h = (maior - menor)/m;

x = menor: h: maior;

hist(media, x)

Figura 4.9: Código em MATLAB para verificação do Teorema do Limite Central.

Chamamos a atenção do leitor para forma do histograma da Figura 4.8, que

lembra a forma de sino típica da distribuição normal.

Ressaltamos que o Teorema do Limite Central não especifica a distribuição

da população. Na realidade, a distribuição da população pode se apresentar sob uma vasta

gama de distribuições de probabilidade e é isto que torna este teorema notável e de grande

aplicabilidade. O Teorema do Limite Central também pode ser enunciado de modo específico

para uma população uniformemente distribuída.

Teorema 4.3: Sejam kuuu ,,, 21 � , k variáveis aleatórias independentes uniformes e sejam

)( iuE=µ e )(2iuV=σ a esperança e a variância, respectivamente. Ao obter �

==

k

iiux

1, a

esperança e a variância de X são, respectivamente, µkXE =)( e 2)( σkXV = , e tem-se,

para k grande, que σµ kkXZk )( −= é aproximadamente a distribuição normal

padronizada.

143

Considerando ainda o Exemplo 4.16, observamos que o Teorema do Limite

Central poderia ser enunciado de maneira alternativa para a soma dos resultados de uma

amostra �=

5

1iiy , que também tende a apresentar uma distribuição normal, de média µ e desvio

padrão n

σ à medida que n se torne cada vez maior.

Este teorema nos diz que a média e o desvio padrão da distribuição das

médias amostrais são definitivamente relacionados à média e o desvio padrão da população

amostrada, bem como ao tamanho n da amostra. As duas distribuições têm a mesma média,

µ , e o desvio padrão da distribuição das médias amostrais é igual ao desvio padrão da

população σ dividido por n . Conseqüentemente, a dispersão da distribuição das médias

amostrais será consideravelmente menor (n

1 , no máximo), quanto mais difusa for a

distribuição da população. Mais importante ainda é o fato de o Teorema do Limite Central

afirmar que a distribuição das médias amostrais é aproximadamente normal (distribuição de

Gauss) para amostras de tamanho n moderado ou grande.

4.9 Exercícios propostos

1. Resolva os problemas supondo distribuição binomial:

a) Uma moeda é lançada 5 vezes seguidas e independentes. Calcule a probabilidade de

serem obtidas 3 caras nessas 5 provas.

b) Dois times de futebol A e B, jogam entre si 6 vezes. Encontre a probabilidade de o

time A ganhar 4 jogos. (Lembre-se que a probabilidade de um time ganhar uma

partida é 31 ).

c) Considere um processo de fabricação onde a probabilidade de ocorrência de um item

defeituoso é de 0,05. Se tirarmos uma amostra de 10 itens, calcule a probabilidade de

menos de três itens defeituosos na amostra.

2. Resolva os problemas supondo distribuição hipergeométrica:

a) Uma empresa possui 8 diretores, dos quais 5 são homens e 3 são mulheres. Uma

comissão de 3 diretores deve ser constituída através de sorteio para representar a

144

empresa num Congresso que acontecerá em Cancun. Qual é a probabilidade de ser

sorteada uma comissão que tenha exatamente 2 mulheres?

b) Pequenos motores elétricos são expedidos em lotes de 50 unidades. Antes que uma

remessa seja aprovada, um inspetor escolhe 5 desses motores e os inspeciona. Se

nenhum dos motores inspecionados for defeituoso, o lote é aprovado. Se um ou mais

forem verificados defeituosos, todos os motores da remessa serão inspecionados.

Suponha que existam, de fato, três motores defeituosos no lote. Calcule a

probabilidade de que a inspeção de todo o lote de 50 seja necessária? (Sugestão:

calcule a probabilidade ),1( ≥XP onde X é o número de motores). Resposta: .28,0≅

3. Suponha um jogo de 25 números (inteiros de 1 a 25) no qual são escolhidos 15 números.

Apenas o acerto dos 15 números dá um excelente prêmio ao felizardo. No sorteio, os números

são retirados de um mesmo globo sem reposição. Um esperançoso apostador está intrigado

porque ele normalmente acerta 10 ou 11 pontos e nunca fez os 15. Como podemos explicar

isto para o apostador usando o modelo hipergeométrico? Será que acertar poucos pontos é

difícil também? Faça cálculos e, se for necessário, um gráfico também.

4. Uma companhia de seguros descobriu que somente cerca de 0,1 por cento da população

está incluído em certo tipo de acidente cada ano. Se seus 10.000 segurados são escolhidos ao

acaso na população, qual é a probabilidade de que não mais do que 5 de seus clientes venham

a estar incluídos em tal acidente no próximo ano? (Resposta: 0,067).

5. Resolva o Exemplo 4.8 usando o modelo de Poisson com parâmetro α igual a 4.

6. Prove a expressão (4.15) do valor esperado para o modelo de Poisson dado pela expressão

(4.14).

7. Resolva os problemas supondo distribuição normal:

a) Um teste padronizado de escolaridade tem distribuição normal com média igual a 100 e

desvio padrão igual a 10. Determine a probabilidade de um indivíduo submetido ao

teste ter nota: (1) maior que 120 (resposta: 0,0228); (2) entre 85 e 115 (resposta:

0,8664).

145

b) Uma lâmpada eletrônica tem duração média de 850 dias e desvio padrão de 40 dias.

Sabendo que a duração é normalmente distribuída, calcule a probabilidade de uma

lâmpada desse tipo durar: (1) entre 700 e 1.000 dias (resposta: 0,9998); (2) menos de

750 dias (resposta: 0,0062).

8. Entrando em um sistema de auto-atendimento de um banco, os clientes com seus

automóveis acessam o caixa-rápido. Os tempos de utilização são exponencialmente

distribuídos com uma média de 45 segundos. Qual é a probabilidade de ocorrer um tempo de

acesso ao caixa-rápido de menos de 30 segundos?

9. Resolva o problema supondo distribuição uniforme discreta. Uma tabela de 100 números

(00 a 99) dispostos aleatoriamente. Fecha-se o olho e ao acaso aponta-se para um dos

números da tabela. Qual é a probabilidade de ‘apontar’ o número 24? Qual é a probabilidade

de acertar um número correspondente à sua idade nesta tabela? Supondo que ninguém na sala

tem menos de 20 e mais que 45 anos, qual é a probabilidade de apontar números na faixa de

idades do pessoal da sala? Qual é a média dos números dessa tabela? Qual é a variância? Qual

é o desvio padrão?