conceitos básicos, básicos,básicos de probabilidade chegam em um servidor web em um ... dimensão...

49
Conceitos Básicos, Básicos,Básicos de Probabilidade

Upload: ngohuong

Post on 14-Feb-2018

225 views

Category:

Documents


0 download

TRANSCRIPT

Conceitos Básicos, Básicos,Básicos de

Probabilidade

Espaço AmostralBase da Teoria de Probabilidades

– Experimentos são realizados resultados →NÃO conhecidos previamente Experimento →aleatório

– Exemplos: Determinar a execução de um programa; verificar o número de requisições que chegam em um servidor web em um intervalo de tempo

Definição(Espaço Amostral): Conjunto de todos os resultados possíveis de um experimento aleatório é chamado de ESPAÇO AMOSTRAL de um experimento. Denotaremos por S

Espaço AmostralDimensão do espaço amostral será definida pelo

propósito final do experimento sendo realizado.

Exemplo: Status de 2 componentes– 1) Descrever o total de equipamentos em

funcionamento; S = {0,1,2}– 2) Descrever QUAL o componente está

falho(0) ou em funcionamento (1); S = {(0,0),(0,1),(1,0),(1,1)}

Espaço Amostral Discreto e Continuo

EventosEvento é um subconjunto do espaço amostral.

Uma instância de um experimento é chamada de tentativa (trial)

Seja E um evento definido no espaço amostral S, ou seja, E é um sub-conjunto de S. Seja s o resultado de uma tentativa, com s Є S. Se s é um elemento de E, o evento E ocorreu.

EventosExemplo 1: Voltando ao exemplo de 2

componentes...

Seja A o evento descrito por: “Exatamente um componente falhou” {(0,1),(1,0)}→

Exemplo 2: Observar o tempo para que um componente falhe

Espaço amostral: conjunto de todos os numéros reais [0,∞)→

Evento de interesse: Componente não falhou antes do tempo t {x |x >= t } [t,∞)→ →

Axiomas de ProbabilidadeP(A) → probabilidade da ocorrência do

evento A, no espaço amostral SSeja S o espaço amostral de um

experimento aleatório. Usamos P(A) para denotar a probabilidade associada ao evento A. Se o evento A consiste em um único ponto s então

P(A) = P({s})=P(s)

Axiomas de Kolmogorov(A1) Para qualquer evento A, P(A) >= 0

(A2) P(S) = 1

(A3) P(A U B) = P(A) + P(B) se A e B são mutuamente exclusivos (A∩B = 0)

Relações Utéis

(R1) Para qualquer evento A, P(A) 1 – P(A)

(R2) Se C é um evento impossível, então P(C) = 0

(R3) Se A e B são qualquer eventos, não necessariamente mutualmente exclusivos, então

P(A U B) = P(A) + P(B) - P(A∩B)

Probabilidade Condicional Suponha que tenhamos uma informação

adicional que o resultado s de uma tentativa está contido em um subconjunto B de um espaço amostral, com P(B) ≠ 0.

O conhecimento da ocorrência de B pode mudar a probabilidade de ocorrência do evento A

Objetivo: Definir a PROBABILIDADE CONDICiONAL do evento A dado que o evento B tenha ocorrido P(A|B)→

Probabilidade Condicional Definição: A probabilidade condicional A dado B é dada por:

P(A|B) = P(A∩B)/P(B)

Regra Multiplicativa:

P(A∩B) = P(B)P(A|B); P(B)≠0

P(A)P(B|A); P(A)≠0

0; caso contrário

Independência de Eventos A probabilidade da ocorrência de um evento A pode aumentar ou diminuir dado que o evento B tenho ocorrido. Se a probabilidade do evento A não muda mesmo que o evento B tenha ocorrido, podemos concluir que sejam eventos independentes.

Dois eventos são independentes se e somente se: P(A|B) = P(A) ou

P(A∩B) = P(A)P(B)

Independência de Eventos

Definição (Eventos Independentes): Eventos A e B são independentes se

P(A∩B) = P(A)P(B)

Se A e B não são independentes, P(A∩B) é calculada usando a regra multiplicativa

Exemplo

Considere um experimento com dois dados. Seja o epaço amostral S = {(i,j)| 1 <= i,j<= 6 }. Assuma que para cada ponto, a probabilidade de ocorrência seja = 1/36.

A = “primeiro resultado é 1,2 ou 3”

B = “ segundo resultado é 4,5 ou 6”

C = “soma dos dois é 7”

Regra de Bayes Seja

P(A) = ∑ P(A|Bi) P(Bi); (i = 1; i = n)

Conhecida como teorema da probabilidade total. Em alguns casos, sabe-se que A ocorreu, mas não qual dos eventos B1,B2.., Bn tenha ocorrido. Neste caso, podemos estar interessados em calcular P(Bj|A)

P(Bj|A) =P(Bj∩A)/P(A)

= P(A|Bj)P(Bj)/ ∑ P(A|Bi) P(Bi); (i = 1; i = n)

Exemplo Medidas em um centro de computação (CC) em um dia,

indicou que 15% dos jobs são da UFJF, 35% da UFMG e 50% da UFRJ. Suponha que a probabilidade dos jobs iniciados destas universidades serem multitaks são 0.01, 0.05 e 0.02. Qual é a probabilidade de um job aleatório ser multitask? Qual a probabilidade de um job escolhido aleatoriamente pertencer a UFMG, dado que ele é multitasking?

Tentativas de Bernoulli

Considere um evento aleatório com duas possibilidades de resultado: “sucesso” e “falha” (ou “funcionando” e “defeituoso”). Sejam as probabilidades dos resultados p e q respectivamente, com p+q = 1. Considere um experimento que consiste da sequência de n repetições independentes deste experimento. Esta sequência é conhecida como Tentativas de Bernoulli

Tentativas de Bernoulli

Exemplos:

(1) Observe n execuções consecutivas de um comando if, com sucesso = “then é executado” e falha = “else é executado”

(2) Examine os componentes produzidos em uma linha de produção, com sucesso = “funcionando” e falha = “defeito”

Variáveis Aleatórias Uma variável aleatória X em um espaço amostral S é

uma função X:S → ℜ que atribui um número real X(s) para cada ponto s Є S.

Variáveis aleatórias permitem uma descrição mais compacta de um experimento que a descrição com granularidade fina do espaço amostral.

Exemplo: Ao inspecionar produtos manufaturados, é interessante saber quantos estão com defeitos e não a natureza do defeito

Função de Massa de Probabilidade (Probability Mass Function) PMF

Seja Ax o evento que reúne todos os pontos amostrais {s|X(s) = x} . Assim:

P(Ax) = P([X=x]) = P({s|X)s=x}) = ∑P(s), ∀(X(s)=x)

Com esta fórmula, calculamos P(X=x) para todo x ∈ℜ. Esta função é conhecida como Função de Massa de Probabilidade (pmf) ou função de densidade discreta da variável aleatória X, denotada por pX(x).

Função de Massa de Probabilidade (Probability Mass Function) PMF

pX(x) = P(X=x) = ∑P(s), ∀(X(s)=x) =

Probabilidade que o valor da variável aleatória X obtida de uma realização de um

experimento seja igual a x

Propriedades:

(p1) 0≤pX(x)≤1 ∀ x∈ℜ

(p2) ∑pX(x) = 1, ∀(x∈ℜ)

(p3) Para variáveis discretas: ∑pX(xi) = 1, ∀i

Função de Massa de Probabilidade (Probability Mass Function) PMF

Exemplo A: Se considerarmos uma célula sem fio com 5 canais e definirmos X = “número total dos canais disponíveis”, podemos definir pmf da variável X como:

pX(0) = 5/32; pX(1) = 10/32;pX(2) = 1/32;

pX(3) = 10/32; pX(4) = 5/32;pX(5) = 1/32

Função de Distribuição (Cumulative Distribution Function) CDF

Como calcular a probabilidade de um conjunto {x|X(s) ∈A}, onde A é um subconjunto de ℜ ao invés de um ponto amostral?

Se A = (a,b) P(a < x < b )→

A = (a,b] P(a < x <= b )→

A = (-∞,x] P(X <= x )→

Se pX(x) representa a pmf de uma variável aleatória X então: P(X∈A) = ∑ pX(x); ∀ xi

∈A

Função de Distribuição (Cumulative Distribution Function) CDF

Voltando ao exemplo A …

P(X <= 2) = P(X = 0) + P(X = 1) + P(X = 2) =

pX(0) + pX(1) +pX(2) =

5/32+10/32+ 1/32 = 16/32 = 0.5

Função de Distribuição (Cumulative Distribution Function) CDF

A função

FX(t), -∞<t<∞ → FX(t) = P( -∞<X<=t) =

P(X<=t) = ∑ pX(x); ∀ x <= t

é definida como função de distribuição acumulativa (cumulative distriburion function) – CDF – função distribução da variável aleatória X

P(a<= X <=b) = P(X<= b) - P(X<= a) = F(b)-F(a)

Função de Distribuição (Cumulative Distribution Function) CDF

Propriedades

(F1) 0 ≤ F(x) ≤ 1 para −∞≤ x ≤ ∞

(F2) F(x) é uma função monotônica crescente de x; se x1 ≤ x2 → F(x1) ≤ F(x2)

(F3) limx → −∞ F(x) = 0;limx → ∞F(x) = 1

Função Distribuição das variáveis aleatórias discretas crescem em saltos, enquanto para as variáveis

contínuas não existem saltos. Variáveis com os 2 comportamentos são denominados “mistas”

Variáveis Aleatórias Discretas

Variáveis aleatórias discretas são usadas para representar o número de objetos de um certo tipo, como por exemplo,

total dos jobs que chegam a um servidor de arquivos em um minuto ou o número de chamadas telefônicas realizadas em

um minuto

Variáveis Aleatórias DiscretasBernoulli Variável aleatória que pode assumir somente

dois valores possíveis: 0 e 1.

pX(0) = P(X = 0) = q

pX(1) = P(X = 1) = p

p+q = 1

F(x) = 0 para x < 0,

F(x) =q para 0<= x <1,

F(x) = 1 para x >= 1

Variáveis Aleatórias Discretas

Binomial Considere uma sequência de n tentativas

independentes de Bernoulli com probabilidade de sucesso igual a p em cada tentativa. Yn é definido como o número de sucessos após n tentativas. O domínio da v.a. Yn é todas as n-tuplas de 0s e 1s. Yn corresponde ao número de 1s na n-tupla.

Variáveis Aleatórias Discretas

Binomial A pmf de Yn é:

P(Yn = k) = C(n,k)pk(1-p)n-k; para 0<=k<=n

0 ; caso contrário

Esta equação fornece a probabilidade de k sucessos em n tentativas independentes de um experimento que tem probabilidade p de sucesso em cada tentativa

Variáveis Aleatórias DiscretasGeométrica Consideremos novamente uma sequência de

tentativas de Bernoulli, mas a idéia é contar o número de tentativas até o acontecimento do PRIMEIRO SUCESSO

Espaço Amostral consiste de um conjunto de diversas 'strings' com um número arbitrário de 0s, seguido por UM 1:

S = {0i-11| i = 1,2,3,...}

Variáveis Aleatórias DiscretasGeométrica Seja Z a v.a. que representa o número total de

tentativas, incluindo o primeiro sucesso.

pmf:

pZ(i) = qi-1p = p(1-p)i-1, i = 1,2,3,...

cdf

FZ(i) = 1 - (1-p)i

Variáveis Aleatórias DiscretasGeométrica Seja X a v.a. que representa o número total de

falhas, antes do primeiro sucesso; Z = X + 1

Temos v.a. Geométrica modificada

pmf

pX(i) = p(1-p)i, i = 0,1,2,...

cdf

F_X(i) = 1 - (1-p)i+1

Variáveis Aleatórias DiscretasGeométrica Exemplos de utilização:(1) Teoria de Filas

(2) Considere um sistema de computador com um scheduling com um tempo fixo. No final de cada slice, o programa completa a execução com probabilidade p; com probabilidade (1-p) é necessário retornar a CPU. A pmf da v.a. do total de slices necessários para terminar a computação é dada pela pmf da v.a. geométrica

Variáveis Aleatórias DiscretasGeométrica – Propriedade da Falta de

Memória (memoryless)

Z: v.a que representa o número de tentativas até o primeiro sucesso

n: total de tentativas ocorridas sendo todas falhas

Y: v.a. que representa o número total de tentativas adicionais até o sucesso

Y = Z-n

Variáveis Aleatórias DiscretasGeométrica – Propriedade da Falta de

Memória (memoryless)

Se uma sequência de tentativas de Bernoulli é analisada, não é necessário “lembrar” quantas tentativas já foram realizadas para determinar as probabilidades das tentativas adicionais necessárias até o primeiro sucesso

Variáveis Aleatórias Discretas

Poisson

Problema: Suponha que estejamos observando a chegada de jobs em um servidor por um intervalo de tempo [0,t].

Baseando na v.a. Binomial

p(k;λt) = e-λt(λt)k /k!

Variáveis Aleatórias Discretas

Poisson

Outras aplicações:– Em teoria de filas, número de jobs

que chegam no sistema, o número de jobs que completam o serviço, o número de mensagens transmitidas através de um canal de comunicação podem ser aproximados por uma v.a. de Poisson

Variáveis Aleatórias Contínuas

Para uma variável aleatória contínua, X, definimos função densidade de probabilidade (pdf) como:

f(x) = dF(x)/dx

Então FX(x) = P(X<=x) = ∫fx(t)dt

Variáveis Aleatórias Contínuas

Propriedades da pdf

(f1) f(x) >= 0 para todo x

(f2) ∫f(x)dx = 1; -∞ < x < ∞

Diferentemente da pmf, a pdf não é uma probabilidade!

Variáveis Aleatórias Contínuas

Propriedades da cdf

(F1) 0 <= F(x) <=1 para todo x

(F2) F(x) é uma função monotônica crescente de x

(F3) limx → −∞ F(x) = 0;limx → ∞ F(x) = 1

Variáveis Aleatórias Contínuas

Distribuição Exponencial– Também conhecida como

distribuição exponencial negativa– Usada em teoria de filas e

confiabilidade– Propriedade da falta de memória

(memoryless)– Relação com a distribuição discreta

de Poisson

Variáveis Aleatórias ContínuasDistribuição Exponencial

– São modeladas como uma v.a exponencial:

• Intervalo de chegada entre dois jobs sucessivos (interarrival time)

• Tempo de serviço em um servidor de uma fila

• Tempo para que um componente falhe

• Tempo para que um componente seja consertado

Variáveis Aleatórias ContínuasDistribuição Exponencial cdfF(x) = 1-e-λx, se 0 <= x <∞ = 0 , caso contrário pdf f(x) = λe-λx, se x > 0 = 0 , caso contrário

Variáveis Aleatórias ContínuasDistribuição Exponencial P(X >= t) = e-λt

P(a <= X <= b) =e-λa - e-λb

Variáveis Aleatórias ContínuasDistribuição Exponencial – Propriedade da Falta de Memória - Memoryless X: v.a. que representa o tempo de vida de um componente. Suponhamos que o componente esteja operacional durante t horas e que o tempo de vida seja maior que tY: Tempo residual de vida GY(Y<=y|X>=t) = G_Y(y|t)= ???

Variáveis Aleatórias ContínuasDistribuição Exponencial – Propriedade da Falta de Memória - Memoryless GY(Y,t) é independente de t e é idêntica a distribuição exponencial da v.a X. A distribuição do tempo de vida residual do componente, não depende do tempo de vida que o componente já estava funcionando.Componente não “envelhece”. Quebra eventual se deve a uma falha repentina e não deteriorização gradual.

Variáveis Aleatórias ContínuasDistribuição Exponencial – Propriedade da Falta de Memória - Memoryless Se estamos representando um tempo entre chegadas (interarrival times) através de uma variável aleatória exponencialmente distribuída, a propriedade da falta de memória implica que o tempo que devemos esperar por uma nova chegada é estasticamente independente de quanto tempo já tenhamos esperado.

Média ou Valor Esperado

As funções de distribuição F(x) ou densidade f(x) (pmf para v.a. Discreta) caracteriza completamente o comportamente de uma v.a. Em alguns casos, basta uma informação mais simples sobre a v.a. Média E[X]→ Mediana x, tal que P(X < x) <= 0.5 e →P(X > x) = 0.5

Média ou Valor Esperado

E[X] = ∑∀i xi p(xi) para os casos em que X é uma v.a. discreta E[X] = ∫x f(x)dx; (-∞,∞) para os casos em que X é uma v.a. contínua

Média ou Valor Esperado

Algumas variáveis discretas...Bernoulli E[X] = pBinomial E[X] = npGeométrica E[X] = 1/pPoisson E[X] = λtVariável ContínuaExponencial E[X] = 1/λ