a visao frequencista˜ - ceaulceaul.org/wp-content/uploads/2019/09/poster8... · 2019. 9. 23. ·...

1
A Vis ˜ ao Frequencista Rui Santos [email protected], Escola Superior de Tecnologia e Gest˜ ao do Instituto Polit´ ecnico de Leiria, CEAUL — Centro de Estat´ ıstica e Aplica¸ oes da Universidade de Lisboa Trabalho financiado por Fundos Nacionais atrav´ es da Funda¸ ao para a Ciˆ encia e a Tecnologia, no ˆ ambito do projeto PEst-OE/MAT/UI0006/2011. Na vis˜ao frequencista uma probabilidade s´ o pode ser atribu´ ıda em fen´omenos que podem ser repetidos um grande n´ umero de vezes nas mesmas condi¸ oes, como tal, na estat´ ıstica cl´ assica (ou frequencista) ´ e atrav´ es da informa¸c˜ ao obtida na observa¸ ao repetida de um fen´ omeno que podemos inferir acerca das suas caracter´ ısticas. A defini¸ ao frequencista de probabilidade Autiliza¸c˜ ao da frequˆ encia relativa como aproxima¸ ao da probabilidade ´ e uma consequˆ encia da aplica¸ ao da Lei dos Grandes N´ umeros, tendo sido usada, sem a preocupa¸c˜ ao de estabelecer fundamentos da inferˆ encia, desde os finais do s´ eculo XVII, por exemplo nas tabelas de mortalidade de Edmond Halley (1656-1742) em 1693, ou no interessante trabalho de John Arbuthnot (1667-1735) em 1710, no qual conclui que regularmente nascem mais rapazes do que raparigas e que esta diferen¸ca n˜ ao adv´ em do acaso mas antes da vontade Divina. Embora seja question´ avel a identifica¸c˜ ao do primeiro a introduzir a ideia de definir a proba- bilidade em termos de um limite das frequˆ encias relativas, muitos identificam a sua origem com os trabalhos de Robert Leslie Ellis (1817-1859) em 1843, nos quais considera que, numa longa erie de testes, a frequˆ encia com que ocorre cada acontecimento tende a ser proporcional `a sua proba- bilidade. H´ a tamb´ em quem a identifique com os trabalhos de Bernhard Bolzano (1781-1841), Antoine Augustin Cournot (1801-1877) ou John Stuart Mill (1806-1873) to- dos com publica¸c˜ oes em 1843 nas quais exp˜ oem interpreta¸ oes frequencistas de probabilidade. Venn Todavia, o grande impulsionador desta interpreta¸ ao foi John Venn (1834-1923), principalmente no seu livro The Logic of Chance publicado em 1866, no qual a probabilidade de um acontecimento ´ e de- terminada observando a frequˆ encia relativa desse acontecimento numa sucess˜ ao numer´avel de experiˆ encias aleat´ orias idˆ enticas e independentes, isto ´ e, considerando que efetuamos uma experiˆ encia aleat´ oria n vezes onde o acontecimento A ocorre n A vezes, a sua frequˆ encia relativa f n (A)ser´a dada pelo r´ acio n A n e, caso haja limite deste r´acio quando n aumenta in- definidamente, ent˜ ao a probabilidade do acontecimento A ´ e definida por: P(A)= lim n+n A n = lim n+f n (A). Figura: Evolu¸ ao da propor¸ ao de sucessos em 30 sequˆ encias de 50000 provas, inicialmente com alguma variabilidade, mas depois convergindo todas para o mesmo limite (para a probabilidade) Este limite n˜ ao tem o significado habitual utilizado em an´ alise matem´atica, mas antes o da convergˆ encia em probabilidade, usualmente representada por f n (A) P -→ P(A), que significa que a probabilidade da distˆancia entre f n (A)e P(A) ser maior que um dado ε R + converge para zero. Entre os mais not´ aveis defensores desta interpreta¸ ao destacam-se Richard von Mises (1883-1953), Ronald Fisher (1890-1962), Hans Reichenbach (1891-1953), Karl Raimund Popper (1902-1994) e Abraham Wald (1902-1950). A formaliza¸ ao de Richard von Mises “Since the first task of any scientific endeavor is a limitation of its scope, we limit our scope, roughly speaking, to the mathematical theory of repetitive events. We do not attempt to dis- cuss in this book ideas and problems of subjective probability”. [von Mises, 1964] Richard von Mises, em 1919, apoiando-se na interpreta¸ ao de probabilidade desenvolvida por Venn, constr´ oi uma axiom´atica para a Teo- ria da Probabilidade com base no conceito de coletivo. Von Mises repre- senta cada resultado do espa¸ co-amostra (conjunto constitu´ ıdo pelos poss´ ıveis resultados da experiˆ encia aleat´ oria) por um n´ umero e considera a sequˆ encia formada pelos resultados, de uma experiˆ encia repetida indefinidamente, um coletivo no caso de se verificarem os seguintes postulados: 1. Existˆ encia de limite — as frequˆ encias relativas de um coletivo convergem para um limite. 2. Aleatoriedade — as frequˆ encias relativas de qualquer subsequˆ encia da sequˆ encia original tˆ em o mesmo limite. Von Mises Para von Mises a probabilidade s´o existe quando aplicada a coletivos, sendo definida pelo limite das frequˆ encias relativas. Assim sendo, a probabilidade s´ o est´ a definida em experiˆ encias que podem ser repetidas indefinidamente e nunca em acontecimentos ´ unicos. O segundo postu- lado (tamb´ em denominado princ´ ıpio da exclus˜ ao do sistema de jogo ) garante a aleatoriedade dos resultados, pois, no caso de existˆ encia de regularidades, poder-se-iam prever alguns resultados — por exemplo, se num jogo de cara (0) ou coroa (1) os resultados fossem sempre alternados, ter´ ıamos uma sequˆ encia 0101010 ··· e as frequˆ encias relativas do acontecimento cara teriam limite 1 2 , por´ em os limites das subsequˆ encias de lan¸ camentos pares (ou ´ ımpares) n˜ ao tˆ em o mesmo limite, logo n˜ ao pode ser considerado um coletivo e consequentemente a probabilidade n˜ ao est´ a definida. Estes axiomas foram muito criticados por diversos autores, no entanto, a Teoria Frequencista de Probabilidade foi desenvolvida de forma a ser, na atualidade, uma das mais influentes. Estat´ ıstica cl´ assica/frequencista Se considerarmos que uma amostra ´ e uma sequˆ encia retirada de um coletivo, a primeira condi¸c˜ ao garante a homogeneidade distribucional (que as vari´ aveis aleat´ orias que comp˜ oem a amostra tenham a mesma distribui¸ ao marginal) e a segunda condi¸c˜ ao garante a aleatoriedade dos resultados (independˆ encia entre as vari´aveis). Desta forma, nesta vis˜ ao de von Mises, numa amostra as vari´aveis aleat´ orias s˜ao independentes e identicamente distribu´ ıdas, o que torna o trata- mento matem´atico da fun¸c˜ ao densidade conjunta mais elementar, pois as hip´ oteses adjacentes, independˆ encia e homogeneidade, simplificam bastante a sua an´ alise. Na estat´ ıstica cl´assica a base s˜ao as distribui¸ oes amostrais, distribui¸ oes de uma fun¸c˜ ao da amostra aleat´ oria — h (X 1 ,X 2 , ··· ,X n ). Os estimadores, estat´ ısticas de testes ou preditores s˜ ao fun¸c˜ oes h (X 1 ,X 2 , ··· ,X n ) da amostra aleat´ oria (X 1 ,X 2 , ··· ,X n ) sendo, como tal, tamb´ em uma vari´avelaleat´ oria. ´ E fundamental, em toda a inferˆ encia na estat´ ıstica cl´ assica, determinar estas distribui¸ oes amostrais. Para tal, a hip´ otese de que as vari´ aveis aleat´ orias (X 1 ,X 2 , ··· ,X n ) s˜ ao independentes e identicamente distribu´ ıdas, consequˆ encia dos dois axiomas de Richard von Mises, ´ e primordial. Contudo, nem sempre ´ e analiticamente poss´ ıvel deduzir as distribui¸ oes das estat´ ısticas (de- pendendo da distribui¸ ao inerente a cada observa¸ ao e da fun¸c˜ ao h utilizada). Deste modo, no determinar da distribui¸ ao de cada estat´ ıstica, tornou-se usual o recurso ` a simula¸ ao de amostras (nos caso em que a distribui¸ ao de cada observa¸ ao seja conhecida). Por outro lado, considerando que se pretende analisar todas as poss´ ıveis amostras de dimens˜ ao n, que ´ e computacionalmente im- poss´ ıvel para amostras e popula¸c˜ oes de dimens˜ ao razo´ avel, a metodologia de simula¸ ao Bootstrap desempenha um papel central na investiga¸ ao atual desta vis˜ ao. A teoria da decis˜ ao de Wald Abraham Wald, em 1939, considera que as duas principais aplica¸ oes da Estat´ ıstica(estima¸c˜ ao e testes de hip´ oteses) podem ser con- siderados casos particulares de problemas de decis˜ ao. Deste modo, Wald reconstrui a Teoria da Estat´ ıstica como uma Teoria da Decis˜ ao (nome que s´o viria a ser utilizado a partir de 1950, com os trabalhos de Erich Leo Lehmann (1917-2009)). Wald Desde a origem do C´ alculo de Probabilidades, logo nos trabalhos de Pascale utilizado o conceito de valor esperado do ganho para tomar decis˜ oes (escolher a melhor estrat´ egia de jogo). Em 1738 Daniel Bernoulli (1700-1782), na tentativa de clarificar o c´ elebre paradoxo de S˜ ao Petersburgo, criou a fun¸c˜ ao de utilidade e usou o valor esperado da utilidade (onde a utilidade de ganhar o montante M ´ e dado por log(M)), considerando que os valores monet´ arios tem utili- dade marginal decrescente. Deste modo, baseado na Teoria dos Jogos que John von Neumann (1903-1957) e Oskar Morgenstern (1902-1977) criaram por volta de 1944, Wald concebeu a teoria da decis˜ ao de forma a obter o melhor processo de decis˜ ao quando h´ a incerteza sobre o que pode ocorrer. Neste sentido, criou conceitos fundamentais na Estat´ ıstica, tais como a fun¸c˜ ao perda, a fun¸c˜ ao risco, regras de decis˜ ao admiss´ ıveis, regras de decis˜ ao minimax, entre outras. Outro contributo importante de Wald foi a introdu¸ ao da an´ alise estat´ ıstica sequencial. 8/13

Upload: others

Post on 19-Nov-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: A Visao Frequencista˜ - CEAULceaul.org/wp-content/uploads/2019/09/Poster8... · 2019. 9. 23. · que se pretende analisar todas as poss´ıveis amostras de dimensao n, que ´e computacionalmente

A Visao FrequencistaRui Santos [email protected], Escola Superior de Tecnologia e Gestao do Instituto Politecnico de Leiria, CEAUL — Centro de Estatıstica e Aplicacoes da Universidade de Lisboa

Trabalho financiado por Fundos Nacionais atraves da Fundacao para a Ciencia e a Tecnologia, no ambito do projeto PEst-OE/MAT/UI0006/2011.

Na visao frequencista uma probabilidade so pode ser atribuıda em fenomenos que podem ser repetidos um grande numero de vezes nas mesmas condicoes, como tal,

na estatıstica classica (ou frequencista) e atraves da informacao obtida na observacao repetida de um fenomeno que podemos inferir acerca das suas caracterısticas.

A definicao frequencista de probabilidade

A utilizacao da frequencia relativa como aproximacao da probabilidade e uma consequencia

da aplicacao da Lei dos Grandes Numeros, tendo sido usada, sem a preocupacao de estabelecer

fundamentos da inferencia, desde os finais do seculo XVII, por exemplo nas tabelas de mortalidade

de Edmond Halley (1656−1742) em 1693, ou no interessante trabalho de John Arbuthnot

(1667−1735) em 1710, no qual conclui que regularmente nascem mais rapazes do que raparigas e

que esta diferenca nao advem do acaso mas antes da vontade Divina.

Embora seja questionavel a identificacao do primeiro a introduzir a ideia de definir a proba-

bilidade em termos de um limite das frequencias relativas, muitos identificam a sua origem com os

trabalhos de Robert Leslie Ellis (1817−1859) em 1843, nos quais considera que, numa longa

serie de testes, a frequencia com que ocorre cada acontecimento tende a ser proporcional a sua proba-

bilidade. Ha tambem quem a identifique com os trabalhos de Bernhard Bolzano (1781−1841),

Antoine Augustin Cournot (1801−1877) ou John Stuart Mill (1806−1873) to-

dos com publicacoes em 1843 nas quais expoem interpretacoes frequencistas de probabilidade.

Venn

Todavia, o grande impulsionador desta interpretacao foi John

Venn (1834−1923), principalmente no seu livro The Logic of Chance

publicado em 1866, no qual a probabilidade de um acontecimento e de-

terminada observando a frequencia relativa desse acontecimento numa

sucessao numeravel de experiencias aleatorias identicas e independentes,

isto e, considerando que efetuamos uma experiencia aleatoria n vezes onde

o acontecimento A ocorre nA vezes, a sua frequencia relativa fn(A) sera

dada pelo racio nA

ne, caso haja limite deste racio quando n aumenta in-

definidamente, entao a probabilidade do acontecimento A e definida por:

P(A) = limn→+∞

nA

n= lim

n→+∞fn(A).

Figura: Evolucao da proporcao de sucessos em 30 sequencias de 50000 provas, inicialmente com

alguma variabilidade, mas depois convergindo todas para o mesmo limite (para a probabilidade)

Este limite nao tem o significado habitual utilizado em analise matematica, mas antes o da

convergencia em probabilidade, usualmente representada por fn(A)P

−→ P(A), que significa que a

probabilidade da distancia entre fn(A) e P(A) ser maior que um dado ε ∈ R+ converge para zero.

Entre os mais notaveis defensores desta interpretacao destacam-se Richard von Mises

(1883−1953), Ronald Fisher (1890−1962), Hans Reichenbach (1891−1953), Karl

Raimund Popper (1902−1994) e Abraham Wald (1902−1950).

A formalizacao de Richard von Mises

“Since the first task of any scientific endeavor is a limitation of its scope, we limit our scope,

roughly speaking, to the mathematical theory of repetitive events. We do not attempt to dis-

cuss in this book ideas and problems of subjective probability”. [von Mises, 1964]

Richard von Mises, em 1919, apoiando-se na interpretacao de

probabilidade desenvolvida porVenn, constroi uma axiomatica para a Teo-

ria da Probabilidade com base no conceito de coletivo. Von Mises repre-

senta cada resultado do espaco-amostra (conjunto constituıdo pelos possıveis

resultados da experiencia aleatoria) por um numero e considera a sequencia

formada pelos resultados, de uma experiencia repetida indefinidamente, um

coletivo no caso de se verificarem os seguintes postulados:

1.Existencia de limite — as frequencias relativas de um coletivo convergem

para um limite.

2.Aleatoriedade — as frequencias relativas de qualquer subsequencia da

sequencia original tem o mesmo limite.Von Mises

Para von Mises a probabilidade so existe quando aplicada a coletivos, sendo definida pelo

limite das frequencias relativas. Assim sendo, a probabilidade so esta definida em experiencias

que podem ser repetidas indefinidamente e nunca em acontecimentos unicos. O segundo postu-

lado (tambem denominado princıpio da exclusao do sistema de jogo) garante a aleatoriedade

dos resultados, pois, no caso de existencia de regularidades, poder-se-iam prever alguns resultados

— por exemplo, se num jogo de cara (0) ou coroa (1) os resultados fossem sempre alternados,

terıamos uma sequencia 0101010 · · · e as frequencias relativas do acontecimento cara teriam limite

12, porem os limites das subsequencias de lancamentos pares (ou ımpares) nao tem o mesmo limite,

logo nao pode ser considerado um coletivo e consequentemente a probabilidade nao esta definida.

Estes axiomas foram muito criticados por diversos autores, no entanto, a Teoria Frequencista de

Probabilidade foi desenvolvida de forma a ser, na atualidade, uma das mais influentes.

Estatıstica classica/frequencista

Se considerarmos que uma amostra e uma sequencia retirada de um coletivo, a primeira

condicao garante a homogeneidade distribucional (que as variaveis aleatorias que compoem a

amostra tenham a mesma distribuicao marginal) e a segunda condicao garante a aleatoriedade

dos resultados (independencia entre as variaveis). Desta forma, nesta visao de von Mises, numa

amostra as variaveis aleatorias sao independentes e identicamente distribuıdas, o que torna o trata-

mento matematico da funcao densidade conjunta mais elementar, pois as hipoteses adjacentes,

independencia e homogeneidade, simplificam bastante a sua analise.

Na estatıstica classica a base sao as distribuicoes amostrais, distribuicoes de uma funcao da

amostra aleatoria — h (X1, X2, · · · , Xn). Os estimadores, estatısticas de testes ou preditores sao

funcoes h (X1, X2, · · · , Xn) da amostra aleatoria (X1, X2, · · · , Xn) sendo, como tal, tambem uma

variavel aleatoria. E fundamental, em toda a inferencia na estatıstica classica, determinar estas

distribuicoes amostrais. Para tal, a hipotese de que as variaveis aleatorias (X1, X2, · · · , Xn) sao

independentes e identicamente distribuıdas, consequencia dos dois axiomas de Richard von Mises,

e primordial.

Contudo, nem sempre e analiticamente possıvel deduzir as distribuicoes das estatısticas (de-

pendendo da distribuicao inerente a cada observacao e da funcao h utilizada). Deste modo, no

determinar da distribuicao de cada estatıstica, tornou-se usual o recurso a simulacao de amostras

(nos caso em que a distribuicao de cada observacao seja conhecida). Por outro lado, considerando

que se pretende analisar todas as possıveis amostras de dimensao n, que e computacionalmente im-

possıvel para amostras e populacoes de dimensao razoavel, a metodologia de simulacao Bootstrap

desempenha um papel central na investigacao atual desta visao.

A teoria da decisao de Wald

Abraham Wald, em 1939, considera que as duas principais

aplicacoes da Estatıstica (estimacao e testes de hipoteses) podem ser con-

siderados casos particulares de problemas de decisao. Deste modo,Wald

reconstrui a Teoria da Estatıstica como uma Teoria da Decisao (nome que

so viria a ser utilizado a partir de 1950, com os trabalhos de Erich Leo

Lehmann (1917−2009)). Wald

Desde a origem do Calculo de Probabilidades, logo nos trabalhos de Pascal, e utilizado o

conceito de valor esperado do ganho para tomar decisoes (escolher a melhor estrategia de jogo).

Em 1738 Daniel Bernoulli (1700−1782), na tentativa de clarificar o celebre paradoxo de Sao

Petersburgo, criou a funcao de utilidade e usou o valor esperado da utilidade (onde a utilidade

de ganhar o montante M e dado por log(M)), considerando que os valores monetarios tem utili-

dade marginal decrescente. Deste modo, baseado na Teoria dos Jogos que John von Neumann

(1903−1957) e Oskar Morgenstern (1902−1977) criaram por volta de 1944, Wald concebeu

a teoria da decisao de forma a obter o melhor processo de decisao quando ha incerteza sobre o

que pode ocorrer. Neste sentido, criou conceitos fundamentais na Estatıstica, tais como a funcao

perda, a funcao risco, regras de decisao admissıveis, regras de decisao minimax, entre outras. Outro

contributo importante de Wald foi a introducao da analise estatıstica sequencial. 8/13