Revisão de Probabilidade
Nessa seção, vamos introduzir alguns conceitos chave de probabilidade e medida para a compreensão do curso de estatística.
Medida
Uma medida atribui um valor não negativo a subconjuntos , com certas propriedades que intuitivamente gostaríamos de observar. Por exemplo, se for um conjunto enumerável, como os números naturais, poderíamos definir uma medida para como conhecida como medida de contagem. No caso em que para algum , podemos definir a noção de volume de com conhecida como medida de Lebesgue. Para tornar esse conceito mais rigoroso, definimos uma -álgebra como
Uma coleção de subconjuntos de , isto é, (conjunto das partes de ) é uma -álgebra se:
i) .
ii) Se , então .
iii) Se , então .
Uma medida é uma função que satisfaz a propriedade de que se a sequência é disjunta dois a dois, então chamada de axioma da aditividade enumerável.
Podemos definir algumas características de interesse para medidas:
- é medida finita se .
- é medida -finita se existe sequência com tal que .
- é medida de probabilidade se .
Chamamos o par de espaço mensurável e a tripla de espaço medida. No caso em que é medida de probabilidade, temos um espaço de probabilidade.
Se , dizemos que tem medida nula. Se alguma propriedade vale quase sempre, queremos dizer que o conjunto em que não vale tem medida nula.
Observação: Os axiomas da probabilidade ou de Kolmogorov são os três seguintes: (I) para todo evento , (II) e (III) para uma sequência disjunta. Alguns estatísticos, como deFinetti, acreditam que o axioma (III) é muito forte e pouco auto-evidente. Para isso, sugerem a aditividade finita quando . Essa alteração, todavia, gera complicações que não, necessariamente, melhoram o entendimento dos conceitos de probabilidade.
Integração
Uma função com valores reais e definida em é mensurável se o conjunto pertence a para todo conjunto de Borel. Podemos tomar da forma , por exemplo. Podemos mostrar que funções contínuas ou contínuas por partes são mensuráveis.
Podemos então, definir propriedades básicas da integral de Lebesgue. Denote . Assim:
(1) .
(2) Se e são funções mensuráveis não negativas e :
(3) Se e , então e essa propriedade é o Teorema da Convergência Monótona.
Uma função simples é uma função constante por partes que assume um valor finito de valores . Podemos escrever uma função simples como para disjuntos, e obter que Além disso, um teorema bem interessante mostra que se é não negativa e mensurável, então existe uma sequência de funções simples com . Isso mostra que qualquer função não negativa mensurável pode ser integrada.
Por fim, basta ver que é a soma de duas funções não negativas, e portanto, pode ser integrada através de Dizemos que é integrável se
Algumas consequências importantes:
-
Se quase sempre, então
-
Se e , então quase sempre.
-
Se quase sempre, então se uma das integrais existe.
-
Se para todo , então quase sempre em .
-
Se são integráveis, então , a menos que seja identicamente nula.
Eventos e variáveis aleatórias
Seja um espaço de probabilidade. Dizemos que é um evento. Todos os possíveis desfechos de um experimento dado pelo conjunto formam o espaço amostral. Uma variável aleatória é uma função mensurável . A distribuição de é , isto é, quando isto é, é definida nos conjuntos de Borel de . A função de distribuição acumulada (FDA) (em inglês, CDF) de é a função para .
Caracterização da FDA: A função é uma FDA se, e somente se, as seguintes condições valem:
1) e .
2) é uma função monótona não decrescente de .
3) é contínua à direita, isto é, .
Além do mais, se para todo conjunto de Borel , então e são identicamente distribuídas. Isso é equivalente a notar que para todo valor de .
Densidades
Uma medida é absolutamente contínua com respeito a outra se ela dá volume para as regiões que a outra também dá, isto é:
Sejam e medidas definidas em . Dizemos que é absolutamente contínua com respeito a se sempre que . Nesse caso, escrevemos que . Também dizemos que domina .
Logo é equivalente a observar que o suporte de contém o suporte de .
Teorema de Radon-Nikodym: Se uma medida finita é absolutamente contínua com respeito a uma medida -finita, então existe uma função mensurável tal que Chamamos de derivada Radon-Nikodym de com respeito a , ou a densidade de com respeito a e escrevemos Vejam que de fato isso generaliza a noção de derivada, pois pelo Teorema fundamental do Cálculo, em que nesse caso estamos tomando a medida de Lebesgue na reta como medida dominante. Concluímos também que a densidade de é determinada a menos de um conjunto de medida nula.
Esperança
Se é uma variável aleatória definida em , o valor esperado de é definido como Se , podemos mostrar que Além do mais, se , então Se tem densidade com respeito a , então Finalmente, definimos , e .
Vetores Aleatórios
Seja uma função mensurável (no sentido dos conjuntos de Borel em ). Se e é absolutamente contínua com respeito a medida de Lebesgue em com densidade , temos que A esperança de é E se é mensurável, então é variável aleatória com
Medida produto
Sejam e espaços de medida. Então existe uma única medida chamada de medida produto em tal que para e . Denotamos como a menor -álgebra que contém .
Com respeito a integração, obtemos o seguinte teorema
Teorema de Fubini: Se , então Além do mais, se não é satisfeito, mas é integrável com respeito a , a relação ainda é válida.
Independência
A partir da definição de medida produto, podemos falar do conceito de independência de duas variáveis aleatórias. Sejam dois vetores aleatórios e . Dizemos que eles são independentes se para todos os conjuntos de Borel e .
Seja em . Temos que se, e só se, e . Nesse caso, A densidade de também é dada pelo produto das densidades de e pelo Teorema de Fubini.
Finalmente, temos o resultado de que se são vetores aleatórios independentes e se são funções mensuráveis, então são independentes.
Densidades conjunta e marginais
A densidade conjunta de e denotada por satisfaz A densidade marginal de () pode ser obtida integrando (), e assim: com respeito a .
Cálculo de probabilidades
A partir dos Axiomas da Probabilidade, podemos obter alguns resultados importantes:
1)
2)
3)
Condicionando
Considere duas variáveis aleatórias e não independentes. Com isso, se observamos , temos alguma informação adicional sobre , e sua distribuição marginal não representa mais a totalidade.
Considere e duas variáveis discretas definidas em e , respectivamente. Definimos a probabilidade condicional de dado como É fácil verificar que define uma medida de probabilidade em . A média condicional de uma função de é dada por
De forma geral, se , escrevemos para eventos e . Mas o que fazer quando ? Em especial, isso ocorre quando falamos de variáveis aleatórias contínuas, já que , por exemplo.
Probabilidade condicional: Dadas variáveis aleatórias e com e um evento , dizemos que é probabilidade condicional de dado se é uma variável aleatória -mensurável ( é a menor -álgebra em é mensurável) e, para todos os Boreis , temos De forma similar, introduzimos o conceito de , substituindo acima probabilidades por esperanças: Como consequência, probabilidades e esperanças condicionais são definidas a menos de um conjunto de medida nula.
Distribuição condicional: Uma função é distribuição condicional de dado se
1) é uma medida de probabilidade para todo ;
2) é função mensurável de para todo Borel ;
3) .
Escrevemos então que .
Teorema (densidade condicional): Suponha que e sejam vetores aleatórios com densidade conjunta com respeito a . Seja . Para , defina e seja a medida de probabilidade com densidade com respeito a . Se , então defina em que é densidade de uma distribuição de probabilidade arbitrária e seja . Então é distribuição condicional de dado .
Uma consequência é que quando as esperanças existem. Essa relação é conhecida como Lei da Probabilidade Total ou Lei da Esperança Total.
Teorema: Seja um espaço de Borel com medida -finita. Sejam uma variável (vetor) aleatória e uma função mensurável. Defina . Suponha que a distribuição de tenha densidade com respeito a . A distribuição conjunta de é absolutamente contínua a , que é definida por e tem densidade . Além do mais, Esse resultado é o Corolário B.55 descrito no livro do Schervish.
Conceitos de convergência
Veja Apêndice B.4 do livro do Schervish (p. 634) e a seção 5.5 do livro de Casella e Berger (p. 232).
Conceitos abordados: - Convergência em probabilidade e a Lei Fraca dos Grandes Números; - Convergência quase certa ou com probabilidade 1 e a Lei Forte dos Grandes Números; - Convergência em distribuição e o Teorema Central do Limite; - Convergência fraca através de integrais, equivalente à convergência em distribuição; - Teorema de Slutsky e o Teorema da função contínua.
Material adicional
-
Notas de Terence Tao: notas que iniciam com um pouco da ideia da construção de probabilidade, probabilidade em espaços discretos e introdução de medida em probabilidade. São notas para um curso de probabilidade da graduação.
-
A First Look at Rigorous Probability Theory: bom livro de probabilidade para o nível de mestrado.