Estimação pontual em inferência bayesiana

Inferência bayesiana sobre um parâmetro de interesse após observar os dados nos dá uma distribuição de probabilidade , a distribuição a posteriori. Resumir essa informação pontualmente em um estimador é de interesse do agente tomador de decisão. Por exemplo, se a quantidade de interesse é , a média a posteriori de sob a distribuição a posteriori é um possível estimador.

Sem definir uma perda, não há como selecionar um melhor estimador. Um possível estimador é o máximo a posteriori (MAP) que é definido como a moda da distribuição a posteriori, isto é, o valor de cuja densidade é a mais alta. Se , a perda associada a esse estimador é a 0-1. Para o caso contínuo, defina . O estimador que minimizar quando é o MAP.

Como maximizar em é equivalente a maximizar , o MAP pode ser visto como um estimador de máxima verossimilhança com penalização. Além do mais, sob algumas condições de regularidade, as propriedades assintóticas do MLE clássico são preservadas, o que faz sentido dado que quando aumenta, a informação da verossimilhança é predominante se comparada com a informação da priori, que é fixa.

Quando atribuímos um estimador para , também podemos medir sua precisão através de alguma esperança, por exemplo o erro quadrado a posteriori que é, em particular, a variância sob de condicionada em quando o estimador é a média a posteriori de .

Teoria da decisão em inferência bayesiana

Lembramos que dada uma perda e uma distribuição a priori , o estimador de Bayes é solução de

Lema: Seja uma distribuição da família exponencial. Assim, a média a posteriori de é dada por em que é a distribuição marginal do dado. Esse resultado é como se fosse o dual da relação dos momentos de com .

Dada uma perda e o estimador de Bayes associado , podemos estimar a performance dele através da estimativa da perda através de O estimador de Bayes para segundo essa perda é Quando é a perda quadrática, note que .