✅ Formulamos duas hipóteses sobre o dado mental ($H_1$: uniforme, $H_2$: viés central)
✅ Calculamos a verossimilhança de cada hipótese: $\mathcal{L}(H;\text{dados}) = P(\text{dados} \mid H)$
✅ Comparamos as duas hipóteses pela razão de verossimilhanças: $$\Lambda = \frac{\mathcal{L}(H_2;\text{dados})}{\mathcal{L}(H_1;\text{dados})}$$
Na Aula 01: "qual das duas hipóteses é mais plausível?"
Essa extensão nos conduz ao Teorema de Bayes e à inferência bayesiana
Uma caixa contém exatamente 4 bolinhas, cada uma azul 🔵 ou branca ⚪.
A composição da caixa é desconhecida. Com 4 bolinhas de 2 cores, há 5 configurações possíveis:
| Hipótese | Composição | N azuis | $p = N/4$ |
|---|---|---|---|
| $H_0$ | ⚪⚪⚪⚪ | 0 | 0 |
| $H_1$ | 🔵⚪⚪⚪ | 1 | 0,25 |
| $H_2$ | 🔵🔵⚪⚪ | 2 | 0,50 |
| $H_3$ | 🔵🔵🔵⚪ | 3 | 0,75 |
| $H_4$ | 🔵🔵🔵🔵 | 4 | 1 |
Dados: McElreath, 2020
🔄 A caixa é sacudida.
✋ Uma bolinha é retirada pela abertura.
👁️ Sua cor é registrada.
↩️ A bolinha retorna à caixa antes da próxima retirada.
Sob $H_1 =$ [🔵⚪⚪⚪]: há 4 bolinhas, cada uma com a mesma chance de ser retirada.
Sob $H_1$, para a sequência [🔵, ⚪, 🔵]:
$1 \times 3 \times 1 = \mathbf{3}$ caminhos compatíveis
Sequência observada: [🔵, ⚪, 🔵]
| Hipótese | $N_j$ azuis | Man. 🔵 | Man. ⚪ | Man. 🔵 | Caminhos compatíveis |
|---|---|---|---|---|---|
| $H_0$ | 0 | 0 | 4 | 0 | $0 \times 4 \times 0 = \mathbf{0}$ |
| $H_1$ | 1 | 1 | 3 | 1 | $1 \times 3 \times 1 = \mathbf{3}$ |
| $H_2$ | 2 | 2 | 2 | 2 | $2 \times 2 \times 2 = \mathbf{8}$ |
| $H_3$ | 3 | 3 | 1 | 3 | $3 \times 1 \times 3 = \mathbf{9}$ |
| $H_4$ | 4 | 4 | 0 | 4 | $4 \times 0 \times 4 = \mathbf{0}$ |
Sob $H_j$ com $N_j$ bolinhas azuis, a probabilidade de retirar azul é $p_j = N_j / 4$.
Para a sequência [🔵, ⚪, 🔵]:
$$\mathcal{L}(H_j;\text{dados}) = P(\text{dados} \mid H_j) = p_j \times (1 - p_j) \times p_j = p_j^2(1 - p_j)$$| Hipótese | $p_j$ | Caminhos / 64 | $\mathcal{L}(H_j) = p_j^2(1-p_j)$ |
|---|---|---|---|
| $H_0$ | $0$ | $0/64$ | $0$ |
| $H_1$ | $1/4$ | $3/64$ | $(1/4)^2 \times (3/4) = 3/64$ |
| $H_2$ | $1/2$ | $8/64$ | $(1/2)^2 \times (1/2) = 8/64$ |
| $H_3$ | $3/4$ | $9/64$ | $(3/4)^2 \times (1/4) = 9/64$ |
| $H_4$ | $1$ | $0/64$ | $0$ |
Hipótese fixa, dados variam.
Dado o modelo, qual a chance deste resultado?
$$P(\text{dados} \mid H_j)$$
Dados fixos, hipótese varia.
Dado que observamos estes dados, quão compatível é cada hipótese?
$$\mathcal{L}(H_j;\text{dados})$$
Nas seções anteriores calculamos a verossimilhança da sequência específica [🔵, ⚪, 🔵].
Para a inferência sobre a composição da caixa, o que importa é o número total de azuis, independentemente da ordem.
Em três retiradas, há $2^3 = 8$ sequências possíveis. Três delas contêm exatamente 2 azuis:
⚪🔵🔵 | 🔵⚪🔵 | 🔵🔵⚪
O coeficiente binomial $\binom{n}{k}$ conta o número dessas sequências:
$$\binom{n}{k} = \frac{n!}{k!\,(n-k)!} \qquad \binom{3}{2} = 3$$Onde:
$k = 2$ azuis em $n = 3$ retiradas
| Hipótese | $p$ | $\mathcal{L}(p;\, k=2,\, n=3) = 3\,p^2(1-p)$ | Valor |
|---|---|---|---|
| $H_0$ | $0$ | $3 \times 0^2 \times 1 = 0$ | $0$ |
| $H_1$ | $1/4$ | $3 \times (1/4)^2 \times (3/4) = 9/64$ | $\approx 0{,}141$ |
| $H_2$ | $1/2$ | $3 \times (1/2)^2 \times (1/2) = 3/8$ | $0{,}375$ |
| $H_3$ | $3/4$ | $3 \times (3/4)^2 \times (1/4) = 27/64$ | $\approx 0{,}422$ |
| $H_4$ | $1$ | $3 \times 1^2 \times 0 = 0$ | $0$ |
O denominador é uma constante de normalização que garante que as probabilidades a posteriori somem 1.
O que governa as diferenças relativas entre as hipóteses é o numerador:
$$P(H_j \mid \text{dados}) \propto P(H_j) \times \mathcal{L}(H_j;\text{dados})$$$P(H_j) = 1/5$ para todo $j$ — sequência [🔵, ⚪, 🔵]
| Hipótese | $P(H_j)$ | $\mathcal{L}(H_j)$ | Produto | $P(H_j \mid \text{dados})$ |
|---|---|---|---|---|
| $H_0$ | $1/5$ | $0$ | $0/320$ | $0{,}000$ |
| $H_1$ | $1/5$ | $3/64$ | $3/320$ | $0{,}150$ |
| $H_2$ | $1/5$ | $8/64$ | $8/320$ | $0{,}400$ |
| $H_3$ | $1/5$ | $9/64$ | $9/320$ | $0{,}450$ |
| $H_4$ | $1/5$ | $0$ | $0/320$ | $0{,}000$ |
| Soma | $1{,}000$ | $20/320$ | $1{,}000$ |
# Proporção de bolinhas azuis em cada hipótese
p <- c(0, 1/4, 2/4, 3/4, 4/4)
# Verossimilhança: probabilidade de 2 azuis em 3 retiradas
likelihood <- dbinom(x = 2, size = 3, prob = p)
# Distribuição a priori uniforme
prior <- rep(1/5, 5)
# Produto não normalizado
nao_normalizado <- prior * likelihood
# Distribuição a posteriori
posterior <- nao_normalizado / sum(nao_normalizado)
# Resultado
data.frame(
hipotese = paste0("H", 0:4),
prior = round(prior, 3),
verossim = round(likelihood, 3),
posteriori = round(posterior, 3)
)
Usamos a distribuição a posteriori de antes como nova distribuição a priori. A verossimilhança de uma nova observação 🔵 é simplesmente $p_j$.
| Hipótese | Priori (post. anterior) | $\mathcal{L}(H_j;\text{🔵}) = p_j$ | Produto | Posteriori |
|---|---|---|---|---|
| $H_0$ | $0{,}000$ | $0{,}000$ | $0{,}0000$ | $0{,}000$ |
| $H_1$ | $0{,}150$ | $0{,}250$ | $0{,}0375$ | $0{,}065$ |
| $H_2$ | $0{,}400$ | $0{,}500$ | $0{,}2000$ | $0{,}348$ |
| $H_3$ | $0{,}450$ | $0{,}750$ | $0{,}3375$ | $0{,}587$ |
| $H_4$ | $0{,}000$ | $1{,}000$ | $0{,}0000$ | $0{,}000$ |
| Soma | $1{,}000$ | $0{,}5750$ | $1{,}000$ |
# Usando a posteriori anterior como nova priori
prior_atualizada <- posterior # do bloco anterior
# Nova observação: uma bolinha azul (verossimilhança = p)
nova_likelihood <- p
# Nova distribuição a posteriori
nao_norm_2 <- prior_atualizada * nova_likelihood
posterior_2 <- nao_norm_2 / sum(nao_norm_2)
# Equivalência: calcular do zero com 4 observações
# [azul, branca, azul, azul] = 3 azuis em 4 retiradas
posterior_direto <- dbinom(x = 3, size = 4, prob = p)
posterior_direto <- posterior_direto / sum(posterior_direto)
# Comparação (devem ser iguais)
round(posterior_2, 3)
round(posterior_direto, 3)
Um fornecedor informa que:
| Hipótese | Priori informativa | $\mathcal{L}(H_j)$ | Produto | Posteriori |
|---|---|---|---|---|
| $H_0$ | $0$ | $0$ | $0$ | $0{,}000$ |
| $H_1$ | $6/9 \approx 0{,}667$ | $3/64$ | $18/576$ | $\approx 0{,}419$ |
| $H_2$ | $2/9 \approx 0{,}222$ | $8/64$ | $16/576$ | $\approx 0{,}372$ |
| $H_3$ | $1/9 \approx 0{,}111$ | $9/64$ | $9/576$ | $\approx 0{,}209$ |
| $H_4$ | $0$ | $0$ | $0$ | $0{,}000$ |
Nenhum conhecimento prévio.
Todas as hipóteses partem com o mesmo peso.
A distribuição a posteriori reflete apenas os dados.
Conhecimento prévio é incorporado.
Hipóteses com maior peso inicial mantêm vantagem, especialmente com poucos dados.
| Conceito | O que aprendemos | Fórmula / notação |
|---|---|---|
| Contagem de caminhos | Mede a compatibilidade entre hipótese e dados pela regra do produto | $N_j \times (4-N_j) \times N_j$ (para [🔵, ⚪, 🔵]) |
| Distribuição Binomial | Probabilidade de $k$ azuis em $n$ retiradas independentes | $P(k \mid n, p) = \binom{n}{k} p^k (1-p)^{n-k}$ |
| Distribuição a priori | Codifica o conhecimento antes dos dados | $P(H_j)$ — uniforme ou informativa |
| Teorema de Bayes | Combina priori e verossimilhança para obter a posteriori | $P(H_j \mid \text{dados}) \propto P(H_j) \times \mathcal{L}(H_j;\text{dados})$ |
| Atualização sequencial | A posteriori de uma etapa vira a priori da próxima | Equivalente a usar todos os dados de uma vez |
| Influência da priori | A priori importa mais com poucos dados; dilui-se com mais dados | Justificar explicitamente a escolha da distribuição a priori |