Loteria Рапидо Старт
Entropia de Shannon — Medindo a Aleatoriedade
Quão aleatórios são os resultados da loteria? A entropia da informação mostrará
A entropia de Shannon é uma medida fundamental de aleatoriedade (caos) da teoria da informação. Entropia máxima significa resultados completamente aleatórios. Entropia baixa indica a presença de padrões nos resultados da loteria "Рапидо Старт".
Análise baseada em 20 sorteios de a
O que é Entropia de Shannon?
Teoria da informação e loterias
A entropia de Shannon é uma medida de incerteza (conteúdo informacional) de uma variável aleatória. Nomeada em homenagem a Claude Shannon, fundador da teoria da informação (1948).
Fórmula
H = -Σ pᵢ · log₂(pᵢ)
- H — entropia em bits
- pᵢ — probabilidade (frequência) do i-ésimo número
- H_max = log₂(N) — entropia máxima com N números igualmente prováveis
Alta entropia
Todos os números aparecem aproximadamente com a mesma frequência. Os resultados são difíceis de prever.
Baixa entropia
Alguns números aparecem significativamente mais vezes que outros. Existem padrões potenciais.
Entropia deslizante
Ao analisar a entropia em uma janela deslizante de N sorteios, você pode ver como a aleatoriedade da loteria mudou ao longo do tempo. Quedas podem indicar períodos com resultados anômalos.