Lotteria Eurojackpot
Entropia di Shannon — Misurazione della casualità
Quanto sono casuali i risultati della lotteria? L'entropia informativa lo mostrerà
L'entropia di Shannon è una misura fondamentale della casualità (caos) dalla teoria dell'informazione. L'entropia massima significa risultati completamente casuali. Un'entropia bassa indica la presenza di pattern nei risultati della lotteria "Eurojackpot".
Analisi basata su 20 estrazioni dal al
Cos'è l'entropia di Shannon?
Teoria dell'informazione e lotterie
L'entropia di Shannon è una misura dell'incertezza (contenuto informativo) di una variabile casuale. Prende il nome da Claude Shannon, fondatore della teoria dell'informazione (1948).
Formula
H = -Σ pᵢ · log₂(pᵢ)
- H — entropia in bit
- pᵢ — probabilità (frequenza) dell'i-esimo numero
- H_max = log₂(N) — entropia massima con N numeri equiprobabili
Alta entropia
Tutti i numeri appaiono approssimativamente con la stessa frequenza. I risultati sono difficili da prevedere.
Bassa entropia
Alcuni numeri appaiono significativamente più spesso di altri. Ci sono potenziali pattern.
Entropia mobile
Analizzando l'entropia su una finestra mobile di N estrazioni, puoi vedere come la casualità della lotteria è cambiata nel tempo. I cali possono indicare periodi con risultati anomali.