Lotteria NY - Pick 10
Entropia di Shannon — Misurazione della casualità
Quanto sono casuali i risultati della lotteria? L'entropia informativa lo mostrerà
L'entropia di Shannon è una misura fondamentale della casualità (caos) dalla teoria dell'informazione. L'entropia massima significa risultati completamente casuali. Un'entropia bassa indica la presenza di pattern nei risultati della lotteria "NY - Pick 10".
Analisi basata su 20 estrazioni dal al
Cos'è l'entropia di Shannon?
Teoria dell'informazione e lotterie
L'entropia di Shannon è una misura dell'incertezza (contenuto informativo) di una variabile casuale. Prende il nome da Claude Shannon, fondatore della teoria dell'informazione (1948).
Formula
H = -Σ pᵢ · log₂(pᵢ)
- H — entropia in bit
- pᵢ — probabilità (frequenza) dell'i-esimo numero
- H_max = log₂(N) — entropia massima con N numeri equiprobabili
Alta entropia
Tutti i numeri appaiono approssimativamente con la stessa frequenza. I risultati sono difficili da prevedere.
Bassa entropia
Alcuni numeri appaiono significativamente più spesso di altri. Ci sono potenziali pattern.
Entropia mobile
Analizzando l'entropia su una finestra mobile di N estrazioni, puoi vedere come la casualità della lotteria è cambiata nel tempo. I cali possono indicare periodi con risultati anomali.