Lotterie Super Keno
Shannon-Entropie — Messung der Zufälligkeit
Wie zufällig sind die Lotterieergebnisse? Die Informationsentropie zeigt es
Die Shannon-Entropie ist ein grundlegendes Maß für Zufälligkeit (Chaos) aus der Informationstheorie. Maximale Entropie bedeutet völlig zufällige Ergebnisse. Niedrige Entropie deutet auf Muster in den Ergebnissen der Lotterie «Super Keno» hin.
Analyse basierend auf 20 Ziehungen von bis
Was ist Shannon-Entropie?
Informationstheorie und Lotterien
Die Shannon-Entropie ist ein Maß für die Ungewissheit (den Informationsgehalt) einer Zufallsvariable. Benannt nach Claude Shannon, dem Begründer der Informationstheorie (1948).
Formel
H = -Σ pᵢ · log₂(pᵢ)
- H — Entropie in Bits
- pᵢ — Wahrscheinlichkeit (Häufigkeit) der i-ten Zahl
- H_max = log₂(N) — maximale Entropie bei N gleich wahrscheinlichen Zahlen
Hohe Entropie
Alle Zahlen erscheinen ungefähr gleich oft. Die Ergebnisse sind schwer vorherzusagen.
Niedrige Entropie
Einige Zahlen erscheinen deutlich häufiger als andere. Es gibt potenzielle Muster.
Gleitende Entropie
Durch die Analyse der Entropie über ein gleitendes Fenster von N Ziehungen können Sie sehen, wie sich die Zufälligkeit der Lotterie im Zeitverlauf veränderte. Einbrüche können auf Perioden mit ungewöhnlichen Ergebnissen hinweisen.