Loterie Dia de Sorte
Entropie de Shannon — Mesure du caractère aléatoire
Les résultats de la loterie sont-ils aléatoires ? L'entropie informationnelle le montrera
L'entropie de Shannon est une mesure fondamentale du caractère aléatoire (du chaos) issue de la théorie de l'information. Une entropie maximale signifie des résultats totalement aléatoires. Une entropie basse indique la présence de tendances dans les résultats de la loterie « Dia de Sorte ».
Analyse basée sur 20 tirages du au
Qu'est-ce que l'entropie de Shannon ?
Théorie de l'information et loteries
L'entropie de Shannon est une mesure de l'incertitude (du contenu informationnel) d'une variable aléatoire. Nommée d'après Claude Shannon, fondateur de la théorie de l'information (1948).
Formule
H = -Σ pᵢ · log₂(pᵢ)
- H — entropie en bits
- pᵢ — probabilité (fréquence) du i-ème numéro
- H_max = log₂(N) — entropie maximale avec N numéros équiprobables
Entropie élevée
Tous les numéros apparaissent à peu près aussi souvent. Les résultats sont difficiles à prédire.
Entropie basse
Certains numéros apparaissent nettement plus souvent que d'autres. Il y a des tendances potentielles.
Entropie glissante
En analysant l'entropie sur une fenêtre glissante de N tirages, vous pouvez voir comment le caractère aléatoire de la loterie a évolué dans le temps. Les creux peuvent indiquer des périodes avec des résultats anormaux.