Lotería Lotto 6/42
Entropía de Shannon — Medición de la aleatoriedad
¿Qué tan aleatorios son los resultados de la lotería? La entropía informacional lo mostrará
La entropía de Shannon es una medida fundamental de aleatoriedad (caos) de la teoría de la información. La entropía máxima significa resultados completamente aleatorios. Una entropía baja indica la presencia de patrones en los resultados de la lotería "Lotto 6/42".
Análisis basado en 20 sorteos desde hasta
¿Qué es la entropía de Shannon?
Teoría de la información y loterías
La entropía de Shannon es una medida de incertidumbre (contenido informacional) de una variable aleatoria. Lleva el nombre de Claude Shannon, fundador de la teoría de la información (1948).
Fórmula
H = -Σ pᵢ · log₂(pᵢ)
- H — entropía en bits
- pᵢ — probabilidad (frecuencia) del i-ésimo número
- H_max = log₂(N) — entropía máxima con N números equiprobables
Alta entropía
Todos los números aparecen con frecuencia aproximadamente igual. Los resultados son difíciles de predecir.
Baja entropía
Algunos números aparecen con significativamente más frecuencia que otros. Existen patrones potenciales.
Entropía deslizante
Al analizar la entropía sobre una ventana deslizante de N sorteos, se puede observar cómo cambió la aleatoriedad de la lotería a lo largo del tiempo. Las caídas pueden indicar períodos con resultados anómalos.