Лотерея Лавина призов
Энтропия Шеннона — измерение случайности Лавина призов
Лавина призов — насколько случайны результаты лотереи? Информационная энтропия покажет
Энтропия Шеннона — фундаментальная мера случайности (хаотичности) из теории информации. Максимальная энтропия означает полностью случайные результаты. Низкая энтропия указывает на наличие паттернов в результатах лотереи «Лавина призов».
Анализ построен на основе 20 тиражей за период с по
Доступно с Premium
Что такое энтропия Шеннона?
Теория информации и лотереи
Энтропия Шеннона — это мера неопределённости (информационного содержания) случайной величины. Названа в честь Клода Шеннона, основоположника теории информации (1948).
Формула
H = -Σ pᵢ · log₂(pᵢ)
- H — энтропия в битах
- pᵢ — вероятность (частота) i-го числа
- H_max = log₂(N) — максимальная энтропия при N равновероятных числах
Высокая энтропия
Все числа выпадают примерно одинаково часто. Результаты трудно предсказать.
Низкая энтропия
Некоторые числа выпадают значительно чаще других. Есть потенциальные паттерны.
Скользящая энтропия
Анализируя энтропию за скользящее окно N тиражей, можно увидеть, как менялась случайность лотереи со временем. Провалы могут указывать на периоды с аномальными результатами.