Энтропия Шеннона — измерение случайности
Насколько случайны результаты лотереи? Информационная энтропия покажет
Энтропия Шеннона — фундаментальная мера случайности (хаотичности) из теории информации. Максимальная энтропия означает полностью случайные результаты. Низкая энтропия указывает на наличие паттернов в результатах лотереи «Великолепная 8».
Анализ построен на основе 20 тиражей за период с по
Что такое энтропия Шеннона?
Теория информации и лотереи
Энтропия Шеннона — это мера неопределённости (информационного содержания) случайной величины. Названа в честь Клода Шеннона, основоположника теории информации (1948).
Формула
H = -Σ pᵢ · log₂(pᵢ)
- H — энтропия в битах
- pᵢ — вероятность (частота) i-го числа
- H_max = log₂(N) — максимальная энтропия при N равновероятных числах
Высокая энтропия
Все числа выпадают примерно одинаково часто. Результаты трудно предсказать.
Низкая энтропия
Некоторые числа выпадают значительно чаще других. Есть потенциальные паттерны.
Скользящая энтропия
Анализируя энтропию за скользящее окно N тиражей, можно увидеть, как менялась случайность лотереи со временем. Провалы могут указывать на периоды с аномальными результатами.