Энтропия Реньи


В теории информации энтропия Реньи обобщает энтропию Хартли , энтропию Шеннона , энтропию столкновений и минимальную энтропию . Энтропии количественно определяют разнообразие, неопределенность или случайность системы. Энтропия названа в честь Альфреда Реньи . [1] В контексте оценки фрактальной размерности энтропия Реньи составляет основу концепции обобщенных размерностей .

Энтропия Реньи важна в экологии и статистике как показатель разнообразия . Энтропия Реньи также важна в квантовой информации , где ее можно использовать как меру запутанности . В модели спиновой цепи Гейзенберга XY энтропия Реньи как функция α может быть вычислена явно, поскольку она является автоморфной функцией по отношению к конкретной подгруппе модулярной группы . [2] [3] В теоретической информатике минимальная энтропия используется в контексте экстракторов случайности .

Энтропия Реньи порядка , где и , определяется как

Здесь – дискретная случайная величина с возможными исходами в наборе и соответствующими вероятностями для . Логарифм обычно принимается по основанию 2, особенно в контексте теории информации, где используются биты . Если вероятности для всех , то все энтропии Реньи распределения равны: . В общем, для всех дискретных случайных величин , является невозрастающей функцией в .

Приложения часто используют следующее соотношение между энтропией Реньи и p -нормой вектора вероятностей:


Энтропия Реньи случайной величины с двумя возможными исходами против p 1 , где P = ( p 1 , 1 − p 1 ) . Показаны H 0 , H 1 , H 2 и H в единицах шеннона .