В 2010 году Ву и Верду дали рабочую характеристику информационного измерения Реньи как фундаментального ограничения практически без потерь сжатия данных для аналоговых источников при различных ограничениях регулярности кодера / декодера.
Если существует информационное измерение , можно определить -мерную энтропию этого распределения как
при условии, что лимит существует. Если , нульмерная энтропия равна стандартной энтропии Шеннона . Для целого размерности , то -мерная энтропия является -кратно интегралом , определяющий соответствующим дифференциал энтропии .
В соответствии с теоремой Лебега разложения , [2] распределение вероятностей может быть однозначно представлено смесью
где и ; является чисто атомарной вероятностной мерой (дискретная часть), является абсолютно непрерывной вероятностной мерой и является вероятностной мерой, сингулярной по отношению к мере Лебега, но без атомов (сингулярная часть). Позвольте быть случайной величиной, такой что . Предположим, что распределение можно представить как
где - дискретная мера, - абсолютно непрерывная вероятностная мера с . Затем
Кроме того, учитывая и дифференциальную энтропию , то -мерная энтропия просто задаются
где это Шеннон энтропия дискретной случайной величины с и и задаются
Мы пропускаем сигнал через полуволновой выпрямитель, который преобразует все отрицательные значения в 0 и поддерживает все остальные значения. Однополупериодный выпрямитель можно охарактеризовать функцией
Тогда на выходе выпрямителя сигнал имеет выпрямленное гауссово распределение . Он характеризуется атомной массой 0,5 и имеет гауссову PDF для всех .
С этим смешанным распределением мы применяем приведенную выше формулу и получаем информационную размерность распределения и вычисляем -мерную энтропию.
Нормализованная правая часть гауссова распределения с нулевым средним имеет энтропию , следовательно,
Показано [3], что информационная размерность и дифференциальная энтропия тесно связаны.
Позвольте быть случайной величиной с непрерывной плотностью .
Предположим, мы делим диапазон на интервалы длины . По теореме о среднем значении в каждой ячейке существует такое значение , что
Рассмотрим дискретизированную случайную величину, если .
Вероятность каждой точки поддержки равна
Пусть . Энтропия IS
Если мы установили, а затем мы делаем точно такое же квантование, что и определение информационного измерения. Поскольку перемаркировка событий дискретной случайной величины не изменяет ее энтропию, мы имеем
Это дает
а когда достаточно большой,
которая является дифференциальной энтропией непрерывной случайной величины. В частности, если она интегрируема по Риману, то
Сравнение этой энтропии с -мерной энтропией показывает, что дифференциальная энтропия - это в точности одномерная энтропия
Фактически, это можно обобщить на более высокие измерения. Реньи показывает, что если - случайный вектор в -мерном евклидовом пространстве с абсолютно непрерывным распределением с функцией плотности вероятности и конечной энтропией целой части ( ), то имеем
Информационное измерение распределения дает теоретическую верхнюю границу степени сжатия, если кто-то хочет сжать переменную, полученную из этого распределения. В контексте сжатия данных без потерь мы пытаемся сжать действительное число с меньшим числом действительного числа, оба из которых имеют бесконечную точность.
Основная цель сжатия данных без потерь - найти эффективные представления для исходных реализаций с помощью . Код представляет собой пару отображений:
кодировщик: который преобразует информацию из источника в символы для передачи или хранения;
декодер: обратный процесс преобразования кодовых символов обратно в форму, понятную получателю.
Вероятность ошибки блока составляет .
Определим как нижнюю грань таких, что существует такая последовательность кодов, что для всех достаточно велика .
Таким образом, в основном дает соотношение между длиной кода и длиной источника, это показывает, насколько хороша конкретная пара кодеров-декодеров. Основные ограничения в кодировании источников без потерь заключаются в следующем. [4]
Рассмотрим функцию непрерывного кодирования с ее функцией непрерывного декодирования . Если мы не налагаем регулярности и , благодаря богатой структуре , у нас будет минимально- достижимая ставка для всех . Это означает, что можно построить пару кодер-декодер с бесконечной степенью сжатия.
Чтобы получить какие-то нетривиальные и содержательные выводы, приведем минимально достижимую скорость для линейного кодера и декодера Бореля. Если случайная величина имеет распределение, которое представляет собой смесь дискретной и непрерывной частей. Тогда для всех. Предположим, мы ограничиваем декодер до липшицевой функции и выполняется, тогда минимально достижимая скорость для всех .
Чинлар, Эрхан (2011). Вероятность и стохастика . Тексты для выпускников по математике. 261 . Springer. DOI : 10.1007 / 978-0-387-87859-1 . ISBN 978-0-387-87858-4.CS1 maint: ref=harv (link)
Обложка, Томас М .; Томас, Джой А. (2012). Элементы теории информации (2-е изд.). Вайли. С. 247–248. ISBN 9781118585771.CS1 maint: ref=harv (link)
Реньи, А. (март 1959 г.). «О размерности и энтропии вероятностных распределений». Acta Mathematica Academiae Scientiarum Hungaricae . 10 (1–2): 193–215. DOI : 10.1007 / BF02063299 . ISSN 0001-5954 .CS1 maint: ref=harv (link)
Ву, Ихонг; Верду, С. (август 2010 г.). «Информационное измерение Реньи: фундаментальные пределы аналогового сжатия почти без потерь». IEEE Transactions по теории информации . 56 (8): 3721–3748. DOI : 10.1109 / TIT.2010.2050803 . ISSN 0018-9448 .CS1 maint: ref=harv (link)