Из Википедии, свободной энциклопедии
Перейти к навигации Перейти к поиску

В теории информации , информационное измерение является информационной мерой для случайных векторов в евклидовом пространстве , на основе нормированной энтропии тонко квантованных версий случайных векторов. Эта концепция была впервые введена Альфредом Реньи в 1959 г. [1]

Проще говоря, это мера фрактальной размерности в виде распределения вероятностей . Он характеризует скорость роста энтропии Шеннона, задаваемую последовательно более тонкой дискретизацией пространства.

В 2010 году Ву и Верду дали рабочую характеристику информационного измерения Реньи как фундаментального ограничения практически без потерь сжатия данных для аналоговых источников при различных ограничениях регулярности кодера / декодера.

Определение и свойства [ править ]

Энтропия дискретной случайной величины равна

где - мера вероятности того, когда , а обозначает набор .

Позвольте быть произвольной действительной случайной величиной. Учитывая положительное целое число , мы создаем новую дискретную случайную величину

где - оператор пола, который преобразует действительное число в наибольшее целое меньшее его. Затем

и

называются нижним и верхним информационными измерениями соответственно. Когда мы называем это ценностным информационным измерением ,

Некоторые важные свойства информационного измерения :

  • Если мягкое условие выполнено, то у нас есть .
  • Для -мерного случайного вектора первое свойство можно обобщить на .
  • При ограничении экспоненциальной подпоследовательностью достаточно вычислить верхнюю и нижнюю информационные размерности .
  • и остаются неизменными, если при квантовании используются функции округления или ограничения.

-Пространственная энтропия [ править ]

Если существует информационное измерение , можно определить -мерную энтропию этого распределения как

при условии, что лимит существует. Если , нульмерная энтропия равна стандартной энтропии Шеннона . Для целого размерности , то -мерная энтропия является -кратно интегралом , определяющий соответствующим дифференциал энтропии .

Дискретно-непрерывные распределения смеси [ править ]

В соответствии с теоремой Лебега разложения , [2] распределение вероятностей может быть однозначно представлено смесью

где и ; является чисто атомарной вероятностной мерой (дискретная часть), является абсолютно непрерывной вероятностной мерой и является вероятностной мерой, сингулярной по отношению к мере Лебега, но без атомов (сингулярная часть). Позвольте быть случайной величиной, такой что . Предположим, что распределение можно представить как

где - дискретная мера, - абсолютно непрерывная вероятностная мера с . Затем

Кроме того, учитывая и дифференциальную энтропию , то -мерная энтропия просто задаются

где это Шеннон энтропия дискретной случайной величины с и и задаются

Пример [ править ]

Стандартное распределение Гаусса для иллюстрации example.png

Рассмотрим сигнал с гауссовым распределением вероятностей .

Мы пропускаем сигнал через полуволновой выпрямитель, который преобразует все отрицательные значения в 0 и поддерживает все остальные значения. Однополупериодный выпрямитель можно охарактеризовать функцией

Исправленное распределение Гаусса.png

Тогда на выходе выпрямителя сигнал имеет выпрямленное гауссово распределение . Он характеризуется атомной массой 0,5 и имеет гауссову PDF для всех .

С этим смешанным распределением мы применяем приведенную выше формулу и получаем информационную размерность распределения и вычисляем -мерную энтропию.

Нормализованная правая часть гауссова распределения с нулевым средним имеет энтропию , следовательно,

Связь с дифференциальной энтропией [ править ]

Показано [3], что информационная размерность и дифференциальная энтропия тесно связаны.

Позвольте быть случайной величиной с непрерывной плотностью .

Простая непрерывная функция, которая используется для квантования.png

Предположим, мы делим диапазон на интервалы длины . По теореме о среднем значении в каждой ячейке существует такое значение , что

Рассмотрим дискретизированную случайную величину, если .

F (x), который уже был квантован в несколько функций Дирака. Png

Вероятность каждой точки поддержки равна

Пусть . Энтропия IS

Если мы установили, а затем мы делаем точно такое же квантование, что и определение информационного измерения. Поскольку перемаркировка событий дискретной случайной величины не изменяет ее энтропию, мы имеем

Это дает

а когда достаточно большой,

которая является дифференциальной энтропией непрерывной случайной величины. В частности, если она интегрируема по Риману, то

Сравнение этой энтропии с -мерной энтропией показывает, что дифференциальная энтропия - это в точности одномерная энтропия

Фактически, это можно обобщить на более высокие измерения. Реньи показывает, что если - случайный вектор в -мерном евклидовом пространстве с абсолютно непрерывным распределением с функцией плотности вероятности и конечной энтропией целой части ( ), то имеем

и

если интеграл существует.

Сжатие данных без потерь [ править ]

Информационное измерение распределения дает теоретическую верхнюю границу степени сжатия, если кто-то хочет сжать переменную, полученную из этого распределения. В контексте сжатия данных без потерь мы пытаемся сжать действительное число с меньшим числом действительного числа, оба из которых имеют бесконечную точность.

Основная цель сжатия данных без потерь - найти эффективные представления для исходных реализаций с помощью . Код представляет собой пару отображений:

  • кодировщик: который преобразует информацию из источника в символы для передачи или хранения;
  • декодер: обратный процесс преобразования кодовых символов обратно в форму, понятную получателю.

Вероятность ошибки блока составляет .

Определим как нижнюю грань таких, что существует такая последовательность кодов, что для всех достаточно велика .

Таким образом, в основном дает соотношение между длиной кода и длиной источника, это показывает, насколько хороша конкретная пара кодеров-декодеров. Основные ограничения в кодировании источников без потерь заключаются в следующем. [4]

Рассмотрим функцию непрерывного кодирования с ее функцией непрерывного декодирования . Если мы не налагаем регулярности и , благодаря богатой структуре , у нас будет минимально- достижимая ставка для всех . Это означает, что можно построить пару кодер-декодер с бесконечной степенью сжатия.

Чтобы получить какие-то нетривиальные и содержательные выводы, приведем минимально достижимую скорость для линейного кодера и декодера Бореля. Если случайная величина имеет распределение, которое представляет собой смесь дискретной и непрерывной частей. Тогда для всех. Предположим, мы ограничиваем декодер до липшицевой функции и выполняется, тогда минимально достижимая скорость для всех .

См. Также [ править ]

  • Фрактальное измерение
  • Измерение корреляции
  • Энтропия (теория информации)

Заметки [ править ]

  1. ^ См Рение 1959 .
  2. ^ См. Çınlar 2011 .
  3. ^ См. Обложка и Томас 2012 .
  4. ^ См. Wu & Verdu 2010 .

Ссылки [ править ]

  • Чинлар, Эрхан (2011). Вероятность и стохастика . Тексты для выпускников по математике. 261 . Springer. DOI : 10.1007 / 978-0-387-87859-1 . ISBN 978-0-387-87858-4.CS1 maint: ref=harv (link)
  • Обложка, Томас М .; Томас, Джой А. (2012). Элементы теории информации (2-е изд.). Вайли. С. 247–248. ISBN 9781118585771.CS1 maint: ref=harv (link)
  • Реньи, А. (март 1959 г.). «О размерности и энтропии вероятностных распределений». Acta Mathematica Academiae Scientiarum Hungaricae . 10 (1–2): 193–215. DOI : 10.1007 / BF02063299 . ISSN  0001-5954 .CS1 maint: ref=harv (link)
  • Ву, Ихонг; Верду, С. (август 2010 г.). «Информационное измерение Реньи: фундаментальные пределы аналогового сжатия почти без потерь». IEEE Transactions по теории информации . 56 (8): 3721–3748. DOI : 10.1109 / TIT.2010.2050803 . ISSN  0018-9448 .CS1 maint: ref=harv (link)