Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску
Диаграмма Венна, показывающая аддитивные и вычитающие отношения различных информационных мер, связанных с коррелированными переменными и . Площадь, содержащаяся в обоих кругах, является совместной энтропией . Круг слева (красный и фиолетовый) - это индивидуальная энтропия , а красный - условная энтропия . Круг справа (синий и фиолетовый) - это синее существо . Фиолетовый - взаимная информация .

В теории информации , то условная энтропия количественно объем информации , необходимый для описания исхода случайной величины , учитывая , что значение другой случайной величины известно. Здесь информация измеряется в шеннонах , натах или хартли . Энтропия обусловлена записывается .

Определение [ править ]

Условная энтропия заданного определяется как

где и обозначают наборы поддержки из и .

Примечание. Принято считать, что выражения и для фиксированного значения равны нулю. Это потому, что и [1]

Интуитивное объяснение определения: Согласно определению, где сопоставляет информационное содержание с учетом , что объем информации , необходимой для описания события заданного . Согласно закону больших чисел, является средним арифметическим большого числа независимых реализаций .

Мотивация [ править ]

Позвольте быть энтропией дискретной случайной величины, обусловленной дискретной случайной величиной, принимающей определенное значение . Обозначим опорные множества и через и . Пусть есть функция массы вероятности . Безусловная энтропия вычисляется как , т.е.

где это информационное содержание от результата в принимающем значение . Энтропия условного принятия значения определяется аналогично условным математическим ожиданием :

Обратите внимание , что является результатом усреднения по всем возможным значениям , которые могут принимать. Кроме того, если указанная выше сумма берется за образец , ожидаемое значение в некоторых областях известно как двусмысленность . [2]

Для заданных дискретных случайных величин с изображением и с изображением условная энтропия данных определяется как взвешенная сумма для каждого возможного значения с использованием в качестве весов: [3] : 15


Свойства [ править ]

Условная энтропия равна нулю [ править ]

тогда и только тогда, когда значение полностью определяется значением .

Условная энтропия независимых случайных величин [ править ]

Наоборот, тогда и только тогда, когда и являются независимыми случайными величинами .

Цепное правило [ править ]

Предположим, что комбинированная система определяется двумя случайными величинами и имеет совместную энтропию , то есть нам нужны биты информации в среднем для описания ее точного состояния. Теперь, если мы сначала узнаем значение , мы получили бит информации. Как только он известен, нам нужны только биты для описания состояния всей системы. Это точно , что дает цепное правило условной энтропии:

[3] : 17

Цепное правило следует из приведенного выше определения условной энтропии:

В общем, выполняется цепное правило для нескольких случайных величин:

[3] : 22

Он имеет форму, аналогичную цепному правилу в теории вероятностей, за исключением того, что вместо умножения используется сложение.

Правило Байеса [ править ]

Правило Байеса для состояний условной энтропии

Доказательство. и . Симметрия влечет за собой . Вычитание двух уравнений подразумевает правило Байеса.

Если это условно независимы от дано мы имеем:

Другие свойства [ править ]

Для любых и :

где есть взаимный обмен информацией между и .

Для независимых и :

и

Хотя конкретная-условная энтропия может быть меньше или больше , чем для данного случайных варьировать от , никогда не может превышать .

Условная дифференциальная энтропия [ править ]

Определение [ править ]

Приведенное выше определение предназначено для дискретных случайных величин. Непрерывная версия дискретной условной энтропии называется условной дифференциальной (или непрерывной) энтропией . Позвольте и быть непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная условная энтропия определяется как [3] : 249

Свойства [ править ]

В отличие от условной энтропии для дискретных случайных величин, условная дифференциальная энтропия может быть отрицательной.

Как и в дискретном случае, для дифференциальной энтропии существует цепное правило:

[3] : 253

Обратите внимание, однако, что это правило может быть неверным, если задействованные дифференциальные энтропии не существуют или бесконечны.

Совместная дифференциальная энтропия также используется в определении взаимной информации между непрерывными случайными величинами:

с равенством тогда и только тогда, когда и независимы. [3] : 253

Связь с ошибкой оценщика [ править ]

Условная дифференциальная энтропия дает нижнюю границу ожидаемой квадратичной ошибки оценки . Для любой случайной величины , наблюдения и оценки выполняется следующее: [3] : 255

Это связано с принципом неопределенности из квантовой механики .

Обобщение квантовой теории [ править ]

В квантовой теории информации условная энтропия обобщается на условную квантовую энтропию . Последний может принимать отрицательные значения, в отличие от своего классического аналога.

См. Также [ править ]

  • Энтропия (теория информации)
  • Взаимная информация
  • Условная квантовая энтропия
  • Вариация информации
  • Неравенство энтропийной мощности
  • Функция правдоподобия

Ссылки [ править ]

  1. ^ «Дэвид Маккей: теория информации, распознавание образов и нейронные сети: книга» . www.inference.org.uk . Проверено 25 октября 2019 .
  2. ^ Хеллман, М .; Равив, Дж. (1970). «Вероятность ошибки, двусмысленность и оценка Чернова». IEEE Transactions по теории информации . 16 (4): 368–372.
  3. ^ a b c d e f g T. Обложка ; Дж. Томас (1991). Элементы теории информации . ISBN 0-471-06259-6.