В теории информации , то условная энтропия количественно объем информации , необходимый для описания исхода случайной величины , учитывая , что значение другой случайной величины известно. Здесь информация измеряется в шеннонах , натах или хартли . Энтропия обусловлена записывается .
Примечание. Принято считать, что выражения и для фиксированного значения равны нулю. Это потому, что и [1]
Интуитивное объяснение определения: Согласно определению, где сопоставляет информационное содержание с учетом , что объем информации , необходимой для описания события заданного . Согласно закону больших чисел, является средним арифметическим большого числа независимых реализаций .
Мотивация [ править ]
Позвольте быть энтропией дискретной случайной величины, обусловленной дискретной случайной величиной, принимающей определенное значение . Обозначим опорные множества и через и . Пусть есть функция массы вероятности . Безусловная энтропия вычисляется как , т.е.
где это информационное содержание от результата в принимающем значение . Энтропия условного принятия значения определяется аналогично условным математическим ожиданием :
Обратите внимание , что является результатом усреднения по всем возможным значениям , которые могут принимать. Кроме того, если указанная выше сумма берется за образец , ожидаемое значение в некоторых областях известно как двусмысленность . [2]
Для заданных дискретных случайных величин с изображением и с изображением условная энтропия данных определяется как взвешенная сумма для каждого возможного значения с использованием в качестве весов: [3] : 15
Свойства [ править ]
Условная энтропия равна нулю [ править ]
тогда и только тогда, когда значение полностью определяется значением .
Наоборот, тогда и только тогда, когда и являются независимыми случайными величинами .
Цепное правило [ править ]
Предположим, что комбинированная система определяется двумя случайными величинами и имеет совместную энтропию , то есть нам нужны биты информации в среднем для описания ее точного состояния. Теперь, если мы сначала узнаем значение , мы получили бит информации. Как только он известен, нам нужны только биты для описания состояния всей системы. Это точно , что дает цепное правило условной энтропии:
[3] : 17
Цепное правило следует из приведенного выше определения условной энтропии:
В общем, выполняется цепное правило для нескольких случайных величин:
[3] : 22
Он имеет форму, аналогичную цепному правилу в теории вероятностей, за исключением того, что вместо умножения используется сложение.
Правило Байеса [ править ]
Правило Байеса для состояний условной энтропии
Доказательство. и . Симметрия влечет за собой . Вычитание двух уравнений подразумевает правило Байеса.
Если это условно независимы от дано мы имеем:
Другие свойства [ править ]
Для любых и :
где есть взаимный обмен информацией между и .
Для независимых и :
и
Хотя конкретная-условная энтропия может быть меньше или больше , чем для данного случайных варьировать от , никогда не может превышать .
Условная дифференциальная энтропия [ править ]
Определение [ править ]
Приведенное выше определение предназначено для дискретных случайных величин. Непрерывная версия дискретной условной энтропии называется условной дифференциальной (или непрерывной) энтропией . Позвольте и быть непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная условная энтропия определяется как [3] : 249
( Уравнение 2 )
Свойства [ править ]
В отличие от условной энтропии для дискретных случайных величин, условная дифференциальная энтропия может быть отрицательной.
Как и в дискретном случае, для дифференциальной энтропии существует цепное правило:
[3] : 253
Обратите внимание, однако, что это правило может быть неверным, если задействованные дифференциальные энтропии не существуют или бесконечны.
Совместная дифференциальная энтропия также используется в определении взаимной информации между непрерывными случайными величинами:
с равенством тогда и только тогда, когда и независимы. [3] : 253
Связь с ошибкой оценщика [ править ]
Условная дифференциальная энтропия дает нижнюю границу ожидаемой квадратичной ошибки оценки . Для любой случайной величины , наблюдения и оценки выполняется следующее: [3] : 255
Это связано с принципом неопределенности из квантовой механики .
Обобщение квантовой теории [ править ]
В квантовой теории информации условная энтропия обобщается на условную квантовую энтропию . Последний может принимать отрицательные значения, в отличие от своего классического аналога.
См. Также [ править ]
Энтропия (теория информации)
Взаимная информация
Условная квантовая энтропия
Вариация информации
Неравенство энтропийной мощности
Функция правдоподобия
Ссылки [ править ]
^ «Дэвид Маккей: теория информации, распознавание образов и нейронные сети: книга» . www.inference.org.uk . Проверено 25 октября 2019 .
^ Хеллман, М .; Равив, Дж. (1970). «Вероятность ошибки, двусмысленность и оценка Чернова». IEEE Transactions по теории информации . 16 (4): 368–372.
^ a b c d e f g T. Обложка ; Дж. Томас (1991). Элементы теории информации . ISBN 0-471-06259-6.