Совместная энтропия набора переменных больше или равна максимуму всех индивидуальных энтропий переменных в наборе.
Меньше или равно сумме индивидуальных энтропий [ править ]
Совместная энтропия набора переменных меньше или равна сумме индивидуальных энтропий переменных в наборе. Это пример субаддитивности . Это неравенство имеет место равенство тогда и только тогда , когда и являются статистически независимыми . [3] : 30
Связь с другими мерами энтропии [ править ]
Совместная энтропия используется в определении условной энтропии [3] : 22
,
а также
Он также используется в определении взаимной информации [3] : 21
В квантовой теории информации совместная энтропия обобщается до совместной квантовой энтропии .
Совместная дифференциальная энтропия [ править ]
Определение [ править ]
Приведенное выше определение относится к дискретным случайным величинам и так же верно в случае непрерывных случайных величин. Непрерывная версия дискретной совместной энтропии называется совместной дифференциальной (или непрерывной) энтропией . Позвольте и быть непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная совместная энтропия определяется как [3] : 249
( Уравнение 3 )
Для более чем двух непрерывных случайных величин определение обобщается на:
( Уравнение 4 )
Интеграл берется по поддержке . Возможно, что интеграла не существует, и в этом случае мы говорим, что дифференциальная энтропия не определена.
Свойства [ править ]
Как и в дискретном случае, совместная дифференциальная энтропия набора случайных величин меньше или равна сумме энтропий отдельных случайных величин:
[3] : 253
Следующее цепное правило выполняется для двух случайных величин:
В случае более чем двух случайных величин это обобщается следующим образом: [3] : 253
Совместная дифференциальная энтропия также используется в определении взаимной информации между непрерывными случайными величинами:
Ссылки [ править ]
^ DJC Mackay. Теория информации, выводы и алгоритмы обучения .: 141
^ Тереза М. Корн ; Корн, Гранино Артур. Математический справочник для ученых и инженеров: определения, теоремы и формулы для справки и обзора . Нью-Йорк: Dover Publications. ISBN 0-486-41147-8.
^ a b c d e f g Томас М. Обложка; Джой А. Томас. Элементы теории информации . Хобокен, Нью-Джерси: Wiley. ISBN 0-471-24195-4.