Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску
Вводящая в заблуждение [1] диаграмма Венна, показывающая аддитивные и вычитающие отношения между различными информационными мерами, связанными с коррелированными переменными X и Y. Область, содержащаяся в обоих кругах, является совместной энтропией H (X, Y). Круг слева (красный и фиолетовый) - это индивидуальная энтропия H (X), а красный - условная энтропия H (X | Y). Круг справа (синий и фиолетовый) - это H (Y), а синий - H (Y | X). Фиолетовый - это взаимная информация I (X; Y).

В теории информации , совместная энтропия является мерой неопределенности , связанной с набором переменных . [2]

Определение [ править ]

Совместная энтропия Шеннонабитах ) два дискретных случайных величин и с изображениями и определяются как [3] : 16

где и - конкретные значения и , соответственно, - совместная вероятность того, что эти значения встречаются вместе, и определяется как 0, если .

Для более чем двух случайных величин это расширяется до

где - конкретные значения , соответственно, - вероятность того, что эти значения встречаются вместе, и определяется как 0, если .

Свойства [ править ]

Неотрицательность [ править ]

Совместная энтропия набора случайных величин - неотрицательное число.

Больше, чем индивидуальные энтропии [ править ]

Совместная энтропия набора переменных больше или равна максимуму всех индивидуальных энтропий переменных в наборе.

Меньше или равно сумме индивидуальных энтропий [ править ]

Совместная энтропия набора переменных меньше или равна сумме индивидуальных энтропий переменных в наборе. Это пример субаддитивности . Это неравенство имеет место равенство тогда и только тогда , когда и являются статистически независимыми . [3] : 30

Связь с другими мерами энтропии [ править ]

Совместная энтропия используется в определении условной энтропии [3] : 22

,

а также

Он также используется в определении взаимной информации [3] : 21

В квантовой теории информации совместная энтропия обобщается до совместной квантовой энтропии .

Совместная дифференциальная энтропия [ править ]

Определение [ править ]

Приведенное выше определение относится к дискретным случайным величинам и так же верно в случае непрерывных случайных величин. Непрерывная версия дискретной совместной энтропии называется совместной дифференциальной (или непрерывной) энтропией . Позвольте и быть непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная совместная энтропия определяется как [3] : 249

Для более чем двух непрерывных случайных величин определение обобщается на:

Интеграл берется по поддержке . Возможно, что интеграла не существует, и в этом случае мы говорим, что дифференциальная энтропия не определена.

Свойства [ править ]

Как и в дискретном случае, совместная дифференциальная энтропия набора случайных величин меньше или равна сумме энтропий отдельных случайных величин:

[3] : 253

Следующее цепное правило выполняется для двух случайных величин:

В случае более чем двух случайных величин это обобщается следующим образом: [3] : 253

Совместная дифференциальная энтропия также используется в определении взаимной информации между непрерывными случайными величинами:

Ссылки [ править ]

  1. ^ DJC Mackay. Теория информации, выводы и алгоритмы обучения .: 141
  2. ^ Тереза ​​М. Корн ; Корн, Гранино Артур. Математический справочник для ученых и инженеров: определения, теоремы и формулы для справки и обзора . Нью-Йорк: Dover Publications. ISBN 0-486-41147-8.
  3. ^ a b c d e f g Томас М. Обложка; Джой А. Томас. Элементы теории информации . Хобокен, Нью-Джерси: Wiley. ISBN 0-471-24195-4.