Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Энтропийный вектор или энтропийная функция представляет собой концепцию , возникающая в теории информации . Он представляет собой возможные значения Shannon «ю.ш. информационной энтропии , что подмножества одного множества случайных величин могут принимать. Понимание того, какие векторы являются энтропийными, - это способ представить все возможные неравенства между энтропиями различных подмножеств. Например, для любых двух случайных величин их совместная энтропия (энтропия случайной величины, представляющей пару ) является не более чем суммой энтропий и следующих величин :

Другие теоретико-информационные меры, такие как условная информация , взаимная информация или полная корреляция, могут быть выражены в терминах совместной энтропии и, таким образом, связаны соответствующими неравенствами. Многие неравенства, которым удовлетворяют энтропийные векторы, могут быть получены как линейные комбинации нескольких основных, называемых неравенствами типа Шеннона . Однако было доказано, что уже для переменных никакого конечного набора линейных неравенств недостаточно для характеристики всех энтропийных векторов.

Определение [ править ]

Shannon «ю.ш. информационная энтропия случайной величины обозначается . Для кортежа случайных величин мы обозначаем совместную энтропию подмножества как , или, более кратко, как , где . Здесь можно понимать случайную величину, представляющую кортеж . Для пустого подмножества , обозначает детерминированную переменную с энтропией 0.

Вектор ч в индексируются подмножеств называется энтропийный вектор порядка , если существует кортеж случайных величин , таких , что для каждого подмножества .

Множество всех энтропийных векторов порядка обозначено . Чжан и Енг [1] доказал , что он не закрыт (для ), но его закрытие , является выпуклым конусом и , следовательно , характеризуется (бесконечно много) линейных неравенств она удовлетворяет. Таким образом, описание области эквивалентно характеристике всех возможных неравенств совместных энтропий.

Пример [ править ]

Пусть X , Y - две независимые случайные величины с дискретным равномерным распределением по множеству . потом

(поскольку каждый из них равномерно распределен по двухэлементному набору), и

(поскольку две переменные независимы, что означает, что пара равномерно распределена по .) Соответствующий энтропийный вектор таким образом:

С другой стороны, вектор не является энтропийным (то есть ), потому что любая пара случайных величин (независимых или нет) должна удовлетворять .

Характеристика энтропийных векторов: область Γ n * [ править ]

Неравенства типа Шеннона и Γ n [ править ]

Для набора случайных величин их энтропии удовлетворяют:

, для любой

В частности , для любого .

Неравенство Шеннона говорит , что энтропийный вектор субмодулярный :

, для любой

Это эквивалентно неравенству о неотрицательности условной взаимной информации :

(Для одного направления, наблюдать это последняя форма выражает неравенство Шеннона для подмножеств и кортежа , для другого направления, замена , , ).

Многие неравенства могут быть получены как линейные комбинации неравенств Шеннона; они называются неравенствами типа Шеннона или базовыми информационными неравенствами информационных мер Шеннона. [2] Множество удовлетворяющих им векторов называется ; он содержит .

Программное обеспечение было разработано для автоматизации задачи доказательства неравенств типа Шеннона. [3] [4] Учитывая неравенство, такое программное обеспечение способно определить, является ли данное неравенство допустимым неравенством типа Шеннона (т. Е. Содержит ли оно конус ).

Неравенства нешенноновского типа [ править ]

Вопрос неравенство Шеннона типа является ли единственными, то есть ли они полностью характеризуют регион , был первым спросили Тот Су Хань в 1981 году [2] и более точно Николай Pippenger в 1986 году [5] Это не трудно показать, что это верно для двух переменных, то есть . Для трех переменных это доказали Чжан и Йунг [1] ; Однако, это все еще асимптотически верно, а это означает , что замыкание равно: . В 1998 году Чжан и Юнг [2] [6] показали, что для всех, доказав, что следующее неравенство для четырех случайных величин (в терминах условной взаимной информации) верно для любого энтропийного вектора, но не шенноновского типа:

Были найдены другие неравенства и бесконечные семейства неравенств. [7] [8] [9] [10] Эти неравенства дают внешние оценки лучше, чем оценки типа Шеннона . В 2007 году Матус доказал, что никакого конечного набора линейных неравенств недостаточно (чтобы вывести все как линейные комбинации) для переменных. Другими словами, область не является многогранной. [11] Можно ли их охарактеризовать каким-либо другим способом (позволяющим эффективно решить, является ли вектор энтропийным или нет), остается открытым вопросом.

Рассмотрены аналогичные вопросы для энтропии фон Неймана в квантовой теории информации . [12]

Внутренние границы [ править ]

Также известны некоторые внутренние границы . Одним из примеров является тот, который содержит все векторы, в которых дополнительно удовлетворяется следующее неравенство (и те, которые получены перестановкой переменных), известное как неравенство Инглтона для энтропии : [13]

[2]

Энтропия и группы [ править ]

Векторы, характеризуемые группами, и квазиравномерные распределения [ править ]

Рассмотрим группу и подгруппы в . Пусть обозначают для ; это также подгруппа . Для случайных величин можно построить такое распределение вероятностей , что

. [14]

(Конструкция по существу принимает элемент из случайно равномерно и позволяет соответствующему смежный класс ). Таким образом, из любого теоретико-информационного неравенства следует теоретико-групповое. Например, из основного неравенства следует, что

Оказывается, по существу верно обратное. Точнее, вектор называется характеризуемым для группы, если он может быть получен из набора подгрупп, как указано выше. Обозначен набор векторов, характеризуемых группой . Как было сказано выше, . С другой стороны, (и, таким образом ) содержится в топологическом замыкании выпуклого замыкания . [15] Другими словами, линейное неравенство выполняется для всех энтропийных векторов тогда и только тогда, когда оно выполняется для всех векторов вида , где идет по подмножествам некоторого набора подгрупп в группе .

Группово-характеризуемые векторы, происходящие из абелевой группы, удовлетворяют неравенству Инглтона.

Колмогоровская сложность [ править ]

Колмогоровская сложность удовлетворяет по существу тем же неравенствам, что и энтропия. А именно, обозначим колмогоровскую сложность конечной строки как (то есть длину самой короткой программы, которая выводит ). Совместная сложность двух строк , определяемая как сложность кодирования пары , может быть обозначена . Аналогичным образом может быть обозначена условная сложность (длина самой короткой программы, которая выводит данные ). Андрей Колмогоров заметил, что эти понятия ведут себя аналогично энтропии Шеннона, например:

В 2000 году Хаммер и др. [16] доказал, что действительно неравенство выполняется для энтропийных векторов тогда и только тогда, когда соответствующее неравенство в терминах колмогоровской сложности выполняется с точностью до логарифмических членов для всех наборов строк.

См. Также [ править ]

  • Неравенства в теории информации

Ссылки [ править ]

  1. ^ а б Чжан, З .; Йунг, Р.В. (1997). «Условное неравенство информационных величин нешенноновского типа». IEEE Trans. Инф. Теория . 43 (6).
  2. ^ а б в г Чжан, З .; Йунг, Р.В. (1998). «О характеризации функции энтропии с помощью информационных неравенств». IEEE Trans. Инф. Теория . 44 (4): 1440–1452. DOI : 10.1109 / 18.681320 .
  3. ^ Юнг, RW; Ян, ЙО (1996). «ITIP - Теоретико-информационное средство доказательства неравенства» . Cite journal requires |journal= (help)
  4. ^ Pulikkoonattu, R .; E.Perron, E .; С.Диггави, С. (2007). "Xitip - Инструмент доказательства теоретических неравенств" . Cite journal requires |journal= (help)
  5. ^ Kaced Тарик (2013). Эквивалентность двух методов доказательства неравенств нешенноновского типа . 2013 Международный симпозиум IEEE по теории информации. arXiv : 1302.2994 .
  6. ^ Юнг. Первый курс теории информации , теорема 14.7
  7. ^ Dougherty, R .; Freiling, C .; Зегер, К. (2006). Шесть новых нешенноновских информационных неравенств . 2006 Международный симпозиум IEEE по теории информации.
  8. Перейти ↑ Matus, F. (1999). «Условная независимость четырех случайных величин III: окончательный вывод». Комбинаторика, теория вероятностей и вычисления . 8 (3): 269–276. DOI : 10,1017 / s0963548399003740 .
  9. ^ Макарычев, К .; и другие. (2002). «Новый класс неравенств не-шенноновского типа для энтропий» (PDF) . Коммуникации в информации и системах . 2 (2): 147–166. DOI : 10.4310 / cis.2002.v2.n2.a3 . Архивировано из оригинального (PDF) 12 июня 2007 года . Проверено 8 июля 2008 .
  10. Перейти ↑ Zhang, Z. (2003). «О новом информационном неравенстве не-шенноновского типа» (PDF) . Коммуникации в информации и системах . 3 (1): 47–60. DOI : 10.4310 / cis.2003.v3.n1.a4 . Архивировано из оригинального (PDF) 12 июня 2007 года . Проверено 8 июля 2008 .
  11. Перейти ↑ Matus, F. (2007). Бесконечно много информационных неравенств . 2007 Международный симпозиум IEEE по теории информации.
  12. ^ Липа; Зима (2005). «Новое неравенство для энтропии фон Неймана». Commun. Математика. Phys . 259 (1). arXiv : квант-ph / 0406162 . DOI : 10.1007 / s00220-005-1361-2 .
  13. ^ Юнг. Первый курс теории информации , стр. 386
  14. ^ Юнг. Первый курс теории информации , теорема 16.16
  15. ^ Юнг. Первый курс теории информации , теорема 16.22
  16. ^ Молоток; Ромащенко; Шен; Верещагина (2000). «Неравенства для энтропии Шеннона и колмогоровской сложности». Журнал компьютерных и системных наук . 60 : 442–464. DOI : 10.1006 / jcss.1999.1677 .
  • Томас М. Обложка, Джой А. Томас. Элементы теории информации. Нью-Йорк: Wiley, 1991. ISBN 0-471-06259-6. 
  • Раймонд Юнг. Первый курс теории информации , глава 12, информационное неравенство , 2002, ISBN для печати 0-306-46791-7