Теория информации |
---|
В теории информации , источник Шеннона теорема кодирование (или бесшумная теорема кодирования ) устанавливает пределы возможного сжатия данных , а также оперативный смысл энтропии Шеннона .
Теорема исходного кодирования, названная в честь Клода Шеннона , показывает, что (в пределе, поскольку длина потока независимых и одинаково распределенных данных случайных величин (iid) стремится к бесконечности) невозможно сжать данные так, чтобы кодовая скорость (среднее количество битов на символ) меньше энтропии Шеннона источника, при этом практически нет уверенности в том, что информация будет потеряна. Однако можно получить скорость кода, произвольно близкую к энтропии Шеннона, с пренебрежимо малой вероятностью потерь.
Теорема исходного кодирования для кодов символов устанавливает верхнюю и нижнюю границы минимально возможной ожидаемой длины кодовых слов как функции энтропии входного слова (которое рассматривается как случайная величина ) и размера целевого алфавита.
Заявления [ править ]
Источник кодирования является отображением из (последовательности) символов из информационного источника к последовательности символов алфавита (обычно биты) таким образом, что символы источника может быть точно восстановлены из двоичных бит (кодирование источника без потерь) или восстанавливается в течение некоторого искажения ( исходное кодирование с потерями). Это концепция сжатия данных .
Теорема исходного кода [ править ]
В теории информации теорема кодирования источника (Shannon 1948) [1] неформально утверждает, что (MacKay 2003, pg. 81, [2] Cover 2006, Chapter 5 [3] ):
N i.id случайных величин, каждая с энтропией H ( X ), может быть сжато до более чем N H ( X ) битов с пренебрежимо малым риском потери информации при N → ∞ ; но, наоборот, если они сжаты до менее чем N H ( X ) битов, практически наверняка информация будет потеряна.
Теорема исходного кода для кодов символов [ править ]
Пусть Σ 1 , Σ 2 обозначают два конечных алфавита и пусть Σ∗
1и Σ∗
2обозначают набор всех конечных слов из этих алфавитов (соответственно).
Предположим, что X - случайная величина, принимающая значения в Σ 1, и пусть f - однозначно декодируемый код из Σ ∗
1в Σ∗
2где | Σ 2 | = а . Пусть S обозначает случайную величину, заданную длиной кодового слова f ( X ) .
Если f оптимален в том смысле, что он имеет минимальную ожидаемую длину слова для X , то (Shannon 1948):
Где обозначает оператор ожидаемого значения .
Доказательство: теорема о кодировании исходного кода [ править ]
Если X является источником iid , его временные ряды X 1 , ..., X n являются iid с энтропией H ( X ) в дискретнозначном случае и дифференциальной энтропией в непрерывнозначном случае. Теорема кодирования источника утверждает, что для любого ε > 0 , то есть для любой скорости H ( X ) + ε, большей, чем энтропия источника, существует достаточно большое n и кодировщик, который принимает n iid повторений источника, X1: n , и отображает его в n ( H ( X ) + ε ) двоичных битов, так что исходные символы X 1: n восстанавливаются из двоичных битов с вероятностью по меньшей мере 1 - ε .
Доказательство достижимости. Зафиксируем некоторое ε > 0 и пусть
Типовой набор, Аε
n, определяется следующим образом:
Свойство асимптотической равнораспределенности (AEP) показывает, что для достаточно большого n вероятность того, что последовательность, сгенерированная источником, принадлежит типичному набору Aε
n, как определено, приближается к одному. В частности, при достаточно больших п , можно сделать сколь угодно близким к 1, и , в частности, больше , чем (см AEP для доказательства).
Определение типичных наборов подразумевает, что те последовательности, которые лежат в типичном наборе, удовлетворяют:
Обратите внимание, что:
- Вероятность того, что последовательность будет взята из Aε
nбольше 1 - ε . - , что следует из левой части (нижней оценки) для .
- , что следует из оценок сверху и снизу полной вероятности всего множества Aε
n.
Поскольку битов достаточно, чтобы указать на любую строку в этом наборе.
Алгоритм кодирования: кодировщик проверяет, находится ли входная последовательность в пределах типичного набора; если да, он выводит индекс входной последовательности в типичном наборе; в противном случае кодировщик выдает произвольное n ( H ( X ) + ε ) разрядное число. Пока входная последовательность находится в пределах типичного набора (с вероятностью не менее 1 - ε ), кодировщик не делает ошибок. Таким образом, вероятность ошибки кодировщика ограничена сверху величиной ε .
Доказательство обратного. Обратное утверждение доказывается, показывая , что любой набор меньшего размера , чем Aε
n(в смысле экспоненты) охватывал бы набор вероятностей, ограниченный от 1 .
Доказательство: теорема исходного кода для кодов символов [ править ]
Для 1 ≤ i ≤ n пусть s i обозначает длину слова каждого возможного x i . Определим , где C выбрано так, чтобы q 1 + ... + q n = 1 . потом
где вторая строка следует из неравенства Гиббса, а пятая строка следует из неравенства Крафт :
так что журнал C ≤ 0 .
For the second inequality we may set
so that
and so
and
and so by Kraft's inequality there exists a prefix-free code having those word lengths. Thus the minimal S satisfies
Extension to non-stationary independent sources[edit]
Fixed Rate lossless source coding for discrete time non-stationary independent sources[edit]
Define typical set Aε
n as:
Then, for given δ > 0, for n large enough, Pr(Aε
n) > 1 − δ. Now we just encode the sequences in the typical set, and usual methods in source coding show that the cardinality of this set is smaller than . Thus, on an average, Hn(X) + ε bits suffice for encoding with probability greater than 1 − δ, where ε and δ can be made arbitrarily small, by making n larger.
See also[edit]
- Channel coding
- Noisy Channel Coding Theorem
- Error exponent
- Asymptotic Equipartition Property (AEP)
References[edit]
- ^ C.E. Shannon, "A Mathematical Theory of Communication", Bell System Technical Journal, vol. 27, pp. 379–423, 623-656, July, October, 1948
- ^ David J. C. MacKay. Information Theory, Inference, and Learning Algorithms Cambridge: Cambridge University Press, 2003. ISBN 0-521-64298-1
- ^ Cover, Thomas M. (2006). "Chapter 5: Data Compression". Elements of Information Theory. John Wiley & Sons. ISBN 0-471-24195-4.