Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В теории информации , источник Шеннона теорема кодирование (или бесшумная теорема кодирования ) устанавливает пределы возможного сжатия данных , а также оперативный смысл энтропии Шеннона .

Теорема исходного кодирования, названная в честь Клода Шеннона , показывает, что (в пределе, поскольку длина потока независимых и одинаково распределенных данных случайных величин (iid) стремится к бесконечности) невозможно сжать данные так, чтобы кодовая скорость (среднее количество битов на символ) меньше энтропии Шеннона источника, при этом практически нет уверенности в том, что информация будет потеряна. Однако можно получить скорость кода, произвольно близкую к энтропии Шеннона, с пренебрежимо малой вероятностью потерь.

Теорема исходного кодирования для кодов символов устанавливает верхнюю и нижнюю границы минимально возможной ожидаемой длины кодовых слов как функции энтропии входного слова (которое рассматривается как случайная величина ) и размера целевого алфавита.

Заявления [ править ]

Источник кодирования является отображением из (последовательности) символов из информационного источника к последовательности символов алфавита (обычно биты) таким образом, что символы источника может быть точно восстановлены из двоичных бит (кодирование источника без потерь) или восстанавливается в течение некоторого искажения ( исходное кодирование с потерями). Это концепция сжатия данных .

Теорема исходного кода [ править ]

В теории информации теорема кодирования источника (Shannon 1948) [1] неформально утверждает, что (MacKay 2003, pg. 81, [2] Cover 2006, Chapter 5 [3] ):

N i.id случайных величин, каждая с энтропией H ( X ), может быть сжато до более чем N H ( X ) битов с пренебрежимо малым риском потери информации при N → ∞ ; но, наоборот, если они сжаты до менее чем N H ( X ) битов, практически наверняка информация будет потеряна.

Теорема исходного кода для кодов символов [ править ]

Пусть Σ 1 , Σ 2 обозначают два конечных алфавита и пусть Σ
1
и Σ
2
обозначают набор всех конечных слов из этих алфавитов (соответственно).

Предположим, что X - случайная величина, принимающая значения в Σ 1, и пусть f - однозначно декодируемый код из Σ
1
в Σ
2
где | Σ 2 | = а . Пусть S обозначает случайную величину, заданную длиной кодового слова f  ( X ) .

Если f оптимален в том смысле, что он имеет минимальную ожидаемую длину слова для X , то (Shannon 1948):

Где обозначает оператор ожидаемого значения .

Доказательство: теорема о кодировании исходного кода [ править ]

Если X является источником iid , его временные ряды X 1 , ..., X n являются iid с энтропией H ( X ) в дискретнозначном случае и дифференциальной энтропией в непрерывнозначном случае. Теорема кодирования источника утверждает, что для любого ε > 0 , то есть для любой скорости H ( X ) + ε, большей, чем энтропия источника, существует достаточно большое n и кодировщик, который принимает n iid повторений источника, X1: n , и отображает его в n ( H ( X ) + ε ) двоичных битов, так что исходные символы X 1: n восстанавливаются из двоичных битов с вероятностью по меньшей мере 1 - ε .

Доказательство достижимости. Зафиксируем некоторое ε > 0 и пусть

Типовой набор, Аε
n
, определяется следующим образом:

Свойство асимптотической равнораспределенности (AEP) показывает, что для достаточно большого n вероятность того, что последовательность, сгенерированная источником, принадлежит типичному набору Aε
n
, как определено, приближается к одному. В частности, при достаточно больших п , можно сделать сколь угодно близким к 1, и , в частности, больше , чем (см AEP для доказательства).

Определение типичных наборов подразумевает, что те последовательности, которые лежат в типичном наборе, удовлетворяют:

Обратите внимание, что:

  • Вероятность того, что последовательность будет взята из Aε
    n
    больше 1 - ε .
  • , что следует из левой части (нижней оценки) для .
  • , что следует из оценок сверху и снизу полной вероятности всего множества Aε
    n
    .

Поскольку битов достаточно, чтобы указать на любую строку в этом наборе.

Алгоритм кодирования: кодировщик проверяет, находится ли входная последовательность в пределах типичного набора; если да, он выводит индекс входной последовательности в типичном наборе; в противном случае кодировщик выдает произвольное n ( H ( X ) + ε ) разрядное число. Пока входная последовательность находится в пределах типичного набора (с вероятностью не менее 1 - ε ), кодировщик не делает ошибок. Таким образом, вероятность ошибки кодировщика ограничена сверху величиной ε .

Доказательство обратного. Обратное утверждение доказывается, показывая , что любой набор меньшего размера , чем Aε
n
(в смысле экспоненты) охватывал бы набор вероятностей, ограниченный от 1 .

Доказательство: теорема исходного кода для кодов символов [ править ]

Для 1 ≤ in пусть s i обозначает длину слова каждого возможного x i . Определим , где C выбрано так, чтобы q 1 + ... + q n = 1 . потом

где вторая строка следует из неравенства Гиббса, а пятая строка следует из неравенства Крафт :

так что журнал C ≤ 0 .

For the second inequality we may set

so that

and so

and

and so by Kraft's inequality there exists a prefix-free code having those word lengths. Thus the minimal S satisfies

Extension to non-stationary independent sources[edit]

Fixed Rate lossless source coding for discrete time non-stationary independent sources[edit]

Define typical set Aε
n
as:

Then, for given δ > 0, for n large enough, Pr(Aε
n
) > 1 − δ
. Now we just encode the sequences in the typical set, and usual methods in source coding show that the cardinality of this set is smaller than . Thus, on an average, Hn(X) + ε bits suffice for encoding with probability greater than 1 − δ, where ε and δ can be made arbitrarily small, by making n larger.

See also[edit]

  • Channel coding
  • Noisy Channel Coding Theorem
  • Error exponent
  • Asymptotic Equipartition Property (AEP)

References[edit]

  1. ^ C.E. Shannon, "A Mathematical Theory of Communication", Bell System Technical Journal, vol. 27, pp. 379–423, 623-656, July, October, 1948
  2. ^ David J. C. MacKay. Information Theory, Inference, and Learning Algorithms Cambridge: Cambridge University Press, 2003. ISBN 0-521-64298-1
  3. ^ Cover, Thomas M. (2006). "Chapter 5: Data Compression". Elements of Information Theory. John Wiley & Sons. ISBN 0-471-24195-4.