Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Теория информации является научным исследованием количественной оценки , хранения и передач в информации . Эта область была основана на работах Гарри Найквиста и Ральфа Хартли в 1920-х годах и Клода Шеннона в 1940-х годах. Эта область находится на пересечении теории вероятностей , статистики , информатики, статистической механики , информационной инженерии и электротехники .

Ключевым показателем в теории информации является энтропия . Энтропия определяет количество неопределенности, связанной со значением случайной величины или результатом случайного процесса . Например, определение результата справедливого подбрасывания монеты (с двумя равновероятными исходами) дает меньше информации (более низкая энтропия), чем определение результата броска кубика (с шестью равновероятными исходами). Некоторые другие важные показатели в теории информации - это взаимная информация , пропускная способность канала, показатели ошибки и относительная энтропия . Важные подполи теории информации включают кодирование источников ,алгоритмическая теория сложности , алгоритмическая теория информации и информационно-Теоретико безопасность .

Приложения фундаментальных тем теории информации включают сжатие данных без потерь (например, файлы ZIP ), сжатие данных с потерями (например, MP3 и JPEG ) и канальное кодирование (например, для DSL ). Его влияние было решающим для успеха миссий « Вояджер» в дальний космос, изобретения компакт-диска , возможности мобильных телефонов и развития Интернета. Теория также нашла применение в других областях, включая статистический вывод , [1] криптографию , нейробиологию , [2] восприятие , [3] лингвистика, эволюция [4] и функции [5] молекулярных кодов ( биоинформатика ), теплофизика , [6] квантовые вычисления , черные дыры, поиск информации , сбор разведданных , обнаружение плагиата , [7] распознавание образов , обнаружение аномалий [8] и даже художественное творчество.

Обзор [ править ]

Теория информации изучает передачу, обработку, извлечение и использование информации. В абстрактном смысле информацию можно рассматривать как разрешение неопределенности. В случае передачи информации по зашумленному каналу эта абстрактная концепция была формализована в 1948 году Клодом Шенноном в статье под названием «Математическая теория коммуникации» , в которой информация рассматривается как набор возможных сообщений, а цель состоит в том, чтобы отправить эти сообщения по зашумленному каналу и заставить получатель восстановить сообщение с низкой вероятностью ошибки, несмотря на шум канала. Основной результат Шеннона, теорема кодирования с шумомпоказали, что в пределе использования многих каналов скорость передачи информации, которая асимптотически достижима, равна пропускной способности канала, а величина зависит просто от статистики канала, по которому отправляются сообщения. [2]

Теория информации тесно связана с набором чистых и прикладных дисциплин, которые были исследованы и сведены к инженерной практике под разными рубриками по всему миру за последние полвека или более: адаптивные системы , упреждающие системы , искусственный интеллект , сложные системы. , наука о сложности , кибернетика , информатика , машинное обучение , а также системные науки с множеством описаний. Теория информации - это обширная и глубокая математическая теория с одинаково широкими и глубокими приложениями, среди которых есть жизненно важная областьтеория кодирования .

Теория кодирования занимается поиском явных методов, называемых кодами , для повышения эффективности и уменьшения количества ошибок при передаче данных по зашумленным каналам почти до пропускной способности канала. Эти коды можно грубо разделить на методы сжатия данных (кодирование источника) и исправления ошибок (кодирование канала). В последнем случае потребовалось много лет, чтобы найти методы, которые доказала работа Шеннона, возможными.

Третий класс кодов теории информации - это криптографические алгоритмы (как коды, так и шифры ). Концепции, методы и результаты теории кодирования и теории информации широко используются в криптографии и криптоанализе . См. Статью Ban (unit) для исторического применения.

Историческая справка [ править ]

Знаковым событием, установившим дисциплину теории информации и привлекшим к ней внимание всего мира, стала публикация классической статьи Клода Э. Шеннона «Математическая теория коммуникации» в журнале Bell System Technical Journal в июле и октябре 1948 года.

До этой статьи в Bell Labs были разработаны ограниченные теоретико-информационные идеи , все из которых неявно предполагали равновероятные события. Статья Гарри Найквиста 1924 года « Определенные факторы, влияющие на скорость телеграфа» содержит теоретический раздел, в котором количественно определяется «интеллект» и «линейная скорость», с которой он может передаваться системой связи, что дает соотношение W = K log m (вспоминая постоянную Больцмана. ), где W - скорость передачи информации, m - количество различных уровней напряжения, которые можно выбрать на каждом временном шаге, а K - постоянная величина. В статье Ральфа Хартли 1928 года « Передача информации» слово « информация» используется как измеримая величина, отражающая способность получателя отличать одну последовательность символов от любой другой, таким образом количественно оценивая информацию как H = log S n = n log S , где S - количество возможных символов, а n - количество символов в передаче. Таким образом, единицей информации была десятичная цифра , которую с тех пор иногда называли хартли в его честь как единицей, шкалой или мерой информации. Алан Тьюрингв 1940 использовал аналогичные идеи в рамках статистического анализа взлома немецких шифров Enigma времен Второй мировой войны .

Многое из математики за теории информации с событиями различных вероятностей были разработаны для области термодинамики по Людвига Больцмана и Гиббс . Связь между теоретико-информационной энтропией и термодинамической энтропией, включая важный вклад Рольфа Ландауэра в 1960-е годы, исследуется в энтропии в термодинамике и теории информации .

В революционной и новаторской статье Шеннона, работа над которой была практически завершена в Bell Labs к концу 1944 года, Шеннон впервые представил качественную и количественную модель коммуникации как статистический процесс, лежащий в основе теории информации, начав с утверждения:

«Основная проблема коммуникации состоит в том, чтобы воспроизвести в одной точке, точно или приблизительно, сообщение, выбранное в другой точке».

Вместе с ним пришли идеи

  • информационная энтропия и избыточность источника и его релевантность через теорему кодирования источника ;
  • взаимная информация и пропускная способность зашумленного канала, включая обещание идеальной связи без потерь, данное теоремой кодирования зашумленного канала;
  • практический результат закона Шеннона – Хартли для пропускной способности гауссова канала ; а также
  • немного -новый способ увидеть самую фундаментальную единицу информации.

Количество информации [ править ]

Теория информации основана на теории вероятностей и статистике. Теория информации часто занимается измерениями информации распределений, связанных со случайными величинами. Важными объемами информации являются энтропия, мера информации в одной случайной величине, и взаимная информация, мера информации, общей для двух случайных величин. Первая величина является свойством распределения вероятностей случайной величины и задает предел скорости, с которой данные, сгенерированные независимыми выборками с заданным распределением, могут быть надежно сжаты. Последнее является свойством совместного распределения двух случайных величин и представляет собой максимальную скорость надежной связи через зашумленный канал. в пределе большой длины блока, когда статистика канала определяется совместным распределением.

Выбор логарифмического основания в следующих формулах определяет используемую единицу информационной энтропии. Распространенной единицей информации является бит, основанный на двоичном логарифме . Другие единицы включают физ , который основан на натуральный логарифм , и десятичную цифру , которая основана на общей логарифма .

В дальнейшем выражение вида p log p по соглашению считается равным нулю, если p = 0 . Это оправдано, потому что для любого логарифмического основания.

Энтропия источника информации [ править ]

На основе функции массы вероятности каждого исходного символа, подлежащего передаче, энтропия Шеннона H в битах (на символ) определяется выражением

где p i - вероятность появления i-го возможного значения исходного символа. Это уравнение дает энтропию в единицах «биты» (на символ), потому что оно использует логарифм по основанию 2, и эту меру энтропии по основанию 2 иногда называли шенноном в его честь. Энтропия также обычно вычисляется с использованием натурального логарифма (основание e , где e - число Эйлера), который дает измерение энтропии в натсах на символ и иногда упрощает анализ, избегая необходимости включать дополнительные константы в формулы. Возможны и другие основания, но они используются реже. Например, логарифм по основанию 2 8 = 256будет производить измерение в байтах на символ, а логарифм с основанием 10 даст измерение в десятичных цифрах (или хартлей ) на символ.

Интуитивно энтропия H X дискретной случайной величины X является мерой неопределенности, связанной со значением X, когда известно только его распределение.

Энтропия источника, который испускает последовательность из N символов, которые являются независимыми и одинаково распределенными (iid), составляет NH бит (на сообщение из N символов). Если символы источника данных одинаково распределены , но не является независимым, энтропия сообщения длиной N будет меньше , чем NH .

Энтропия испытания Бернулли как функция вероятности успеха, часто называемая бинарной функцией энтропии , H b ( p ) . Энтропия максимизируется на уровне 1 бита на испытание, когда два возможных исхода равновероятны, как при несмещенном подбрасывании монеты.

Если передается 1000 бит (0 и 1), и значение каждого из этих битов известно приемнику (имеет определенное значение с определенностью) до передачи, очевидно, что никакая информация не передается. Если, однако, каждый бит независимо равновероятен равным 0 или 1, было передано 1000 каналов информации (чаще называемых битами). Между этими двумя крайностями информацию можно количественно определить следующим образом. Если 𝕏 это совокупность всех сообщений { х 1 , ..., х п } , что Х может быть, и р ( х ) есть вероятность некоторых , то энтропия, Н , из X определяется: [9]

(Здесь я ( х ) является собственной информации , которая является энтропийный вклад отдельного сообщения, а 𝔼 X является ожидаемое значение ) . Свойство энтропии является то , что она максимальна , когда все сообщения в пространстве сообщений являются равновероятно p ( x ) = 1 / n ; т.е. наиболее непредсказуемо, и в этом случае H ( X ) = log n .

Частным случаем информационной энтропии для случайной величины с двумя исходами является функция бинарной энтропии, обычно принимаемая с логарифмическим основанием 2, таким образом, имея шеннон (Sh) в качестве единицы:

Совместная энтропия [ править ]

Совместная энтропия двух дискретных случайных величин X и Y является лишь энтропия их спаривания: ( X , Y ) . Это означает , что если X и Y являются независимыми , то их совместная энтропия равна сумме их индивидуальных энтропией.

Например, если ( X , Y ) представляет положение шахматной фигуры - X строка и Y столбец, то совместная энтропия строки и столбца фигуры будет энтропией положения фигуры кусок.

Несмотря на схожие обозначения, совместную энтропию не следует путать с перекрестной энтропией .

Условная энтропия (двусмысленность) [ править ]

Условная энтропия или условная неопределенность из X дается случайная величина Y (также называется ненадежностью из X о Y ) является средней условной энтропией над Y : [10]

Поскольку энтропия может быть обусловлена ​​случайной величиной или той случайной величиной, которая является определенным значением, следует проявлять осторожность, чтобы не путать эти два определения условной энтропии, первое из которых используется более широко. Основное свойство этой формы условной энтропии состоит в том, что:

Взаимная информация (преобразование) [ править ]

Взаимная информация измеряет количество информации, которую можно получить об одной случайной величине, наблюдая за другой. Это важно в коммуникации, где его можно использовать для максимального увеличения объема информации, совместно используемой между отправленными и полученными сигналами. Взаимная информация X относительно Y определяется следующим образом:

где SI ( S pecific взаимной I нформация) является точечно взаимной информации .

Основное свойство взаимной информации состоит в том, что

То есть, зная , Y , мы можем сэкономить в среднем I ( X , Y ) битов при кодировании X по сравнению с не зная Y .

Взаимная информация симметрична :

Взаимная информация может быть выражена в виде средней дивергенции Кульбаки-Лейблере (информация усиления) между задним распределением вероятностей из X заданного значения Y и априорное распределение на X :

Другими словами, это мера того , сколько, в среднем, распределение вероятностей на X изменится , если заданы значения Y . Это часто пересчитывается как отклонение от произведения предельных распределений к фактическому совместному распределению:

Взаимная информация тесно связана с тестом логарифмического отношения правдоподобия в контексте таблиц сопряженности и полиномиального распределения, а также с критерием χ 2 Пирсона : взаимная информация может считаться статистикой для оценки независимости между парой переменных и имеет хорошо заданное асимптотическое распределение.

Дивергенция Кульбака – Лейблера (сбор информации) [ править ]

Дивергенции Кульбаки-Лейблер (или информация дивергенция , усиление информации , или относительная энтропия ) представляет собой способ сравнения два распределений: «истинное» распределение вероятностей , и произвольное распределение вероятностей . Если мы сжимаем данные способом, предполагающим, что это распределение, лежащее в основе некоторых данных, когда в действительности распределение является правильным, расхождение Кульбака – Лейблера - это количество средних дополнительных битов на данные, необходимые для сжатия. Таким образом определяется

Хотя это иногда используется как «метрика расстояния», дивергенция KL не является истинной метрикой, поскольку она не симметрична и не удовлетворяет неравенству треугольника (что делает ее полуквазиметрической).

Другая интерпретация KL-дивергенции - это «ненужный сюрприз», внесенный априорном от истины: предположим, что число X будет случайно выбрано из дискретного набора с распределением вероятностей . Если Алиса знает истинное распределение , в то время как Боб считает (есть до ) , что распределение , то Боб будет больше удивлен , чем Элис, в среднем, увидев значение X . Дивергенция KL - это (объективное) ожидаемое значение (субъективной) неожиданности Боба за вычетом неожиданности Алисы, измеренное в битах, если логарифм находится в основании 2. Таким образом, степень, в которой априор Боба «ошибочен», может быть количественно определен с точки зрения того, насколько «излишне удивлен», как ожидается, он его сделает.

Другие количества [ править ]

Другие важные информационные теоретические величины включают энтропию Реньи (обобщение энтропии), дифференциальную энтропию (обобщение количества информации на непрерывные распределения) и условную взаимную информацию .

Теория кодирования [ править ]

Картинка, показывающая царапины на читаемой поверхности CD-R. Музыкальные компакт-диски и компакт-диски с данными кодируются с помощью кодов исправления ошибок, поэтому их все еще можно прочитать, даже если на них есть небольшие царапины, с помощью обнаружения и исправления ошибок .

Теория кодирования - одно из наиболее важных и прямых приложений теории информации. Его можно подразделить на теорию кодирования источника и теорию кодирования канала. Используя статистическое описание данных, теория информации определяет количество битов, необходимых для описания данных, то есть информационную энтропию источника.

  • Сжатие данных (исходное кодирование): существует две формулировки проблемы сжатия:
    • сжатие данных без потерь : данные должны быть точно реконструированы;
    • сжатие данных с потерями : выделяет биты, необходимые для восстановления данных, в пределах указанного уровня точности, измеренного функцией искажения. Это подмножество теории информации называется теорией скорости и искажения .
  • Коды с исправлением ошибок (канальное кодирование): в то время как сжатие данных удаляет как можно большую избыточность, код с исправлением ошибок добавляет именно тот вид избыточности (то есть исправление ошибок), необходимый для эффективной и достоверной передачи данных через зашумленный канал.

Такое разделение теории кодирования на сжатие и передачу оправдано теоремами о передаче информации или теоремами разделения источника и канала, которые оправдывают использование битов в качестве универсальной валюты для информации во многих контекстах. Однако эти теоремы справедливы только в ситуации, когда один передающий пользователь желает общаться с одним принимающим пользователем. В сценариях с более чем одним передатчиком (канал множественного доступа), более чем одним приемником ( широковещательный канал ) или промежуточными «помощниками» ( канал ретрансляции ) или в более общих сетях сжатие с последующей передачей может больше не быть оптимальным. Теория сетевой информации относится к этим моделям многоагентной коммуникации.

Теория источников [ править ]

Источником информации можно считать любой процесс, генерирующий последовательные сообщения . Источник без памяти - это источник, в котором каждое сообщение представляет собой независимую одинаково распределенную случайную величину , тогда как свойства эргодичности и стационарности налагают менее строгие ограничения. Все такие источники являются стохастическими . Эти термины хорошо изучены сами по себе за пределами теории информации.

Оценить [ редактировать ]

Скорость передачи информации - это средняя энтропия на символ. Для источников без памяти это просто энтропия каждого символа, тогда как в случае стационарного случайного процесса она равна

то есть условная энтропия символа с учетом всех предыдущих сгенерированных символов. Для более общего случая процесса, который не обязательно является стационарным, средняя скорость равна

то есть предел совместной энтропии на символ. Для стационарных источников эти два выражения дают одинаковый результат. [11]

Скорость передачи информации определяется как

В теории информации принято говорить о «скорости» или «энтропии» языка. Это уместно, например, когда источником информации является английская проза. Скорость источника информации зависит от его избыточности и того, насколько хорошо он может быть сжат, что является предметом кодирования источника .

Емкость канала [ править ]

Связь по каналу, например по кабелю Ethernet, является основной мотивацией теории информации. Однако такие каналы часто не могут обеспечить точную реконструкцию сигнала; шум, периоды молчания и другие формы искажения сигнала часто ухудшают качество.

Рассмотрим процесс коммуникации по дискретному каналу. Ниже представлена ​​простая модель процесса:

Здесь X представляет собой пространство переданных сообщений, а Y пространство сообщений, полученных за единицу времени по нашему каналу. Пусть р ( у | х ) является условной вероятностью функция распределения Y данного X . Мы будем рассматривать p ( y | x ) как неотъемлемое фиксированное свойство нашего канала связи (представляющее природу шума нашего канала). Тогда совместное распределение X и Y полностью определяется нашим каналом и нашим выборомf ( x ) - предельное распределение сообщений, которые мы выбираем для отправки по каналу. При этих ограничениях мы хотели бы максимизировать скорость передачи информации или сигнала , который мы можем передавать по каналу. Соответствующей мерой для этого является взаимная информация, и эта максимальная взаимная информация называется пропускной способностью канала и определяется как:

Эта емкость имеет следующее свойство, связанное с передачей информации на скорости передачи информации R (где R обычно бит на символ). Для любой скорости передачи информации R < C и ошибки кодирования ε > 0, для достаточно большого N существует код длины N и скорости ≥ R и алгоритм декодирования, такой, что максимальная вероятность ошибки блока составляет ≤ ε ; то есть всегда возможна передача с произвольно малой блочной ошибкой. Кроме того, при любой скорости R > C передача с произвольно малой блочной ошибкой невозможна.

Канальное кодирование связано с поиском таких почти оптимальных кодов, которые можно использовать для передачи данных по зашумленному каналу с небольшой ошибкой кодирования со скоростью, близкой к пропускной способности канала.

Емкость отдельных моделей каналов [ править ]

  • Аналоговый канал связи с непрерывным временем, подверженный гауссовскому шуму - см. Теорему Шеннона – Хартли .
  • Двоичный симметричный канал (БСК) с вероятностью кроссовера р представляет собой дискретный вход, дискретный выходной канал , который переворачивает входной бит с вероятностью р . BSC имеет пропускную способность 1 - H b ( p ) бит на использование канала, где H b - двоичная функция энтропии до логарифма с основанием 2:
  • Канал двоичного стирания (BEC) с вероятностью стирания p представляет собой двоичный входной и троичный выходной канал. Возможные выходы канала: 0, 1 и третий символ «e», называемый стиранием. Стирание представляет собой полную потерю информации о входном бите. Емкость BEC составляет 1 - p бит на использование канала.

Каналы с памятью и направленной информацией [ править ]

На практике у многих каналов есть память. А именно, в момент времени канал определяется вероятностью кондиционирования . Часто удобнее использовать обозначение и канал становится . В таком случае пропускная способность определяется скоростью взаимной информации, когда нет обратной связи, и скоростью направленной информации в случае, если есть обратная связь или нет [12] [13] (если нет обратной связи, направленная информация j равна взаимная информация).

Приложения для других полей [ править ]

Использование разведки и секретные приложения [ править ]

Концепции теории информации применимы к криптографии и криптоанализу. Информационная единица Тьюринга, запрет , была использована в проекте Ultra , взломав немецкий машинный код Enigma и ускорив конец Второй мировой войны в Европе . Сам Шеннон определил важное понятие, которое теперь называется расстоянием единственности . Основываясь на избыточности открытого текста , он пытается предоставить минимальный объем зашифрованного текста, необходимый для обеспечения уникальной дешифрируемости.

Теория информации заставляет нас думать, что хранить секреты намного сложнее, чем может показаться на первый взгляд. Грубая сила атака может привести к поломке системы на основе алгоритмов асимметричного ключа или наиболее часто используемых методы симметричных ключей алгоритмов (иногда называемые алгоритмы секретного ключа), такие как блочные шифры . Безопасность всех таких методов в настоящее время исходит из предположения, что никакая известная атака не сможет взломать их за практическое время.

Теоретическая информационная безопасность относится к таким методам, как одноразовый блокнот , которые не уязвимы для таких атак грубой силы. В таких случаях положительная условная взаимная информация между открытым текстом и зашифрованным текстом (обусловленная ключом ) может гарантировать правильную передачу, в то время как безусловная взаимная информация между открытым текстом и зашифрованным текстом остается нулевой, что приводит к абсолютно безопасной связи. Другими словами, перехватчик не сможет улучшить свое предположение об открытом тексте, узнав зашифрованный текст, но не ключ. Однако, как и в любой другой криптографической системе, необходимо соблюдать осторожность, чтобы правильно применять даже теоретически безопасные методы; проект Venona смог взломать одноразовые колодки Советского Союза из-за неправильного повторного использования ключевого материала.

Генерация псевдослучайных чисел [ править ]

Генераторы псевдослучайных чисел широко доступны в библиотеках компьютерных языков и прикладных программах. Они почти всегда не подходят для использования в криптографии, поскольку не уклоняются от детерминированной природы современного компьютерного оборудования и программного обеспечения. Класс улучшенных генераторов случайных чисел называется криптографически безопасными генераторами псевдослучайных чисел , но даже им для правильной работы требуются случайные начальные числа, внешние по отношению к программному обеспечению. Их можно получить с помощью экстракторов , если все будет сделано аккуратно. Мерой достаточной случайности в экстракторах является минимальная энтропия , величина, связанная с энтропией Шеннона через энтропию Реньи.; Энтропия Реньи также используется для оценки случайности в криптографических системах. Несмотря на взаимосвязь, различия между этими показателями означают, что случайная величина с высокой энтропией Шеннона не обязательно удовлетворительна для использования в экстракторе и, следовательно, для использования в криптографии.

Сейсмические исследования [ править ]

Одно из первых коммерческих приложений теории информации было в области сейсмической разведки нефти. Работа в этой области позволила отделить нежелательный шум от полезного сейсмического сигнала. Теория информации и цифровая обработка сигналов позволяют значительно улучшить разрешение и четкость изображения по сравнению с предыдущими аналоговыми методами. [14]

Семиотика [ править ]

Семиотики Доде Наута и Винфрид Нёт считали, что Чарльз Сандерс Пирс создал теорию информации в своих работах по семиотике. [15] : 171 [16] : 137 Наута определил семиотическую теорию информации как исследование «внутренних процессов кодирования, фильтрации и обработки информации». [15] : 91

Такие концепции теории информации, как избыточность и контроль кода, использовались семиотиками, такими как Умберто Эко и Ферруччо Росси-Ланди, для объяснения идеологии как формы передачи сообщений, посредством которой доминирующий социальный класс излучает свое сообщение, используя знаки, которые демонстрируют высокую степень достоверности. избыточность, при которой только одно сообщение декодируется из набора конкурирующих сообщений. [17]

Разные приложения [ править ]

Теория информации также имеет приложения в азартных играх и теории информации , черных дырах и биоинформатике .

См. Также [ править ]

  • Алгоритмическая вероятность
  • Байесовский вывод
  • Теория коммуникации
  • Теория конструкторов - обобщение теории информации, включающее квантовую информацию.
  • Индуктивная вероятность
  • Инфо-метрики
  • Минимальная длина сообщения
  • Минимальная длина описания
  • Список важных публикаций
  • Философия информации

Приложения [ править ]

  • Активные сети
  • Криптоанализ
  • Криптография
  • Кибернетика
  • Энтропия в термодинамике и теории информации
  • Играть в азартные игры
  • Разведка (сбор информации)
  • Сейсморазведка

История [ править ]

  • Хартли, RVL
  • История теории информации
  • Шеннон, CE
  • Хронология теории информации
  • Йоки, HP

Теория [ править ]

  • Теория кодирования
  • Теория обнаружения
  • Теория оценок
  • Информация Fisher
  • Информационная алгебра
  • Информационная асимметрия
  • Теория информационного поля
  • Информационная геометрия
  • Теория информации и теория меры
  • Колмогоровская сложность
  • Список нерешенных проблем теории информации
  • Логика информации
  • Сетевое кодирование
  • Философия информации
  • Квантовая информатика
  • Исходное кодирование

Концепции [ править ]

  • Запрет (единица)
  • Емкость канала
  • Канал связи
  • Источник связи
  • Условная энтропия
  • Скрытый канал
  • Сжатие данных
  • Декодер
  • Дифференциальная энтропия
  • Подходящая информация
  • Сложность флуктуации информации
  • Информационная энтропия
  • Совместная энтропия
  • Дивергенция Кульбака – Лейблера
  • Взаимная информация
  • Точечная взаимная информация (PMI)
  • Приемник (теория информации)
  • Резервирование
  • Энтропия Реньи
  • Самоинформация
  • Расстояние единственности
  • Разнообразие
  • Расстояние Хэмминга

Ссылки [ править ]

  1. ^ Бернхэм, КП и Андерсон Д.Р. (2002) Выбор модели и многомодельный вывод: практический теоретико-информационный подход, второе издание (Springer Science, Нью-Йорк) ISBN  978-0-387-95364-9 .
  2. ^ a b Ф. Рике; Д. Уорленд; Р. Рюйтер ван Стивенинк; В. Биалек (1997). Шипы: изучение нейронного кода . Пресса Массачусетского технологического института. ISBN 978-0262681087.
  3. ^ Дельгадо-Бонал, Альфонсо; Мартин-Торрес, Хавьер (03.11.2016). «Человеческое зрение определяется на основе теории информации» . Научные отчеты . 6 (1): 36038. Bibcode : 2016NatSR ... 636038D . DOI : 10.1038 / srep36038 . ISSN 2045-2322 . PMC 5093619 . PMID 27808236 .   
  4. ^ cf; Huelsenbeck, JP; Ронквист, Ф .; Nielsen, R .; Боллбэк, JP (2001). «Байесовский вывод филогении и его влияние на эволюционную биологию». Наука . 294 (5550): 2310–2314. Bibcode : 2001Sci ... 294.2310H . DOI : 10.1126 / science.1065889 . PMID 11743192 . S2CID 2138288 .  
  5. ^ Алликметс, Рандо; Вассерман, Wyeth W .; Хатчинсон, Эми; Смоллвуд, Филип; Натанс, Джереми; Роган, Питер К. (1998). «Томас Д. Шнайдер], Майкл Дин (1998) Организация гена ABCR: анализ последовательностей промотора и сплайсинга» . Джин . 215 (1): 111–122. DOI : 10.1016 / s0378-1119 (98) 00269-8 . PMID 9666097 . 
  6. Перейти ↑ Jaynes, ET (1957). «Теория информации и статистическая механика» . Phys. Ред . 106 (4): 620. Bibcode : 1957PhRv..106..620J . DOI : 10.1103 / Physrev.106.620 .
  7. ^ Беннетт, Чарльз Х .; Ли, Мин; Ма, Бин (2003). «Письма счастья и эволюционные истории» . Scientific American . 288 (6): 76–81. Bibcode : 2003SciAm.288f..76B . DOI : 10.1038 / Scientificamerican0603-76 . PMID 12764940 . Архивировано из оригинала на 2007-10-07 . Проверено 11 марта 2008 . 
  8. Дэвид Р. Андерсон (1 ноября 2003 г.). «Некоторые сведения о том, почему люди, занимающиеся эмпирическими науками, могут захотеть лучше понять теоретико-информационные методы» (PDF) . Архивировано из оригинального (PDF) 23 июля 2011 года . Проверено 23 июня 2010 .
  9. ^ Fazlollah М. Реза (1994) [тысяча девятьсот шестьдесят-одна]. Введение в теорию информации . Dover Publications, Inc., Нью-Йорк. ISBN 0-486-68210-2.
  10. ^ Роберт Б. Эш (1990) [1965]. Теория информации . ISBN Dover Publications, Inc. 0-486-66521-6.
  11. ^ Джерри Д. Гибсон (1998). Цифровое сжатие для мультимедиа: принципы и стандарты . Морган Кауфманн. ISBN 1-55860-369-7.
  12. ^ Мэсси, Джеймс Л. (1990). «Причинно-следственная связь, обратная связь и направленная информация» . Cite journal requires |journal= (help)
  13. ^ Пермутер, Хаим Генри; Вайсман, Цачи; Голдсмит, Андреа Дж. (Февраль 2009 г.). «Конечные каналы с инвариантной во времени детерминированной обратной связью». IEEE Transactions по теории информации . 55 (2): 644–662. arXiv : cs / 0608070 . DOI : 10.1109 / TIT.2008.2009849 .
  14. ^ Хаггерти, Патрик Э. (1981). «Корпорация и инновации». Журнал стратегического управления . 2 (2): 97–118. DOI : 10.1002 / smj.4250020202 .
  15. ^ a b Наута, Доде (1972). Значение информации . Гаага: Мутон. ISBN 9789027919960.
  16. ^ Нота, Винфрид (январь 2012). "Теория информации Чарльза С. Пирса: теория роста символов и знания" . Кибернетика и человеческое знание . 19 (1–2): 137–161.
  17. ^ Нота, Винфрид (1981). « Семиотика идеологии ». Семиотика , Выпуск 148.

Классическая работа [ править ]

  • Шеннон, CE (1948), « Математическая теория коммуникации », Bell System Technical Journal , 27, стр. 379–423 и 623–656, июль и октябрь 1948 г. PDF.
    Заметки и другие форматы.
  • Р.В.Л. Хартли, «Передача информации» , Bell System Technical Journal , июль 1928 г.
  • Андрей Колмогоров (1968), « Три подхода к количественному определению информации » в International Journal of Computer Mathematics.

Другие журнальные статьи [ править ]

  • Дж. Л. Келли младший, Принстон , "Новая интерпретация скорости передачи информации" Технический журнал Bell System , Vol. 35, июль 1956 г., стр. 917–26.
  • Р. Ландауэр, IEEE.org , «Информация физическая» Proc. Семинар по физике и вычислениям PhysComp'92 (IEEE Comp. Sci.Press, Los Alamitos, 1993), стр. 1–4.
  • Ландауэр, Р. (1961). «Необратимость и тепловыделение в вычислительном процессе» (PDF) . IBM J. Res. Dev . 5 (3): 183–191. DOI : 10.1147 / rd.53.0183 .
  • Тимм, Николай; Элфорд, Уэсли; Флекер, Бенджамин; Беггс, Джон М. (2012). «Многовариантные информационные меры: точка зрения экспериментатора». arXiv : 1111.6857 [ cs.IT ].

Учебники по теории информации [ править ]

  • Арндт, К. Информационные меры, информация и ее описание в науке и технике (серия Springer: сигналы и коммуникационные технологии), 2004 г., ISBN 978-3-540-40855-0 
  • Ясень, РБ. Теория информации . Нью-Йорк: Interscience, 1965. ISBN 0-470-03445-9 . Нью-Йорк: Довер 1990. ISBN 0-486-66521-6  
  • Галлагер, R . Теория информации и надежная коммуникация. Нью-Йорк: Джон Уайли и сыновья, 1968. ISBN 0-471-29048-3 
  • Гольдман С. Теория информации . Нью-Йорк: Prentice Hall, 1953. Нью-Йорк: Dover 1968 ISBN 0-486-62209-6 , 2005 ISBN 0-486-44271-3  
  • Обложка, Томас ; Томас, Джой А. (2006). Элементы теории информации (2-е изд.). Нью-Йорк: Wiley-Interscience . ISBN 0-471-24195-4.
  • Csiszar, I. , Korner, J. Теория информации: теоремы кодирования для дискретных систем без памяти Akademiai Kiado: 2-е издание, 1997. ISBN 963-05-7440-3 
  • Маккей, Дэвид JC . Теория информации, логический вывод и алгоритмы обучения Кембридж: Cambridge University Press, 2003. ISBN 0-521-64298-1 
  • Мансурипур М. Введение в теорию информации . Нью-Йорк: Prentice Hall, 1987. ISBN 0-13-484668-0 
  • Мак - Элиса, R . Теория информации и кодирования. Кембридж, 2002. ISBN 978-0521831857 
  • Пирс, младший. «Введение в теорию информации: символы, сигналы и шум». Дувр (2-е издание). 1961 г. (перепечатано Dover 1980 г.).
  • Реза, F . Введение в теорию информации . Нью-Йорк: McGraw-Hill 1961. Нью-Йорк: Dover 1994. ISBN 0-486-68210-2 
  • Шеннон, Клод ; Уивер, Уоррен (1949). Математическая теория коммуникации (PDF) . Урбана, Иллинойс : Университет Иллинойса Press . ISBN 0-252-72548-4. LCCN  49-11922 .
  • Стоун, СП. Глава 1 книги «Теория информации: Введение в учебное пособие» , Университет Шеффилда, Англия, 2014. ISBN 978-0956372857 . 
  • Юнг, RW. Первый курс теории информации Kluwer Academic / Plenum Publishers, 2002. ISBN 0-306-46791-7 . 
  • Юнг, RW. Теория информации и сетевое кодирование Springer 2008, 2002. ISBN 978-0-387-79233-0 

Другие книги [ править ]

  • Леон Бриллюэн, Наука и теория информации , Минеола, Нью-Йорк: Довер, [1956, 1962] 2004. ISBN 0-486-43918-6 
  • Джеймс Глейк , Информация: история, теория, наводнение , Нью-Йорк: Пантеон, 2011. ISBN 978-0-375-42372-7 
  • А. И. Хинчин, Математические основы теории информации , Нью-Йорк: Довер, 1957. ISBN 0-486-60434-9 
  • HS Leff и AF Rex, редакторы, Maxwell's Demon: Entropy, Information, Computing , Princeton University Press, Принстон, Нью-Джерси (1990). ISBN 0-691-08727-X 
  • Роберт К. Логан . Что такое информация? - Организация распространения в биосфере, символосфере, техносфере и эконосфере , Торонто: DEMO Publishing.
  • Том Зигфрид, Бит и маятник , Wiley, 2000. ISBN 0-471-32174-5 
  • Чарльз Сейф , « Расшифровка Вселенной» , «Викинг», 2006 г. ISBN 0-670-03441-X 
  • Джереми Кэмпбелл, грамматический человек , Touchstone / Simon & Schuster, 1982, ISBN 0-671-44062-4 
  • Анри Тейл, Экономика и теория информации , Rand McNally & Company - Чикаго, 1967.
  • Эсколано, Суау, Бонев, Теория информации в компьютерном зрении и распознавании образов , Springer, 2009. ISBN 978-1-84882-296-2 
  • Влатко Ведрал, Декодирование реальности: Вселенная как квантовая информация , Oxford University Press, 2010. ISBN 0-19-923769-7 

МООК по теории информации [ править ]

  • Раймонд В. Юнг, " Теория информации " ( Китайский университет Гонконга )

Внешние ссылки [ править ]

  • "Информация" , Энциклопедия математики , EMS Press , 2001 [1994]
  • Ламберт Флорида (1999), « Перемешанные карточки, грязные столы и беспорядочные комнаты в общежитии - примеры увеличения энтропии? Ерунда! », Журнал химического образования
  • IEEE Information Theory Society и ITSOC Монографии, обзоры и обзоры