Из Википедии, свободной энциклопедии
  (Перенаправлено с информативного )
Перейти к навигации Перейти к поиску

В ASCII - коде для слова « Википедия » , представленного в двоичном виде , числительная система наиболее часто используется для кодирования текстовой информации компьютера

Информацию можно рассматривать как разрешение неопределенности ; это то, что отвечает на вопрос «Что такое сущность» и, таким образом, определяет как ее сущность, так и природу ее характеристик. Понятие информации имеет разное значение в разных контекстах. [1] Таким образом, концепция становится связанной с понятиями ограничения , коммуникации , контроля , данных , формы , образования , знания , значения , понимания , умственных стимулов , паттерна , восприятия., представление и энтропия .

Информация связана с данными . Разница в том, что информация устраняет неопределенность. Данные могут представлять собой избыточные символы, но приближаются к информации через оптимальное сжатие данных .

Информация может передаваться во времени через хранилище данных и в пространстве через связь и телекоммуникации . [2] Информация выражается либо в виде содержания сообщения, либо посредством прямого или косвенного наблюдения . То, что воспринимается, может быть истолковано как сообщение само по себе, и в этом смысле информация всегда передается как содержание сообщения.

Информация может быть закодирована в различных формах для передачи и интерпретации (например, информация может быть закодирована в последовательности из признаков , или передается через сигнал ). Его также можно зашифровать для безопасного хранения и связи.

Неопределенность события измеряется вероятностью его наступления и обратно пропорциональна ей. Теория информации использует этот простой факт, делая вывод, что более неопределенные события требуют большего количества информации, чтобы разрешить неопределенность этого события. Бит представляет собой типичный блок информации . Это «то, что снижает неопределенность наполовину». [3] Могут использоваться другие единицы, такие как нац . Например, информация, закодированная в одном «честном» подбрасывании монеты, имеет лог 2 (2/1) = 1 бит, а в двух честных подбрасываниях монеты - log 2 (4/1) = 2 бита. Наука 2011 годаВ статье подсчитано, что 97% технологически хранимой информации уже было в цифровых битах в 2007 году, и что 2002 год стал началом цифровой эры для хранения информации (когда емкость цифровой памяти впервые обошла аналоговую). [4]

Этимология [ править ]

Английское слово «информация», по-видимому, происходит от латинского корня ( информация- ) именительного падежа ( informatio ): это существительное происходит от глагола īnfōrmāre (информировать) в смысле «придавать форму уму», «дисциплинировать. "," учить "," учить ". Само информирование происходит (через французский информатор ) от латинского глагола īnfōrmāre , что означает придавать форму или формировать идею. Кроме того, сама латынь уже содержала слово īnfōrmātiō, означающее понятие или идея,] « жирный текст».неясно, в какой степени это могло повлиять на развитие слова « информация» в английском языке.

Древнегреческое слово формы было μορφή ( Morphe ; ср морф) , а также εἶδος ( эйдос ) «вид, идея, форма, SET», последнее слово было классно , используемой в техническом философском смысле по Платону (а поздний Аристотелю ) в обозначают идеальную идентичность или сущность чего-либо (см. Теорию форм ). «Эйдос» также может быть связан с мыслью, предложением или даже концепцией.

Древнегреческое слово для информации является πληροφορία , которые Транслитерирует ( plērophoria ) от πλήρης ( plērēs ) «полностью» и φέρω ( phorein ) многократный из ( pherein ) , чтобы довести до конца . Это буквально означает «несет полностью» или «полностью передает». В современном греческом языке слово Πληροφορία все еще используется в повседневной жизни и имеет то же значение, что и слово « информация» в английском языке. Помимо своего основного значения, слово Πληροφορ deepα как символ имеет глубокие корни в семиотическом треугольнике Аристотеля.. В этом отношении его можно интерпретировать как передачу информации тому, кто декодирует этот конкретный тип знака . Это то, что часто встречается в этимологии многих слов в древнегреческом и современном греческом языке, где существует очень сильная денотативная связь между означающим, например, словом-символом, передающим конкретную закодированную интерпретацию, и означаемым, например, концептом, значение которого интерпретатор пытается расшифровать.

В английском языке «информация» - неисчислимое неисчислимое существительное .

Теория информации [ править ]

Теория информации - это научное исследование количественной оценки , хранения и передачи информации. Эта область была основана на работах Гарри Найквиста и Ральфа Хартли в 1920-х годах и Клода Шеннона в 1940-х годах. Эта область находится на пересечении теории вероятностей , статистики , информатики, статистической механики , информационной инженерии и электротехники .

Ключевым показателем в теории информации является энтропия . Энтропия определяет количество неопределенности, связанной со значением случайной величины или результатом случайного процесса . Например, определение результата честного подбрасывания монеты (с двумя равновероятными исходами) дает меньше информации (более низкая энтропия), чем определение результата броска кубика (с шестью равновероятными исходами). Некоторыми другими важными показателями в теории информации являются взаимная информация , пропускная способность канала, показатели ошибки и относительная энтропия . Важные подполи теории информации включают кодирование источников ,алгоритмическая теория сложности , алгоритмическая теория информации и информационно-Теоретико безопасность .

Приложения фундаментальных тем теории информации включают сжатие данных без потерь (например, файлы ZIP ), сжатие данных с потерями (например, MP3 и JPEG ) и канальное кодирование (например, для DSL ). Его влияние было решающим для успеха миссий « Вояджер» в дальний космос, изобретения компакт-диска , возможности мобильных телефонов и развития Интернета. Теория также нашла применение в других областях, включая статистический вывод , [5] криптографию , нейробиологию , [6] восприятие , [7] лингвистика, эволюция [8] и функции [9] молекулярных кодов ( биоинформатика ), теплофизика , [10] квантовые вычисления , черные дыры, поиск информации , сбор разведданных , обнаружение плагиата , [11] распознавание образов , обнаружение аномалий [12] и даже художественное творчество.

Как сенсорный ввод [ править ]

Часто информацию можно рассматривать как тип ввода в организм или систему . Входы бывают двух видов; некоторые входы важны для функционирования организма (например, пища) или системы ( энергия ) сами по себе. В своей книге « Сенсорная экология» [13] биофизик Дэвид Б. Дузенбери назвал эти причинные факторы. Другие входные данные (информация) важны только потому, что они связаны с причинными входными данными и могут использоваться для прогнозирования возникновения причинных входных данных в более позднее время (и, возможно, в другом месте). Некоторая информация важна из-за связи с другой информацией, но в конечном итоге должна быть связь с причинным входом.

На практике информация обычно передается с помощью слабых стимулов, которые должны быть обнаружены специализированными сенсорными системами и усилены за счет ввода энергии, прежде чем они станут функциональными для организма или системы. Например, свет в основном (но не только, например, растения могут расти в направлении источника света) причинный фактор для растений, но для животных он только предоставляет информацию. Цветной свет, отраженный от цветка, слишком слаб для фотосинтеза, но зрительная система пчелы обнаруживает его, а нервная система пчелы использует информацию, чтобы направить пчелу к цветку, где пчела часто находит нектар или пыльцу, которые являются причинными факторами. , выполняя функцию питания.

Как представление и сложность [ править ]

Познавательный ученый и прикладной математик Ronaldo Виго утверждает , что информация является концепцией , которая требует , по меньшей мере , два связанных с ним предприятий , чтобы сделать количественный смысл. Это любая размерно определенная категория объектов S и любое из ее подмножеств R. R, по сути, является представлением S, или, другими словами, передает репрезентативную (и, следовательно, концептуальную) информацию о S. Затем Виго определяет количество информации, которую R передает о S, как скорость изменения сложности S всякий раз, когда объекты в R удаляются из S. Под «информацией Vigo», паттерном, инвариантностью, сложностью, представлением и информацией - пять фундаментальных конструкций универсальная наука - объединены новой математической структурой. [14] [15] [16]Среди прочего, структура направлена ​​на преодоление ограничений информации Шеннон-Уивера при попытке охарактеризовать и измерить субъективную информацию.

Как влияние, ведущее к трансформации [ править ]

Информация - это любой тип паттерна, который влияет на формирование или преобразование других паттернов. [17] [18] В этом смысле сознательному уму нет необходимости воспринимать, а тем более ценить образец. Возьмем, к примеру, ДНК . Последовательность нуклеотидов - это образец, который влияет на формирование и развитие организма без необходимости в сознании. Можно утверждать, что для человека сознательное определение паттерна, например нуклеотида, естественно, требует сознательной обработки информации.

Иногда кажется, что теория систем относится к информации в этом смысле, предполагая, что информация не обязательно связана с каким-либо сознательным разумом, а шаблоны, циркулирующие (благодаря обратной связи ) в системе, можно назвать информацией. Другими словами, можно сказать, что информация в этом смысле является чем-то потенциально воспринимаемым как представление, хотя не создается или не представляется для этой цели. Например, Грегори Бейтсон определяет «информацию» как «различие, которое имеет значение». [19]

Если, однако, предпосылка «влияния» подразумевает, что информация была воспринята сознательным разумом, а также интерпретирована им, конкретный контекст, связанный с этой интерпретацией, может вызвать преобразование информации в знание . Сложные определения как «информации», так и «знания» затрудняют такой семантический и логический анализ, но условие «трансформации» является важным моментом в изучении информации, поскольку она относится к знаниям, особенно в деловой дисциплине управления знаниями . В этой практике, инструменты и процессы используются для оказания помощи работника знаний при проведении исследований и принятия решений, в том числе шагов , такие как:

  • Изучите информацию, чтобы эффективно извлечь ценность и смысл
  • Справочные метаданные, если они доступны
  • Установите соответствующий контекст , часто из множества возможных контекстов
  • Получите новые знания из информации
  • Принимайте решения или рекомендации на основе полученных знаний

Стюарт (2001) утверждает, что преобразование информации в знания имеет решающее значение, поскольку оно лежит в основе создания ценности и конкурентного преимущества для современного предприятия.

Датский словарь информационных терминов [20] утверждает, что информация дает только ответ на поставленный вопрос. Обеспечивает ли ответ знание, зависит от информированного человека. Таким образом, обобщенное определение понятия должно быть таким: «Информация» = ответ на конкретный вопрос ».

Когда Маршалл Маклюэн говорит о средствах массовой информации и их влиянии на человеческую культуру, он имеет в виду структуру артефактов, которые, в свою очередь, формируют наше поведение и образ мышления. Кроме того, в этом смысле феромоны часто называют «информацией».

Технологическая информация [ править ]

По оценкам, мировые технологические возможности для хранения информации выросли с 2,6 (оптимально сжатых) эксабайт в 1986 г., что является информационным эквивалентом менее одного компакт-диска объемом 730 МБ на человека (539 МБ на человека), до 295 (оптимально). сжатых) эксабайт в 2007 году. [4] Это информационный эквивалент почти 61 CD-ROM на человека в 2007 году. [2]

Совокупный технологический потенциал мира для получения информации через сети одностороннего вещания был информационным эквивалентом 174 газет на человека в день в 2007 году [4].

Совокупная эффективная способность мира по обмену информацией через двусторонние телекоммуникационные сети в 2007 г. равнялась информационному эквиваленту 6 газет на человека в день [2].

По состоянию на 2007 год примерно 90% всей новой информации является цифровой, в основном хранящейся на жестких дисках. [21]

Как записи [ править ]

Записи - это специализированные формы информации. По сути, записи - это информация, созданная сознательно или как побочный продукт деловой деятельности или транзакций и сохраненная из-за их ценности. В первую очередь, их ценность - это свидетельство деятельности организации, но они также могут быть сохранены из-за их информационной ценности. Управление звуковыми записями [22] обеспечивает сохранение целостности записей до тех пор, пока они требуются.

Международный стандарт управления записями ISO 15489 определяет записи как «информацию, созданную, полученную и поддерживаемую в качестве свидетельства и информации организацией или лицом в соответствии с юридическими обязательствами или в ходе деловых операций». [23] Комитет Международного комитета архивов (ICA) по электронным записям определил запись как «записанную информацию, созданную или полученную в начале, проведении или завершении институциональной или индивидуальной деятельности, которая включает содержание, контекст и структуру, достаточные для предоставления свидетельство деятельности ". [24]

Записи могут вестись для сохранения корпоративной памяти об организации или для соответствия юридическим, налоговым требованиям или требованиям отчетности, предъявляемым к организации. Уиллис выразил мнение, что рациональное управление бизнес-записями и информацией обеспечивает "... шесть ключевых требований для надлежащего корпоративного управления ... прозрачность; подотчетность; надлежащая правовая процедура; соответствие; соблюдение законодательных требований и требований общего права; и безопасность личной и корпоративной информации. . " [25]

Семиотика [ править ]

Майкл Бакленд классифицировал «информацию» с точки зрения ее использования: «информация как процесс», «информация как знание» и «информация как вещь». [26]

Бейнон-Дэвис [27] [28] объясняет многогранную концепцию информации в терминах знаков и сигнально-знаковых систем. Сами знаки можно рассматривать с точки зрения четырех взаимозависимых уровней, слоев или ветвей семиотики : прагматики, семантики, синтаксиса и эмпирики. Эти четыре уровня служат для соединения социального мира, с одной стороны, с физическим или техническим миром, с другой.

Прагматика занимается целью общения. Прагматика связывает проблему знаков с контекстом, в котором знаки используются. В центре внимания прагматики находятся намерения живых агентов, лежащие в основе коммуникативного поведения. Другими словами, прагматика связывает язык с действием.

Семантика касается значения сообщения, передаваемого в коммуникативном акте. Семантика рассматривает содержание общения. Семантика - это изучение значения знаков - связи между знаками и поведением. Семантику можно рассматривать как исследование связи между символами и их референтами или концептами - особенно того, как знаки относятся к человеческому поведению.

Синтаксис связан с формализмом, используемым для представления сообщения. Синтаксис как область изучает формы общения с точки зрения логики и грамматики знаковых систем. Синтаксис посвящен изучению формы, а не содержания знаков и знаковых систем.

Нильсен (2008) обсуждает отношения между семиотикой и информацией по отношению к словарям. Он вводит понятие стоимости лексикографической информации и обращается к усилию, которое пользователь словаря должен приложить, чтобы сначала найти, а затем понять данные, чтобы они могли генерировать информацию.

Коммуникация обычно существует в контексте некоторой социальной ситуации. Социальная ситуация определяет контекст выражаемых намерений (прагматика) и форму общения. В коммуникативной ситуации намерения выражаются через сообщения, которые содержат совокупность взаимосвязанных знаков, взятых из языка, взаимно понятного агентам, участвующим в коммуникации. Взаимопонимание подразумевает, что вовлеченные агенты понимают выбранный язык с точки зрения согласованного синтаксиса (синтаксиса) и семантики. Отправитель кодирует сообщение на языке и отправляет сообщение в виде сигналов по некоторому каналу связи (эмпирика). Выбранный канал связи имеет неотъемлемые свойства, которые определяют такие результаты, как скорость, с которой может происходить общение, и на каком расстоянии.

Приложение информационного исследования [ править ]

Информационный цикл (рассматриваемый в целом или в его отдельных компонентах) имеет большое значение для информационных технологий , информационных систем , а также информатики . Эти поля относятся к тем процессам и методам, которые относятся к сбору информации (с помощью датчиков ) и генерации (с помощью вычислений , формулировки или композиции), обработке (включая кодирование, шифрование, сжатие, упаковку), передаче (включая все методы электросвязи ), представлению (включая методы визуализации / отображения ), хранение(например, магнитные или оптические, в том числе голографические ) и т. д.

Визуализация информации (сокращенно InfoVis) зависит от вычислений и цифрового представления данных и помогает пользователям в распознавании образов и обнаружении аномалий .

  • Частичная карта Интернета с узлами, представляющими IP-адреса

  • Распределение галактической (в том числе темной) материи в кубическом сечении Вселенной

  • Информация, встроенная в абстрактный математический объект с ядром, нарушающим симметрию

  • Визуальное представление странного аттрактора с преобразованными данными о его фрактальной структуре

Информационная безопасность (сокращенно InfoSec) - это непрерывный процесс проявления должной осмотрительности для защиты информации и информационных систем от несанкционированного доступа, использования, раскрытия, уничтожения, модификации, нарушения или распространения посредством алгоритмов и процедур, ориентированных на мониторинг и обнаружение, поскольку а также реагирование на инциденты и ремонт.

Информационный анализ - это процесс проверки, преобразования и моделирования информации путем преобразования необработанных данных в практические знания для поддержки процесса принятия решений.

Качество информации (сокращенно InfoQ) - это потенциал набора данных для достижения конкретной (научной или практической) цели с использованием данного метода эмпирического анализа.

Информационная коммуникация представляет собой конвергенцию информатики, телекоммуникаций и аудиовизуальных средств массовой информации и контента.

См. Также [ править ]

  • Абстракция
  • Тщательность и точность
  • Антиинформация снижает уверенность
  • Классифицированная информация
  • Комплексная адаптивная система
  • Комплексная система
  • Кибернетика
  • Устройство хранения данных # Носитель записи
  • Энграмма
  • Экзформация
  • Бесплатная информационная инфраструктура
  • Свобода информации
  • Информационные и коммуникационные технологии
  • Информационная архитектура
  • Информационный брокер
  • Информационный континуум
  • Информатика
  • Информационная экология
  • Информационная инженерия
  • Информационная геометрия
  • Информационное неравенство
  • Информационная инфраструктура
  • Управление информацией
  • Отображение информации
  • Информационный метаболизм
  • Информационная перегрузка
  • Информационный процессор
  • Информационная наука
  • Информационная чувствительность
  • Информационная супермагистраль
  • Информационные технологии
  • Теория информации
  • Качество информации (InfoQ)
  • Информационная война
  • Инфосфера
  • Интернет-форум
  • Стоимость лексикографической информации
  • Библиотечное дело
  • Мем
  • Философия информации
  • Модель пропаганды
  • Квантовая информация
  • Рабочая характеристика приемника
  • Удовлетворительный

Ссылки [ править ]

  1. ^ Краткий обзор можно найти в: Лучано Флориди (2010). Информация - очень краткое введение . Издательство Оксфордского университета. ISBN 978-0-19-160954-1. Цель этого тома - дать общее представление о том, что такое информация ...
  2. ^ a b c "World_info_capacity_animation" . YouTube . 11 июня 2011 . Дата обращения 1 мая 2017 .
  3. ^ DT&SC 4-5: Учебник по теории информации, 2015, Калифорнийский университет, онлайн-курс, https://www.youtube.com/watch?v=9qanHTredVE&list=PLtjBSCvWCU3rNm46D3R85efM0hrzjuAIg&index=42
  4. ^ a b c Гильберт, Мартин; Лопес, Присцила (2011). «Мировой технологический потенциал для хранения, передачи и вычисления информации». Наука . 332 (6025): 60–65. Bibcode : 2011Sci ... 332 ... 60H . DOI : 10.1126 / science.1200970 . PMID 21310967 . S2CID 206531385 .   Свободный доступ к статье на martinhilbert.net/WorldInfoCapacity.html
  5. ^ Бернхэм, КП и Андерсон Д.Р. (2002) Выбор модели и многомодельный вывод: практический теоретико-информационный подход, второе издание (Springer Science, Нью-Йорк) ISBN 978-0-387-95364-9 . 
  6. ^ Ф. Рике; Д. Варланд; Р. Рюйтер ван Стивенинк; В. Биалек (1997). Шипы: изучение нейронного кода . Пресса Массачусетского технологического института. ISBN 978-0262681087.
  7. ^ Дельгадо-Бонал, Альфонсо; Мартин-Торрес, Хавьер (3 ноября 2016 г.). «Человеческое зрение определяется на основе теории информации» . Научные отчеты . 6 (1): 36038. Bibcode : 2016NatSR ... 636038D . DOI : 10.1038 / srep36038 . ISSN 2045-2322 . PMC 5093619 . PMID 27808236 .   
  8. ^ cf; Huelsenbeck, JP; Ронквист, Ф .; Nielsen, R .; Боллбэк, JP (2001). «Байесовский вывод филогении и его влияние на эволюционную биологию». Наука . 294 (5550): 2310–2314. Bibcode : 2001Sci ... 294.2310H . DOI : 10.1126 / science.1065889 . PMID 11743192 . S2CID 2138288 .  
  9. ^ Алликметс, Рандо; Вассерман, Wyeth W .; Хатчинсон, Эми; Смоллвуд, Филип; Натанс, Джереми; Роган, Питер К. (1998). "Томас Д. Шнайдер], Майкл Дин (1998) Организация гена ABCR: анализ последовательностей промотора и сплайсинга" . Джин . 215 (1): 111–122. DOI : 10.1016 / s0378-1119 (98) 00269-8 . PMID 9666097 . 
  10. Перейти ↑ Jaynes, ET (1957). «Теория информации и статистическая механика» . Phys. Ред . 106 (4): 620. Bibcode : 1957PhRv..106..620J . DOI : 10.1103 / Physrev.106.620 .
  11. ^ Беннетт, Чарльз Х .; Ли, Мин; Ма, Бин (2003). «Письма счастья и эволюционные истории» . Scientific American . 288 (6): 76–81. Bibcode : 2003SciAm.288f..76B . DOI : 10.1038 / Scientificamerican0603-76 . PMID 12764940 . Архивировано из оригинального 7 -го октября 2007 года . Проверено 11 марта 2008 года . 
  12. Дэвид Р. Андерсон (1 ноября 2003 г.). «Некоторые сведения о том, почему люди, занимающиеся эмпирическими науками, могут захотеть лучше понять теоретико-информационные методы» (PDF) . Архивировано из оригинального (PDF) 23 июля 2011 года . Проверено 23 июня 2010 года .
  13. ^ Dusenbery, Дэвид Б. (1992). Сенсорная экология . Нью-Йорк: WH Freeman. ISBN 978-0-7167-2333-2.
  14. Перейти ↑ Vigo, R. (2011). «Репрезентативная информация: новое общее понятие и мера информации» (PDF) . Информационные науки . 181 (21): 4847–59. DOI : 10.1016 / j.ins.2011.05.020 .
  15. Перейти ↑ Vigo, R. (2013). «Сложность над неопределенностью в теории обобщенной репрезентативной информации (GRIT): структурно-чувствительная общая теория информации» . Информация . 4 (1): 1–30. DOI : 10.3390 / info4010001 .
  16. Перейти ↑ Vigo, R. (2014). Математические принципы концептуального поведения человека: структурная природа концептуального представления и обработки . Нью-Йорк и Лондон: Серия научных психологов, Routledge. ISBN 978-0415714365.
  17. ^ Шеннон, Клод Э. (1949). Математическая теория коммуникации .
  18. ^ Касагранде, Дэвид (1999). «Информация как глагол: переосмысление информации для когнитивных и экологических моделей» (PDF) . Журнал экологической антропологии . 3 (1): 4–13. DOI : 10.5038 / 2162-4593.3.1.1 .
  19. ^ Бейтсон, Грегори (1972). Форма, сущность и различие: шаги к экологии разума . Издательство Чикагского университета. С. 448–66.
  20. ^ Симонсен, Бо Кранц. «Информациясордбоген - вис бегреб» . Informationsordbogen.dk . Дата обращения 1 мая 2017 .
  21. ^ Тенденции отказов в большом количестве дисковых накопителей. Эдуардо Пиньейру, Вольф-Дитрих Вебер и Луис Андре Баррозу
  22. ^ https://searchcompliance.techtarget.com/definition/records-management . Проверено 29 января 2021 года . Отсутствует или пусто |title=( справка )
  23. ^ ISO 15489
  24. ^ Комитет по электронным записям (февраль 1997 г.). «Руководство по управлению электронными записями с точки зрения архивов» (PDF) . www.ica.org . Международный комитет архивов. п. 22 . Проверено 9 февраля 2019 .
  25. Уиллис, Энтони (1 августа 2005 г.). «Корпоративное управление и управление информацией и записями». Журнал управления записями . 15 (2): 86–97. DOI : 10.1108 / 09565690510614238 .
  26. Бакленд, Майкл К. (июнь 1991 г.). «Информация как вещь». Журнал Американского общества информационных наук . 42 (5): 351–360. DOI : 10.1002 / (SICI) 1097-4571 (199106) 42: 5 <351 :: AID-ASI5> 3.0.CO; 2-3 .
  27. ^ Beynon-Davies, P. (2002). Информационные системы: введение в информатику в организациях . Бейзингсток, Великобритания: Palgrave. ISBN 978-0-333-96390-6.
  28. ^ Beynon-Davies, P. (2009). Информационные системы для бизнеса . Бейзингсток: Пэлгрейв. ISBN 978-0-230-20368-6.

Дальнейшее чтение [ править ]

  • Лю, Алан (2004). Законы крутизны: интеллектуальная работа и культура информации . Издательство Чикагского университета .
  • Бекенштейн, Джейкоб Д. (август 2003 г.). «Информация в голографической вселенной» . Scientific American . 289 (2): 58–65. Bibcode : 2003SciAm.289b..58B . DOI : 10.1038 / Scientificamerican0803-58 . PMID  12884539 .
  • Глейк, Джеймс (2011). Информация: история, теория, потоп . Нью-Йорк, Нью-Йорк: Пантеон.
  • Линь, Шу-Кун (2008). «Парадокс Гиббса и концепции информации, симметрии, подобия и их взаимосвязи». Энтропия . 10 (1): 1–5. arXiv : 0803.2571 . Bibcode : 2008Entrp..10 .... 1L . DOI : 10,3390 / энтропии e10010001 . S2CID  41159530 .
  • Флориди, Лучано (2005). "Является ли информация значимой данными?" (PDF) . Философия и феноменологические исследования . 70 (2): 351–70. DOI : 10.1111 / j.1933-1592.2005.tb00531.x . hdl : 2299/1825 .
  • Флориди, Лучано (2005). «Семантические концепции информации» . В Залте, Эдвард Н. (ред.). Стэнфордская энциклопедия философии (издание зимы 2005 г.). Лаборатория метафизических исследований Стэнфордского университета.
  • Флориди, Лучано (2010). Информация: очень краткое введение . Оксфорд: Издательство Оксфордского университета .
  • Логан, Роберт К. Что такое информация? - Организация распространения в биосфере, символосфере, техносфере и эконосфере . Торонто: DEMO Publishing.
  • Нильсен, Сандро (2008). «Влияние затрат на лексикографическую информацию на создание и использование словарей». Лексикос . 18 : 170–89.
  • Стюарт, Томас (2001). Богатство знаний . Нью-Йорк, Нью-Йорк: Doubleday.
  • Янг, Пол (1987). Природа информации . Вестпорт, Кт: Издательская группа Гринвуд. ISBN 978-0-275-92698-4.
  • Kenett, Ron S .; Шмуэли, Галит (2016). Качество информации: потенциал данных и аналитики для генерации знаний . Чичестер, Соединенное Королевство: Джон Вили и сыновья. DOI : 10.1002 / 9781118890622 . ISBN 978-1-118-87444-8.

Внешние ссылки [ править ]

  • Обзор семантических концепций информации Лучано Флориди для Стэнфордской энциклопедии философии
  • Principia Cybernetica статья о негэнтропии
  • Информация Фишера, новая парадигма науки: введение, принципы неопределенности, волновые уравнения, идеи Эшера, Канта, Платона и Уиллера. Это эссе постоянно обновляется в свете текущих исследований.
  • Сколько информации? 2003 попытки оценить , насколько новой информации создаются каждый год (исследование было произведено преподавателями и студентами в школе управления информацией и систем в Университете Калифорнии в Беркли )
  • (на датском) Informationsordbogen.dk Датский словарь информационных терминов / Informationsordbogen