Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Математические выражения для термодинамической энтропии в статистической термодинамике формулировке , установленной Людвига Больцмана и Гиббс в 1870 - х аналогичны информационной энтропии по Клода Шеннона и Хартли , разработанной в 1940 - х годах.

Эквивалентность формы определяющих выражений [ править ]

Могила Больцмана в Zentralfriedhof , Вена, с бюстом и формулой энтропии.

Определяющее выражение для энтропии в теории статистической механики, установленное Людвигом Больцманом и Дж. Уиллардом Гиббсом в 1870-х годах, имеет вид:

где - вероятность микросостояния i, взятого из равновесного ансамбля.

Определяющее выражение для энтропии в теории информации, установленной Клодом Э. Шенноном в 1948 году, имеет вид:

где - вероятность сообщения, взятого из пространства сообщений M , а b - основание используемого логарифма . Обычными значениями b являются 2, число Эйлера e и 10, а единицей энтропии является шеннон (или бит ) для b  = 2, nat для b  =  e и хартли для b  = 10. [1]

Математически H можно также рассматривать как среднюю информацию, взятую по пространству сообщений, потому что, когда определенное сообщение возникает с вероятностью p i , будет получено количество информации -log ( p i ) (называемое информационным содержанием или собственной информацией).

Если все микросостояния равновероятны ( микроканонический ансамбль ), статистическая термодинамическая энтропия сводится к форме, заданной Больцманом,

где W - количество микросостояний, соответствующее макроскопическому термодинамическому состоянию. Следовательно, S зависит от температуры.

Если все сообщения равновероятны, информационная энтропия сводится к энтропии Хартли.

где это кардинальное из пространства сообщений M .

Логарифм в термодинамическом определении - это натуральный логарифм . Можно показать , что энтропия Гиббса формула, с натуральным логарифмом, воспроизводит все свойства макроскопических классической термодинамики на Рудольфа Клаузиуса . (См. Статью: Энтропия (статистические представления) ).

В случае информационной энтропии логарифм также может быть взят по натуральному основанию. Это эквивалентно выбору измерения информации в натсах, а не в обычных битах (или, более формально, в шаннонах). На практике информационная энтропия почти всегда вычисляется с использованием логарифмов по основанию 2, но это различие сводится к не чем иным, как к изменению единиц измерения. Один нат составляет около 1,44 бита.

Для простой сжимаемой системы, которая может выполнять только объемную работу, первый закон термодинамики принимает вид

Но с равным успехом можно записать это уравнение в терминах того, что физики и химики иногда называют `` приведенной '' или безразмерной энтропией, σ = S / k , так что

Так же, как S сопряжена с T , так и σ сопряжена с k B T (энергия, которая характерна для T в молекулярном масштабе).

Таким образом, определения энтропии в статистической механике ( формула энтропии Гиббса ) и в классической термодинамике ( и фундаментальное термодинамическое соотношение ) эквивалентны для микроканонического ансамбля и статистических ансамблей, описывающих термодинамическую систему, находящуюся в равновесии с резервуаром, например канонический ансамбль , большой канонический ансамбль , изотермино-изобарический ансамбль . Эта эквивалентность обычно указывается в учебниках. Однако эквивалентность между термодинамическим определением энтропии и энтропии Гиббса не является общим, а, вместо этого, исключительным свойством обобщенного распределения Больцмана .[2]

Теоретические отношения [ править ]

Несмотря на вышесказанное, между двумя величинами есть разница. Информационная энтропия Н может быть вычислена для любого распределения вероятностей (если «сообщение» берутся , что событие я , который имел вероятность р я произошел, из пространства событий возможных), в то время как термодинамическая энтропия S относится к термодинамической вероятности p i в частности. Однако разница скорее теоретическая, чем реальная, потому что любое распределение вероятностей может быть сколь угодно точно аппроксимировано некоторой термодинамической системой. [ необходима цитата ]

Более того, между ними может быть установлена ​​прямая связь. Если рассматриваемые вероятности являются термодинамическими вероятностями p i : (приведенная) энтропия Гиббса σ может тогда рассматриваться как просто количество информации Шеннона, необходимое для определения подробного микроскопического состояния системы с учетом ее макроскопического описания. Или, говоря словами Г. Н. Льюиса, писавшего о химической энтропии в 1930 году: «Увеличение энтропии всегда означает потерю информации и ничего более». Чтобы быть более конкретным, в дискретном случае, использующем логарифмы по основанию два, приведенная энтропия Гиббса равна среднему значению минимального количества вопросов типа «да – нет», на которые необходимо ответить, чтобы полностью определить микросостояние , при условии, что мы знаем макросостояние .

Более того, предписание найти равновесные распределения статистической механики - например, распределение Больцмана - путем максимизации энтропии Гиббса при соответствующих ограничениях ( алгоритм Гиббса ) можно рассматривать как нечто не уникальное для термодинамики, а как принцип общей значимости. в статистическом выводе, если желательно найти максимально неинформативное распределение вероятностей при определенных ограничениях на его средние значения. (Эти перспективы подробно рассматриваются в статье « Термодинамика максимальной энтропии» .)

Энтропия Шеннона в теории информации иногда выражается в битах на символ. Физическая энтропия может быть рассчитана на основе «на количество» ( h ), которая называется « интенсивной » энтропией, вместо обычной полной энтропии, которая называется «экстенсивной» энтропией. «Шэнноны» сообщения ( H ) - это его общая «обширная» информационная энтропия, которая в h раз превышает количество битов в сообщении.

Прямая и физически реальная взаимосвязь между h и S может быть найдена путем присвоения символа каждому микросостоянию, которое происходит на моль, килограмм, объем или частицу однородного вещества, а затем вычисление «h» этих символов. Теоретически или по наблюдениям символы (микросостояния) будут возникать с разной вероятностью, и это будет определять h . Если имеется N молей, килограммов, объемов или частиц единичного вещества, соотношение между h (в битах на единицу вещества) и физической экстенсивной энтропией в натсах будет следующим:

где ln (2) - коэффициент преобразования 2 энтропии Шеннона в естественную базу e физической энтропии. Н ч это количество информации в битах , необходимых для описания состояния физической системы с энтропией S . Принцип Ландауэра демонстрирует реальность этого, заявляя, что минимальная требуемая энергия E (и, следовательно, выделяемое тепло Q ) за счет идеально эффективного изменения памяти или логической операции путем необратимого стирания или слияния N h бит информации будет в S раз превышать температуру, которая

где h - информационные биты, а E и Q - физические Джоули. Это подтверждено экспериментально. [3]

Температура - это мера средней кинетической энергии, приходящейся на одну частицу в идеальном газе (Кельвина = 2/3 * Джоулей / k b ), поэтому единицы Дж / К для k b принципиально безразмерны (Джоули / Джоули). k b - коэффициент преобразования энергии в 3/2 * Кельвина в Джоули для идеального газа. Если бы измерения кинетической энергии на частицу идеального газа были выражены в Джоулях, а не в Кельвинах, k b в приведенных выше уравнениях было бы заменено на 3/2. Это показывает, что S является истинной статистической мерой микросостояний, не имеющей фундаментальной физической единицы, кроме единиц информации, в данном случае «натс», что является просто заявлением о том, какое основание логарифма было выбрано по соглашению.

Информация физическая [ править ]

Двигатель Сцилларда [ править ]

Схема N-атомного двигателя

Физический мысленный эксперимент, демонстрирующий, как простое владение информацией может в принципе иметь термодинамические последствия, был установлен в 1929 году Лео Сцилардом в уточнении известного сценария Максвелла с демонами .

Рассмотрим установку Максвелла, но только с одной частицей газа в коробке. Если сверхъестественный демон знает, в какой половине ящика находится частица (что эквивалентно одному биту информации), он может закрыть заслонку между двумя половинами ящика, беспрепятственно закрыть поршень в пустую половину ящика и затем извлеките джоули полезной работы, если затвор снова откроется. Затем частицу можно дать изотермически расшириться до ее исходного равновесного занятого объема. Следовательно, при правильных обстоятельствах обладание одним битом информации Шеннона (один бит негэнтропии в термине Бриллюэна) действительно соответствует уменьшению энтропии физической системы. Глобальная энтропия не уменьшается, но преобразование информации в свободную энергию возможно.

Использование фазово-контрастного микроскопа, оснащенного высокоскоростной камерой, подключенной к компьютеру, как демон , фактически продемонстрировал принцип. [4] В этом эксперименте преобразование информации в энергию осуществляется на броуновской частице посредством управления с обратной связью ; то есть синхронизация работы, выполняемой частицей, с полученной информацией о ее положении. Расчет энергетических балансов для различных протоколов обратной связи подтвердил, что равенство Ярзинского требует обобщения, учитывающего объем информации, включенной в обратную связь.

Принцип Ландауэра [ править ]

Фактически можно сделать обобщение: любая информация, имеющая физическое представление, должна каким-то образом быть встроена в статистико-механические степени свободы физической системы.

Таким образом, утверждал Рольф Ландауэр в 1961 году, если бы кто-то вообразил, что начав с этих степеней свободы в термализованном состоянии, было бы реальное уменьшение термодинамической энтропии, если бы они затем были возвращены в известное состояние. Это может быть достигнуто только при сохраняющей информацию микроскопически детерминированной динамике, если неопределенность каким-то образом сбрасывается где-то еще, то есть если энтропия окружающей среды (или не содержащие информацию степени свободы) увеличивается по крайней мере на эквивалентную величину, как требуется. по Второму закону, набирая соответствующее количество тепла: в частности, kT  ln 2 тепла на каждый 1 стертый бит случайности.

С другой стороны, утверждал Ландауэр, нет никаких термодинамических возражений против логически обратимой операции, потенциально достижимой в системе физически обратимым образом. Это только логически необратимые операции - например, стирание бита до известного состояния или слияние двух путей вычисления - которые должны сопровождаться соответствующим увеличением энтропии. Когда информация является физической, вся обработка ее представлений, то есть генерация, кодирование, передача, декодирование и интерпретация, являются естественными процессами, в которых энтропия увеличивается за счет потребления свободной энергии. [5]

Применительно к сценарию демона / двигателя Сцилларда Максвелла это предполагает, что можно было бы «прочитать» состояние частицы в вычислительном устройстве без затрат энтропии; но только если устройство уже было НАСТРОЕНО в известное состояние, а не в термализованном состоянии неопределенности. Для SET (или сброса ) устройства в этом состоянии будет стоить все энтропии , которые могут быть сохранены, зная состояние частицы Сцилларда.

Негентропия [ править ]

Физик Леон Бриллюэн связал энтропию Шеннона с концепцией, которую иногда называют негэнтропией . В 1953 году Бриллюэн вывел общее уравнение [6], согласно которому изменение значения информационного бита требует  энергии не менее kT ln (2). Это та же самая энергия , которую производит двигатель Лео Сцилларда в идеалистическом случае, которая, в свою очередь, равна той же величине, которую обнаружил Ландауэр . В своей книге [7] он дополнительно исследовал эту проблему, заключив, что любая причина изменения значения бита (измерение, решение по вопросу «да / нет», стирание, отображение и т. Д.) Потребует того же количества, kT ln (2) энергии. Следовательно, получение информации о микросостоянии системы связано с производством энтропии, в то время как стирание дает производство энтропии только при изменении значения бита. Установка небольшого количества информации в подсистеме, изначально находящейся в состоянии теплового равновесия, приводит к локальному снижению энтропии. Однако, согласно Бриллюэну, второй закон термодинамики не нарушается, поскольку уменьшение термодинамической энтропии любой локальной системы приводит к увеличению термодинамической энтропии в другом месте. Таким образом, Бриллюэн прояснил значение негэнтропии, которое считалось спорным, потому что его более раннее понимание может дать эффективность Карно выше единицы. Кроме того,связь между энергией и информацией, сформулированная Бриллюэном, была предложена как связь между количеством битов, обрабатываемых мозгом, и потребляемой им энергией: Колелл и Фоке.[8] утверждал, что Де Кастро [9] аналитически нашел предел Ландауэра как термодинамическую нижнюю границу для вычислений мозга. Однако, хотя предполагается, что эволюция «выбрала» наиболее энергетически эффективные процессы, физические нижние границы не являются реалистичными величинами в мозгу. Во-первых, потому что минимальная единица обработки, рассматриваемая в физике, - это атом / молекула, которая далека от реального способа работы мозга; и, во-вторых, потому что нейронные сети включают важные факторы избыточности и шума, которые значительно снижают их эффективность. [10] Laughlin et al. [11]был первым, кто дал точные количественные данные об энергетических затратах на обработку сенсорной информации. Их находки на мясных мухах показали, что для зрительных сенсорных данных стоимость передачи одного бита информации составляет около 5 × 10 -14 джоулей, или, что эквивалентно, 10 4 молекул АТФ. Таким образом, эффективность нейронной обработки еще далека от предела Ландауэра kTln (2) J, но, что любопытно, она все же намного эффективнее современных компьютеров.

В 2009 году Махуликар и Хервиг переопределили термодинамическую негэнтропию как специфический дефицит энтропии динамически упорядоченной подсистемы по сравнению с ее окружением. [12] Это определение позволило сформулировать принцип негэнтропии , который, как математически показано, следует из 2-го закона термодинамики, во время существования порядка.

Черные дыры [ править ]

Стивен Хокинг часто говорил о термодинамической энтропии черных дыр с точки зрения их информационного содержания. [13] Уничтожают ли черные дыры информацию? Похоже, что существует глубокая связь между энтропией черной дыры и потерей информации. [14] См черная дыра термодинамика и Черная дыра информация парадокс .

Квантовая теория [ править ]

Хиршман показал [15] ср. Неуверенность Хиршмана в том , что принцип неопределенности Гейзенберга может быть выражен как конкретная нижняя граница суммы классических энтропий распределения квантовых наблюдаемых распределений вероятностей квантово-механического состояния, квадрата волновой функции по координате, а также импульсного пространства при выражении в единицах Планка . Полученные в результате неравенства обеспечивают более жесткую границу соотношений неопределенностей Гейзенберга.

Имеет смысл присвоить « совместную энтропию », потому что позиции и импульсы являются квантовыми сопряженными переменными и, следовательно, совместно не наблюдаются. Математически их следует рассматривать как совместное распределение . Обратите внимание , что эта совместная энтропия не эквивалентна энтропии фон Неймана , -Tr ρ пер ρ = -⟨ln ρ ⟩. Считается, что энтропия Хиршмана объясняет полное информационное содержание смеси квантовых состояний . [16]

(Недовольство энтропией фон Неймана с точки зрения квантовой информации было выражено Стотландом, Померанским, Бахматом и Коэном, которые ввели еще одно другое определение энтропии, которое отражает присущую квантово-механическим состояниям неопределенность. минимальная энтропия неопределенности чистых состояний и избыточная статистическая энтропия смесей. [17] )

Теорема о флуктуации [ править ]

Теорема о флуктуациях обеспечивает математическое обоснование второго закона термодинамики в соответствии с этими принципами и точно определяет ограничения применимости этого закона для систем, далеких от термодинамического равновесия.

Критика [ править ]

Существует критика связи между термодинамической энтропией и информационной энтропией.

Наиболее распространенная критика заключается в том, что информационная энтропия не может быть связана с термодинамической энтропией, потому что в дисциплине информационной энтропии нет концепции температуры, энергии или второго закона. [18] [19] [20] [21] [22] Лучше всего это можно обсудить, рассмотрев фундаментальное уравнение термодинамики :

где F i - это «обобщенные силы», а dx i - «обобщенные перемещения». Это аналогично уравнению механического дЕ = Р Dx , где дЕ является изменением кинетической энергии объекта , имеющим было смещено на расстоянии ого под действием силы F . Например, для простого газа мы имеем:

где температура ( T ), давление ( P ) и химический потенциал ( µ ) представляют собой обобщенные силы, которые при дисбалансе приводят к обобщенному смещению энтропии ( S ), объема ( -V ) и количества ( N ) соответственно, и произведения сил и перемещений дают изменение внутренней энергии ( dU ) газа.

В механическом примере неверно заявлять, что dx не является геометрическим смещением, потому что он игнорирует динамические отношения между смещением, силой и энергией. Смещение, как понятие в геометрии, не требует понятий энергии и силы для своего определения, и поэтому можно ожидать, что энтропия может не требовать понятий энергии и температуры для своего определения. Однако все не так просто. В классической термодинамике, изучающей термодинамику с чисто эмпирической или измерительной точки зрения, термодинамическая энтропия может быть измерена только с учетом энергии и температуры. Утверждение Клаузиуса dS = δQ / T , или, что то же самое, когда все другие эффективные смещения равны нулю, dS = dU / T, это единственный способ измерить термодинамическую энтропию. Только с введением статистической механики , точки зрения, согласно которой термодинамическая система состоит из совокупности частиц и которая объясняет классическую термодинамику в терминах вероятностных распределений, энтропия может рассматриваться отдельно от температуры и энергии. Это выражено в известной формуле энтропии Больцмана S = k B ln (W) . Здесь k B - постоянная Больцмана , а W - количество равновероятных микросостояний, которые приводят к определенному термодинамическому состоянию или макросостоянию.

Предполагается, что уравнение Больцмана обеспечивает связь между термодинамической энтропией S и информационной энтропией H = −Σi pi ln pi = ln (W), где p i = 1 / W - равные вероятности данного микросостояния. Эта интерпретация также подверглась критике. Хотя некоторые говорят, что это уравнение представляет собой просто уравнение преобразования единиц между термодинамической и информационной энтропией, это не совсем правильно. [23] Уравнение преобразования единиц, например, изменит дюймы на сантиметры и даст два измерения в разных единицах одной и той же физической величины (длины). Поскольку термодинамическая и информационная энтропия размерно неравны (энергия / единица температуры по сравнению с единицами информации), уравнение Больцмана больше похоже наx = ct, где x - расстояние, пройденное световым лучом за время t , c - скорость света. Хотя мы не можем сказать, что длина x и время t представляют собой одну и ту же физическую величину, мы можем сказать, что в случае светового луча, поскольку c является универсальной константой, они будут обеспечивать совершенно точные измерения друг друга. (Например, световой год используется как мера расстояния). Точно так же в случае уравнения Больцмана, хотя мы не можем сказать, что термодинамическая энтропия S и информационная энтропия Hпредставляют собой одну и ту же физическую величину, мы можем сказать, что в случае термодинамической системы, поскольку k B является универсальной константой, они будут обеспечивать совершенно точные измерения друг друга.

Тогда остается вопрос, является ли ln (W) теоретико-информационной величиной. Если он измеряется в битах, можно сказать, что с учетом макросостояния он представляет собой среднее из минимального количества вопросов типа «да / нет», которые необходимо задать для определения микросостояния, что явно является теоретико-информационной концепцией. Возражающие указывают на то, что такой процесс носит чисто концептуальный характер и не имеет ничего общего с измерением энтропии. С другой стороны, вся статистическая механика носит чисто концептуальный характер и служит только для объяснения «чистой» науки термодинамики.

В конце концов, критика связи между термодинамической энтропией и информационной энтропией - вопрос терминологии, а не содержания. Ни одна из сторон в споре не будет иметь разногласий по поводу решения конкретной термодинамической или теоретико-информационной проблемы.

Темы недавних исследований [ править ]

Информация квантуется? [ редактировать ]

В 1995 году Тим Палмер сообщил [ необходима цитата ] о двух неписаных предположениях относительно определения информации Шенноном, которые могут сделать ее неприменимой как таковую к квантовой механике :

  • Предположение, что существует такая вещь, как наблюдаемое состояние (например, верхняя грань игральной кости или монеты) до начала наблюдения
  • Тот факт, что знание этого состояния не зависит от порядка, в котором производятся наблюдения ( коммутативность )

В статье Антона Цайлингера и Часлава Брукнера [24] эти замечания синтезированы и развиты. Так называемый принцип Цайлингера предполагает, что квантование, наблюдаемое в QM, может быть связано с квантованием информации (нельзя наблюдать менее одного бита, а то, что не наблюдается, по определению является «случайным»). Тем не менее, эти утверждения остаются довольно спорными. Подробные обсуждения применимости информации Шеннона в квантовой механике и аргумент о том, что принцип Цайлингера не может объяснить квантование, были опубликованы [25] [26] [27]. которые показывают, что Брукнер и Цайлингер меняют в середине расчета в своей статье числовые значения вероятностей, необходимых для вычисления энтропии Шеннона, так что расчет не имеет смысла.

Извлечение работы из квантовой информации в движке Szilárd [ править ]

В 2013 году было опубликовано описание [28] двухатомной версии двигателя Сциларда, использующей квантовый дискорд для генерации работы на основе чисто квантовой информации. [29] Были предложены уточнения нижнего предела температуры. [30]

Алгоритмическое охлаждение [ править ]

Алгоритмическое охлаждение - это алгоритмический метод передачи тепла (или энтропии) от одних кубитов к другим или за пределы системы в окружающую среду, что приводит к охлаждающему эффекту. Этот охлаждающий эффект может быть использован для инициализации холодных (очень чистых) кубитов для квантовых вычислений и для увеличения поляризации определенных спинов в ядерном магнитном резонансе .

См. Также [ править ]

  • Термодинамическая энтропия
  • Информационная энтропия
  • Термодинамика
  • Статистическая механика
  • Теория информации
  • Квантовая запутанность
  • Квантовая декогеренция
  • Теорема флуктуации
  • Энтропия черной дыры
  • Информационный парадокс черной дыры
  • Энтропия (теория информации)
  • Энтропия (статистическая термодинамика)
  • Энтропия (порядок и беспорядок)
  • Порядки величины (энтропия)

Ссылки [ править ]

  1. Шнайдер, Т. Д., Учебник по теории информации с приложением о логарифмах , Национальный институт рака, 14 апреля 2007 г.
  2. ^ Гао, Сян; Галликкио, Эмилио; Ройтберг, Адриан (2019). «Обобщенное распределение Больцмана - единственное распределение, в котором энтропия Гиббса-Шеннона равна термодинамической энтропии». Журнал химической физики . 151 (3): 034113. arXiv : 1903.02121 . Bibcode : 2019JChPh.151c4113G . DOI : 10.1063 / 1.5111333 . PMID  31325924 . S2CID  118981017 .
  3. ^ Antoine Берут; Артак Аракелян; Артем Петросян; Серхио Силиберто; Рауль Дилленшнайдер; Эрик Lutz (8 марта 2012), "Экспериментальная проверка принципа информации связующей Ландауэра и термодинамика" (PDF) , Nature , 483 (7388): 187-190, Bibcode : 2012Natur.483..187B , DOI : 10.1038 / nature10872 , PMID 22398556 , S2CID 9415026   
  4. ^ Шоичи Тоябе; Такахиро Сагава; Масахито Уэда; Эйро Мунеюки; Масаки Сано (29 сентября 2010 г.). «Информационная тепловая машина: преобразование информации в энергию посредством управления с обратной связью». Физика природы . 6 (12): 988–992. arXiv : 1009,5287 . Bibcode : 2011NatPh ... 6..988T . DOI : 10.1038 / nphys1821 . Мы продемонстрировали, что свободная энергия получается за счет управления с обратной связью с использованием информации о системе; информация преобразуется в свободную энергию, как первая реализация демона Максвелла типа Сцилларда.
  5. ^ Карнани, М .; Pääkkönen, K .; Аннила, А. (2009). «Физический характер информации» . Proc. R. Soc. . 465 (2107): 2155–75. Bibcode : 2009RSPSA.465.2155K . DOI : 10.1098 / rspa.2009.0063 .
  6. ^ Бриллюэн, Леон (1953). «Принцип негэнтропии информации». Журнал прикладной физики . 24 (9): 1152–1163. Bibcode : 1953JAP .... 24.1152B . DOI : 10.1063 / 1.1721463 .
  7. ^ Леон Бриллюэн, Наука и теория информации , Дувр, 1956
  8. ^ Колелл, G; Фоке, Ж. (июнь 2015 г.). «Активность мозга и познание: связь термодинамики и теории информации» . Границы психологии . 6 (4): 818. DOI : 10.3389 / fpsyg.2015.00818 . PMC 4468356 . PMID 26136709 .  
  9. Де Кастро, А. (ноябрь 2013 г.). «Термодинамическая цена быстрой мысли». Умы и машины . 23 (4): 473–487. arXiv : 1201.5841 . DOI : 10.1007 / s11023-013-9302-х . S2CID 11180644 . 
  10. ^ Narayanan, NS и др. (2005). «Избыточность и синергия нейрональных ансамблей в моторной коре» . J. Neurosci . 25 (17): 4207–4216. DOI : 10.1523 / JNEUROSCI.4697-04.2005 . PMC 6725112 . PMID 15858046 .  
  11. ^ Лафлин, С. Б. и др. (Ноябрь 2013). «Метаболическая стоимость нейронной информации». Nat. Neurosci . 1 (1): 36–41. DOI : 10,1038 / 236 . PMID 10195106 . S2CID 204995437 .  
  12. ^ Махуликар, ИП; Хервиг, Х. (август 2009 г.). «Точные термодинамические принципы существования и эволюции динамического порядка в хаосе». Хаос, солитоны и фракталы . 41 (4): 1939–48. Bibcode : 2009CSF .... 41.1939M . DOI : 10.1016 / j.chaos.2008.07.051 .
  13. ^ Overbye, Деннис (2002-01-22). «Прорыв Хокинга по-прежнему остается загадкой» . Нью-Йорк Таймс . Проверено 19 декабря 2013 года .
  14. ^ Шиффер M, Бекенстейна JD (февраль 1989). «Доказательство квантовой границы удельной энтропии для свободных полей». Physical Review D . 39 (4): 1109–15. Bibcode : 1989PhRvD..39.1109S . DOI : 10.1103 / PhysRevD.39.1109 . PMID 9959747 . Бекенштейн, Джейкоб Д. (1973). «Черные дыры и энтропия». Physical Review D . 7 (8): 2333. Полномочный код : 1973PhRvD ... 7.2333B . DOI : 10.1103 / PhysRevD.7.2333 .Эллис, Джордж Фрэнсис Рейнер; Хокинг, SW (1973). Крупномасштабная структура пространства-времени . Кембридж, англ .: University Press. ISBN 978-0-521-09906-6.фон Байер, Кристиан, Х. (2003). Информация - новый язык науки . Издательство Гарвардского университета. ISBN 978-0-674-01387-2.Callaway DJE (апрель 1996 г.). «Поверхностное натяжение, гидрофобность и черные дыры: энтропийная связь». Physical Review E . 53 (4): 3738–3744. arXiv : cond-mat / 9601111 . Bibcode : 1996PhRvE..53.3738C . DOI : 10.1103 / PhysRevE.53.3738 . PMID  9964684 . S2CID  7115890 .Средницкий М. (август 1993 г.). «Энтропия и площадь». Письма с физическим обзором . 71 (5): 666–669. arXiv : hep-th / 9303048 . Bibcode : 1993PhRvL..71..666S . DOI : 10.1103 / PhysRevLett.71.666 . PMID  10055336 . S2CID  9329564 .
  15. Перейти ↑ Hirschman, Jr., II (январь 1957 г.). «Замечание об энтропии». Американский журнал математики . 79 (1): 152–6. DOI : 10.2307 / 2372390 . JSTOR 2372390 . 
  16. ^ Zachos, CK (2007). «Классическая оценка квантовой энтропии». Журнал физики A: математический и теоретический . 40 (21): F407 – F412. arXiv : hep-th / 0609148 . Bibcode : 2007JPhA ... 40..407Z . DOI : 10,1088 / 1751-8113 / 40/21 / F02 . S2CID 1619604 . 
  17. ^ Александр Стотланд; Померанский; Эйтан Бахмат; Дорон Коэн (2004). «Информационная энтропия квантово-механических состояний». Письма еврофизики . 67 (5): 700–6. arXiv : квант-ph / 0401021 . Bibcode : 2004EL ..... 67..700S . CiteSeerX 10.1.1.252.8715 . DOI : 10,1209 / EPL / i2004-10110-1 . S2CID 51730529 .  
  18. ^ Дьякон, Терренс В. (2011). Неполная природа: как разум возник из материи . WW Norton & Co. стр. 74-75,380. Аналогия (энтропии Шеннона) с термодинамической энтропией не работает, потому что концепция Шеннона является логическим (или структурным) свойством, а не динамическим свойством. Энтропия Шеннона, например, обычно не увеличивается спонтанно в большинстве систем связи, поэтому, когда дело касается энтропии информации, нет эквивалента второму закону термодинамики. Расположение единиц в сообщении не имеет спонтанной «тенденции» к изменению в сторону равновероятности.
  19. ^ Моровиц, Гарольд (986). «Энтропия и глупость». Биология и философия . 1 (4): 473–476. DOI : 10.1007 / bf00140964 . S2CID 84341603 . С тех пор, как К.Е. Шеннон ввел информационную меру в 1948 году и продемонстрировал формальную аналогию между информационной мерой (-∑ p, ln2 p,) и энтропийной мерой статистической механики (- ∑ f ln (f)), появился ряд работ. пытаясь связать «энтропию» со всевозможными академическими дисциплинами. Многие из этих теорий включают в себя глубокую путаницу в отношении лежащих в основе теплофизики, и их авторы используют язык и формулы физических наук для поддержки в остальном тривиальных и пустых теорий. 
  20. ^ Бен-Наим, Арье (2008). Прощание с энтропией: статистическая термодинамика, основанная на информации . п. xviii. (цитируя критику) Не существует инвариантной функции, соответствующей энергии, вложенной в каждое из сотен уравнений информационной «энтропии», и, следовательно, нет аналога температуры, универсально присутствующего в каждом из них. Дело в том, что информационная «энтропия» во всех ее бесчисленных нефизико-химических формах как мера информации или абстрактной коммуникации не имеет никакого отношения к оценке изменения термодинамической энтропии.
  21. ^ Мюллер, Инго (2007). История термодинамики: Доктрина энергии и энтропии . Springer. С. 124–126. Для уравновешенных физиков энтропия - или порядок и беспорядок - ничто само по себе. Это нужно рассматривать и обсуждать в сочетании с температурой, теплом, энергией и работой. И, если требуется экстраполяция энтропии на внешнее поле, она должна сопровождаться соответствующими экстраполяциями температуры, тепла и работы.
  22. ^ Рапопорт, Анатолий. (1976). «Общая теория систем: мост между двумя культурами». Системные исследования и поведенческая наука . 21 (4): 228–239. DOI : 10.1002 / bs.3830210404 . PMID 793579 . В термодинамических терминах энтропия определяется как отношение между энергией и температурой. В теории коммуникации энтропия относится к неопределенности, связанной с сообщениями. Трудно представить себе более надуманную связь, но она убедительно продемонстрирована математическим изоморфизмом между ними. 
  23. ^ Бен-Наим, Арье (2012). Энтропия и второй закон: интерпретация и неправильные интерпретации . ISBN 978-9-814-40755-7.
  24. ^ Брукнер, Часлав; Цайлингер, Антон; Уэда, Масахито; Мунеюки, Эйро; Сано, Масаки (2001). «Концептуальная неадекватность информации Шеннона в квантовом измерении». Physical Review . 63 (2): 022113. Arxiv : колич-фот / 0006087 . Bibcode : 2001PhRvA..63b2113B . DOI : 10.1103 / PhysRevA.63.022113 . S2CID 119381924 . 
  25. ^ Тимпсон, 2003
  26. ^ Холл, 2000
  27. Мана, 2004
  28. ^ Jung Jun Park; Кан-Хван Ким; Такахиро Сагава; Сан Ук Ким (2013). «Тепловой двигатель, управляемый чисто квантовой информацией». Письма с физическим обзором . 111 (23): 230402. arXiv : 1302.3011 . Bibcode : 2013PhRvL.111w0402P . DOI : 10.1103 / PhysRevLett.111.230402 . PMID 24476235 . S2CID 12724216 .  
  29. ^ Zyga, Лиза. «Демон Максвелла может использовать квантовую информацию» . Phys.org (Omicron Technology Limited) . Проверено 19 декабря 2013 года .
  30. ^ Мартин Плеш; Оскар Дальстен; Джон Гулд; Влатко Ведрал (сентябрь 2013 г.). "Комментарий к" Quantum Szilard Engine " ". Phys. Rev. Lett . 111 (18): 188901. arXiv : 1309.4209 . Bibcode : 2013PhRvL.111r8901P . DOI : 10.1103 / PhysRevLett.111.188901 . PMID 24237570 . S2CID 10624210 .  

Дополнительные ссылки [ править ]

  • Беннетт, CH (1973). «Логическая обратимость вычислений» . IBM J. Res. Dev . 17 (6): 525–532. DOI : 10.1147 / rd.176.0525 .
  • Бриллюэн, Леон (2004), Наука и теория информации (второе изд.), Довер, ISBN 978-0-486-43918-1. [Републикация оригинала 1962 года.]
  • Франк, Майкл П. (май – июнь 2002 г.). «Физические пределы вычислений» . Вычислительная техника в науке и технике . 4 (3): 16–25. Bibcode : 2002CSE ..... 4c..16F . CiteSeerX  10.1.1.429.1618 . DOI : 10.1109 / 5992.998637 . ОСТИ  1373456 . S2CID  499628 .
  • Гревен, Андреас; Келлер, Герхард; Варнеке, Джеральд, ред. (2003). Энтропия . Издательство Принстонского университета. ISBN 978-0-691-11338-8. (Высокотехничный сборник работ, дающих обзор концепции энтропии, как она проявляется в различных дисциплинах.)
  • Калинин М.И.; Кононогов, С. (2005), "постоянная Больцмана, энергия значение температуры и термодинамической необратимости", измерения Методы , 48 (7): 632-636, DOI : 10.1007 / s11018-005-0195-9 , S2CID  118726162.
  • Куцойаннис, Д. (2011), «Динамика Херста – Колмогорова в результате экстремального производства энтропии», Physica A , 390 (8): 1424–1432, Bibcode : 2011PhyA..390.1424K , doi : 10.1016 / j.physa. 2010.12.035.
  • Ландауэр Р. (1993). «Информация физическая» . Proc. Практикум по физике и вычислениям PhysComp'92 . Лос-Аламитос: IEEE Comp. Научная пресса. С. 1–4. DOI : 10,1109 / PHYCMP.1992.615478 . ISBN 978-0-8186-3420-8. S2CID  60640035 .
  • Ландауэр, Р. (1961). «Необратимость и тепловыделение в вычислительном процессе» . IBM J. Res. Dev . 5 (3): 183–191. DOI : 10.1147 / rd.53.0183 .
  • Лефф, HS; Рекс, А.Ф., ред. (1990). Демон Максвелла: энтропия, информация, вычисления . Принстон, штат Нью-Джерси: Издательство Принстонского университета. ISBN 978-0-691-08727-6.
  • Миддлтон, Д. (1960). Введение в статистическую теорию коммуникации . Макгроу-Хилл.
  • Шеннон, Клод Э. (июль – октябрь 1948 г.). «Математическая теория коммуникации» . Технический журнал Bell System . 27 (3): 379–423. DOI : 10.1002 / j.1538-7305.1948.tb01338.x . hdl : 10338.dmlcz / 101429 .( как PDF )

Внешние ссылки [ править ]

  • Обработка информации и термодинамическая энтропия Стэнфордская философская энциклопедия.
  • Интуитивное руководство к концепции энтропии, возникающей в различных секторах науки - викиучебник по интерпретации концепции энтропии.