Негэнтропия
В теории информации статистике негэнтропия и используется как мера расстояния до нормальности. Понятие и фраза « отрицательная энтропия » были введены Эрвином Шрёдингером в его научно-популярной книге 1944 года « Что такое жизнь?». [1] Позже французский физик Леон Бриллюэн сократил это словосочетание до néguentropie (негэнтропия). [2] [3] В 1974 году Альберт Сент-Дьёрдьи предложил заменить термин «негэнтропия синтропией » . Этот термин, возможно, возник в 1940-х годах у итальянского математика Луиджи Фантаппие , который пытался построить единую теорию биологии и физики . Бакминстер Фуллер пытался популяризировать это использование, но негэнтропия остается распространенным явлением.
В примечании к книге «Что такое жизнь?» Шредингер объяснил использование этой фразы.
... если бы я обслуживал только их [физиков], я бы вместо этого позволил дискуссию перейти к свободной энергии . Это более знакомое понятие в данном контексте. Но этот весьма технический термин казался лингвистически слишком близким к энергии , чтобы дать среднему читателю почувствовать контраст между двумя вещами.
Теория информации
[ редактировать ]В теории информации и статистике негэнтропия используется как мера расстояния до нормальности. [4] [5] [6] Из всех распределений с заданным средним значением и дисперсией нормальное или гауссово распределение имеет наибольшую энтропию . Негэнтропия измеряет разницу в энтропии между данным распределением и распределением Гаусса с тем же средним значением и дисперсией. Таким образом, негэнтропия всегда неотрицательна, инвариантна при любом линейном обратимом изменении координат и обращается в нуль тогда и только тогда, когда сигнал является гауссовским.
Негэнтропия определяется как
где - дифференциальная энтропия гауссовой плотности с тем же средним значением и дисперсией, что и и - дифференциальная энтропия :
Негэнтропия используется в статистике и обработке сигналов . Это связано с сетевой энтропией , которая используется в анализе независимых компонентов . [7] [8]
Негэнтропия распределения равна расхождению Кульбака – Лейблера между и распределение Гаусса с тем же средним значением и дисперсией, что и ( см. в разделе Дифференциальная энтропия § Максимизация в нормальном распределении доказательство ). В частности, оно всегда неотрицательно.
Корреляция между статистической негэнтропией и свободной энергией Гиббса
[ редактировать ]Существует физическая величина, тесно связанная со свободной энергией ( свободная энтальпия ), с единицей измерения энтропии и изоморфная негэнтропии, известная в статистике и теории информации. В 1873 году Уиллард Гиббс создал диаграмму, иллюстрирующую концепцию свободной энергии, соответствующей свободной энтальпии . На диаграмме можно увидеть величину, называемую емкостью энтропии . Эта величина представляет собой количество энтропии, которое можно увеличить без изменения внутренней энергии или увеличения ее объема. [9] Другими словами, это разница между максимально возможной при предполагаемых условиях энтропией и ее фактической энтропией. Оно в точности соответствует определению негэнтропии, принятому в статистике и теории информации. Аналогичная физическая величина была введена в 1869 г. Массие для изотермического процесса. [10] [11] [12] (обе величины различаются только знаком цифры) и затем Планка для изотермически - изобарного процесса. [13] Масье-Планка Совсем недавно было показано, что термодинамический потенциал , известный также как свободная энтропия , играет большую роль в так называемой энтропийной формулировке статистической механики . [14] применяется, среди прочего, в молекулярной биологии [15] и термодинамические неравновесные процессы. [16]
- где:
- это энтропия
- является негэнтропией («способность Гиббса к энтропии»)
- потенциал Масье
- это функция распределения
- Больцмана постоянная
В частности, математически негэнтропия (функция отрицательной энтропии, в физике интерпретируемая как свободная энтропия) является выпуклой сопряженной функцией LogSumExp (в физике интерпретируемой как свободная энергия).
Принцип негэнтропии информации Бриллюэна
[ редактировать ]В 1953 году Леон Бриллюэн вывел общее уравнение [17] утверждая, что для изменения значения информационного бита требуется как минимум энергия. Это та же самая энергия, которую производит двигатель Лео Силарда в идеалистическом случае. В своей книге [18] он дополнительно исследовал эту проблему и пришел к выводу, что любая причина изменения значения этого бита (измерение, решение вопроса «да/нет», стирание, отображение и т. д.) потребует одинакового количества энергии.
См. также
[ редактировать ]Примечания
[ редактировать ]- ^ Шредингер, Эрвин, Что такое жизнь - физический аспект живой клетки , Cambridge University Press, 1944
- ^ Бриллюэн, Леон: (1953) «Принцип негэнтропии информации», Журнал прикладной физики , т. 24 (9) , стр. 1152–1163.
- ^ Леон Бриллюэн, Наука и теория информации , Массон, 1959.
- ^ Аапо Хиваринен, Обзор независимого анализа компонентов, узел 32: Негэнтропия , Лаборатория компьютерных и информационных наук Хельсинкского технологического университета.
- ^ Аапо Хиваринен и Эркки Оя, Независимый анализ компонентов: учебное пособие, узел 14: Негэнтропия , Лаборатория компьютерных и информационных наук Хельсинкского технологического университета.
- ^ Руе Ван, Независимый анализ компонентов, узел 4: Меры негауссовости
- ^ П. Комон, Анализ независимых компонентов – новая концепция?, Обработка сигналов , 36 287–314, 1994.
- ^ Дидье Г. Лейбовичи и Кристиан Бекманн, Введение в многосторонние методы для многопланового эксперимента с фМРТ , Технический отчет FMRIB 2001, Оксфордский центр функциональной магнитно-резонансной томографии мозга (FMRIB), факультет клинической неврологии, Оксфордский университет, Джон Больница Рэдклифф, Хедли-Уэй, Хедингтон, Оксфорд, Великобритания.
- ^ Уиллард Гиббс, Метод геометрического представления термодинамических свойств веществ с помощью поверхностей , Труды Академии Коннектикута , 382–404 (1873)
- ^ Масье, MF (1869a). О характеристических функциях различных жидкостей. ЧР акад. наук. LXIX: 858–862.
- ^ Масье, MF (1869b). Дополнение к предыдущему меморандуму о характеристических функциях. ЧР акад. наук. LXIX: 1057–1061.
- ^ Масье, MF (1869), Compt. Возвращает. 69 (858): 1057.
- ^ Планк, М. (1945). Трактат по термодинамике . Дувр, Нью-Йорк.
- ^ Антони Плейнс, Эдуард Вивес, Энтропийная формулировка статистической механики. Архивировано 11 октября 2008 г. в Wayback Machine , Энтропийные переменные и функции Массье – Планка, 24 октября 2000 г., Universitat de Barcelona.
- ^ Джон А. Шейлман, Температура, стабильность и гидрофобное взаимодействие , Biophysical Journal 73 (декабрь 1997 г.), 2960–2964, Институт молекулярной биологии, Университет Орегона, Юджин, Орегон 97403 США
- ^ З. Хенс и К. де Хемптинн, Неравновесный термодинамический подход к процессам переноса в газовых смесях , химический факультет, Католический университет Левена, Celestijnenlaan 200 F, B-3001 Heverlee, Бельгия
- ^ Леон Бриллюэн, Принцип негэнтропии информации, J. Applied Physics 24 , 1152–1163, 1953 г.
- ^ Леон Бриллюэн, Теория науки и информации , Дувр, 1956 г.