Jump to content

Введение в энтропию

В термодинамике энтропия — это числовая величина, показывающая, что многие физические процессы могут протекать во времени только в одном направлении. Например, сливки и кофе можно смешивать, но нельзя «несмешать»; кусок дерева можно сжечь, но нельзя «не сжечь». Слово «энтропия» вошло в популярное употребление для обозначения отсутствия порядка или предсказуемости или постепенного перехода к беспорядку. [1] Более физическая интерпретация термодинамической энтропии относится к распространению энергии или материи или к степени и разнообразию микроскопического движения.

Если фильм, в котором показано, как смешивают кофе или сжигают дрова, воспроизводится наоборот, то в нем будут показаны процессы, невозможные в реальности. Смешивание кофе и горение дров «необратимо». Необратимость описывается законом природы, известным как второй закон термодинамики , который гласит, что в изолированной системе (системе, не связанной ни с какой другой системой), которая претерпевает изменения, энтропия со временем увеличивается. [2]

Энтропия не увеличивается бесконечно. Тело материи и излучения в конечном итоге достигнет неизменного состояния, без видимых потоков, и тогда говорят, что оно находится в состоянии термодинамического равновесия . Термодинамическая энтропия имеет для такого тела определенное значение и находится на максимальном значении. Когда тела материи или излучения, первоначально находящиеся в своих собственных состояниях внутреннего термодинамического равновесия, объединяются для тесного взаимодействия и достижения нового совместного равновесия, тогда их общая энтропия увеличивается. Например, стакан теплой воды с кубиком льда в нем будет иметь более низкую энтропию, чем та же самая система через некоторое время, когда лед растает, оставив стакан с прохладной водой. Такие процессы необратимы: стакан прохладной воды самопроизвольно не превратится в стакан теплой воды с кубиком льда в нем. Некоторые процессы в природе практически обратимы. Например, вращение планет вокруг Солнца можно рассматривать как практически обратимое явление: фильм о движении планет вокруг Солнца, показанный в обратном направлении, не кажется невозможным.

Хотя второй закон и термодинамика в целом точно предсказывают тесные взаимодействия сложных физических систем, ученые не довольствуются простым знанием того, как ведет себя система, они также хотят знать, почему она ведет себя именно так. На вопрос, почему энтропия увеличивается до тех пор, пока не будет достигнуто равновесие, ответил в 1877 году физик Людвиг Больцман . Теория, разработанная Больцманом и другими, известна как статистическая механика . Статистическая механика объясняет термодинамику с точки зрения статистического поведения атомов и молекул, составляющих систему. Теория объясняет не только термодинамику, но и множество других явлений, выходящих за рамки термодинамики.

Объяснение [ править ]

Термодинамическая энтропия [ править ]

Понятие термодинамической энтропии вытекает из второго закона термодинамики . Этот закон увеличения энтропии количественно определяет снижение способности изолированной сложной термодинамической системы совершать термодинамическую работу над окружающей средой или указывает на возможность возникновения термодинамического процесса. Например, всякий раз, когда есть подходящий путь, тепло самопроизвольно перетекает от более горячего тела к более холодному.

Термодинамическая энтропия измеряется как изменение энтропии ( ) к системе, содержащей подсистему, которая подвергается теплопередаче в окружающую среду (внутри интересующей системы). Он основан на макроскопической взаимосвязи между тепловым потоком в подсистему и температурой, при которой он происходит, суммированной по границе этой подсистемы.

Следуя формализму Клаузиуса , основные вычисления можно математически сформулировать как: [3]

где это увеличение или уменьшение энтропии, это тепло, добавляемое в систему или отнимаемое от нее, и это температура. Знак равенства и символ подразумевают, что теплопередача должна быть настолько малой и медленной, что почти не меняет температуру. .

Если температура может изменяться, уравнение необходимо проинтегрировать по температурному пути. Этот расчет изменения энтропии не позволяет определить абсолютное значение, а только разницу. В этом контексте можно утверждать Второй закон термодинамики, что для теплоты, передаваемой в ходе любого действительного процесса в любой системе, независимо от того, изолирована она или нет,

Согласно первому закону термодинамики , который касается сохранения энергии , потеря тепла приведет к уменьшению внутренней энергии системы термодинамической . Термодинамическая энтропия обеспечивает сравнительную меру уменьшения внутренней энергии и соответствующего увеличения внутренней энергии окружающей среды при данной температуре. Во многих случаях визуализация второго закона состоит в том, что энергия всех типов переходит от локализованной к рассеянной или распространенной, если ей не препятствуют этому. Когда это применимо, увеличение энтропии является количественной мерой такого рода спонтанного процесса: сколько энергии было фактически потеряно или стало недоступно в результате рассеивания или распространения себя, как оценивается при определенной температуре. Для этой оценки, когда температура выше, количество рассеянной энергии оценивается как «стоимость» пропорционально меньшей. Это связано с тем, что более горячее тело, как правило, более способно совершать термодинамическую работу при прочих равных факторах, таких как внутренняя энергия. Вот почему паровая машина имеет горячую топку.

Второй закон термодинамики касается только изменения энтропии ( ). Абсолютную энтропию (S) системы можно определить с помощью третьего закона термодинамики , который гласит, что энтропия всех идеально кристаллических веществ равна нулю при абсолютном нуле температуры. [4] Тогда энтропия при другой температуре равна увеличению энтропии при обратимом нагреве системы от абсолютного нуля до интересующей температуры. [5]

механика и информационная энтропия Статистическая

Термодинамическая энтропия тесно связана с понятием информационной энтропии ( H ). Информационная энтропия — это мера «разброса» плотности вероятности или функции массы вероятности. Термодинамика не делает предположений об атомистической природе материи, но когда материя рассматривается таким образом, как совокупность частиц, постоянно движущихся и обменивающихся энергией друг с другом, и которую можно описать вероятностным способом, теория информации может быть успешно применена. объяснить результаты термодинамики. Полученная в результате теория известна как статистическая механика .

Важным понятием статистической механики является идея микросостояния и макросостояния системы. Если у нас есть, например, контейнер с газом и мы знаем положение и скорость каждой молекулы в этой системе, то мы знаем микросостояние этой системы. Если мы знаем только термодинамическое описание этой системы, давление, объем, температуру и/или энтропию, тогда мы знаем макросостояние этой системы. Больцман понял, что существует множество различных микросостояний, которые могут привести к одному и тому же макросостоянию, и, поскольку частицы сталкиваются друг с другом и меняют свои скорости и положения, микросостояние газа всегда меняется. Но если газ находится в равновесии, в его макроскопическом поведении, похоже, не происходит никаких изменений: никаких изменений давления, температуры и т. д. Статистическая механика связывает термодинамическую энтропию макросостояния с количеством микросостояний, которые могут создать это макросостояние. В статистической механике энтропия системы определяется уравнением Людвига Больцмана:

где S — термодинамическая энтропия, W — количество микросостояний, которые могут создать макросостояние, и постоянная Больцмана . Натуральный логарифм числа микросостояний ( ) называется информационной энтропией системы. Это можно проиллюстрировать простым примером:

Если вы подбросите две монеты, вы можете получить четыре разных результата. Если H — орел, а T — решка, мы можем иметь ( H , H ), ( H , T ), ( T , H ) и ( T , T ). Мы можем назвать каждое из них «микросостоянием», для которого мы точно знаем результаты процесса. Но что, если у нас меньше информации? Предположим, мы знаем только общее количество голов? Это может быть 0, 1 или 2. Мы можем называть эти состояния «макросостояниями». Только микросостояние ( T , T ) даст нулевое макросостояние, ( H , T ) и ( T , H ) дадут макросостояние 1, и только ( H , H ) даст макросостояние 2. Таким образом, мы можем сказать, что информационная энтропия макросостояний 0 и 2 равны ln(1), что равно нулю, но информационная энтропия макросостояния 1 равна ln(2), что составляет около 0,69. Из всех микросостояний половина приходится на макросостояние 1.

Оказывается, если вы подбрасываете большое количество монет, макросостояния на уровне половины орла и половины решки или около них составляют почти все микросостояния. Другими словами, вы можете быть вполне уверены, что из миллиона монет примерно половина будет орлом, а половина решкой. Макросостояния с соотношением орел к решке 50–50 будут «равновесным» макросостоянием. Реальная физическая система, находящаяся в равновесии, имеет огромное количество возможных микросостояний, и почти все из них являются равновесными макросостояниями, и именно это макросостояние вы почти наверняка увидите, если подождете достаточно долго. В примере с монетой, если вы начнете с очень маловероятного макросостояния (как и все орлы, например, с нулевой энтропией) и начнете подбрасывать одну монету за раз, энтропия макросостояния начнет увеличиваться, так же, как это делает термодинамическая энтропия, и через некоторое время монеты, скорее всего, окажутся в макросостоянии 50–50 или около него, которое имеет наибольшую информационную энтропию – равновесную энтропию.

Макросостояние системы — это то, что мы знаем о системе, например, температура , давление и объем газа в ящике. Для каждого набора значений температуры, давления и объема существует множество расположений молекул, которые приводят к этим значениям. Число расположений молекул, которые могут привести к одинаковым значениям температуры, давления и объема, называется числом микросостояний.

Концепция информационной энтропии была разработана для описания любого из нескольких явлений в зависимости от области и контекста, в котором она используется. Когда она применяется к проблеме большого числа взаимодействующих частиц, наряду с некоторыми другими ограничениями, такими как сохранение энергии, и предположением, что все микросостояния одинаково вероятны, полученная теория статистической механики чрезвычайно успешно объясняет законы термодинамики .

Таяние льда является примером увеличения энтропии.

Пример увеличения энтропии [ править ]

Таяние льда является примером увеличения энтропии в небольшой системе, термодинамической системе, состоящей из окружающей среды (теплой комнаты) и совокупности стеклянного контейнера, льда и воды, которой было позволено достичь термодинамического равновесия при температуре таяния льда. . В этой системе некоторая часть тепла ( δQ ) из более теплого окружения с температурой 298 К (25 ° C; 77 ° F) передается более холодной системе льда и воды с ее постоянной температурой ( T ) 273 К (0 ° C; 32 °F), температура таяния льда. Энтропия системы, которая δ Q / T , увеличивается на δ Q / 273 К . Теплота δ Q для этого процесса представляет собой энергию, необходимую для перехода воды из твердого состояния в жидкое, и называется энтальпией плавления , т. е. Δ H для плавления льда.

Важно понимать, что энтропия окружающей комнаты уменьшается меньше, чем увеличивается энтропия льда и воды: комнатная температура 298 К выше, чем 273 К, и, следовательно, соотношение (изменение энтропии) δ Q / 298 К для окружающей среды меньше отношения (изменения энтропии) δ Q / 273 К для системы лед-вода. Это всегда верно для спонтанных событий в термодинамической системе и показывает прогностическую важность энтропии: конечная чистая энтропия после такого события всегда больше, чем была начальная энтропия.

По мере того, как температура холодной воды повышается до температуры в комнате, а затем комната незаметно охлаждается, сумма δ Q / T в непрерывном диапазоне, «с множеством приращений», от первоначально холодной до окончательно теплой воды можно найти расчетным путем. Вся миниатюрная «вселенная», то есть эта термодинамическая система, увеличила энтропию. Энергия спонтанно стала более рассеянной и распространенной в этой «вселенной», чем когда стакан льда и воды был введен и стал «системой» внутри нее.

и использование Происхождение

Первоначально энтропия была названа для описания «отходного тепла», или, точнее, потерь энергии тепловыми двигателями и другими механическими устройствами, которые никогда не могли работать со 100% эффективностью преобразования энергии в работу. Позже этот термин получил несколько дополнительных описаний, поскольку стало лучше понимать поведение молекул на микроскопическом уровне. В конце 19 века слово «беспорядок» было использовано Людвигом Больцманом при разработке статистических представлений об энтропии с использованием теории вероятностей для описания возросшего молекулярного движения на микроскопическом уровне. стали лучше понимать квантовое поведение Это было до того, как Вернер Гейзенберг и его последователи . Описания термодинамической (тепловой) энтропии на микроскопическом уровне встречаются в статистической термодинамике и статистической механике .

На протяжении большей части 20-го века учебники имели тенденцию описывать энтропию как «беспорядок», следуя ранней концептуализации Больцмана «движущейся» (то есть кинетической) энергии молекул. Совсем недавно в учебниках по химии и физике появилась тенденция описывать энтропию как рассеяние энергии . [6] Энтропия также может включать в себя рассеивание частиц, которые сами по себе обладают энергией. Таким образом, бывают случаи, когда и частицы, и энергия рассеиваются с разной скоростью при смешивании веществ.

Математика, разработанная в статистической термодинамике, оказалась применимой и в других дисциплинах. В частности, информатика разработала концепцию информационной энтропии , в которой отсутствует константа Больцмана, присущая термодинамической энтропии.

Классический расчет энтропии [ править ]

Когда слово «энтропия» было впервые определено и использовано в 1865 году, само существование атомов все еще оставалось спорным, хотя долгое время предполагалось, что температура возникает из-за движения микроскопических составляющих, а «тепло» - это передача этого движения. из одного места в другое. Изменение энтропии, , был описан в макроскопических терминах, которые можно было непосредственно измерить, таких как объем, температура или давление. Однако сегодня классическое уравнение энтропии можно объяснить по частям в современных терминах, описывающих, как молекулы ответственны за происходящее:

  • — это изменение энтропии системы (какой-то интересующей физической субстанции) после того, как к ней была передана некоторая движущая энергия («тепло») быстро движущимися молекулами. Так, .
  • Затем, , отношение энергии движения («тепла») q, которая «обратимо» (rev) передается системе из окружающей среды (или от другой системы, находящейся в контакте с первой системой), деленное на T, абсолютную температуру, при которой происходит передача.
    • «Реверсивный» или «обратимый» (rev) просто означает, что T, температура системы, должна оставаться (почти) точно такой же, пока любая энергия передается к ней или от нее. Это легко сделать в случае фазовых переходов, когда система обязательно должна оставаться в твердой или жидкой форме до тех пор, пока ей не будет передано достаточно энергии, чтобы разорвать связи между молекулами, прежде чем она сможет перейти в жидкость или газ. Например, при таянии льда при 273,15 К, независимо от того, какая температура в окружающей среде – от 273,20 К до 500 К или даже выше, температура льда будет оставаться на уровне 273,15 К до тех пор, пока последние молекулы льда не изменятся на жидкой воды, т. е. до тех пор, пока все водородные связи между молекулами воды во льду не разорвутся и не образуются новые, менее точно закрепленные водородные связи между молекулами жидкой воды. Было обнаружено, что количество энергии, необходимое для плавления льда на моль, составляет 6008 джоулей при 273 К. Следовательно, изменение энтропии на моль равно , или 22 Дж/К.
    • Когда температура отличается от температуры плавления или кипения вещества, разрыв межмолекулярных связей невозможен, и поэтому любая движущая молекулярная энергия («тепло») из окружающей среды, передаваемая системе, повышает ее температуру, заставляя ее молекулы двигаться быстрее и Быстрее. Поскольку температура постоянно растет, больше не существует определенного значения «Т», при котором передается энергия. Однако «обратимую» передачу энергии можно измерить при очень небольшом повышении температуры, а совокупную сумму можно найти путем сложения каждого из множества небольших температурных интервалов или приращений. Например, чтобы найти изменение энтропии от 300 К до 310 К, измерьте количество энергии, передаваемой при десятках или сотнях температурных приращений, скажем, от 300,00 К до 300,01 К, а затем от 300,01 до 300,02 и так далее, разделив q на каждое T и, наконец, сложив их все.
    • Для упрощения этого расчета можно использовать математический расчет, если эффект подвода энергии к системе линейно зависит от изменения температуры, как при простом нагреве системы при температурах от умеренных до относительно высоких. Таким образом, энергия передается «за каждое постепенное изменение температуры» (теплоемкость, ), умноженный интеграл на от к , непосредственно задается .

энтропии Альтернативные объяснения

Термодинамическая энтропия [ править ]

  • Мера энергии, недоступной для работы . Это часто повторяемая фраза, которая, хотя и верна, требует значительного разъяснения, чтобы ее понять. Это верно только для циклических обратимых процессов и в этом смысле вводит в заблуждение. Под «работой» подразумевается перемещение предмета, например, поднятие груза, или разгон маховика, или перенос груза в гору. Чтобы преобразовать тепло в работу, используя, например, паровой двигатель, работающий на угле, необходимо иметь две системы с разными температурами, и объем работы, которую вы можете извлечь, зависит от того, насколько велика разница температур и насколько велики системы. Если одна из систем имеет комнатную температуру, а другая намного больше и имеет температуру, близкую к абсолютному нулю, то почти ВСЯ энергия системы комнатной температуры может быть преобразована в работу. Если они оба имеют одинаковую комнатную температуру, то НИКАКАЯ энергия системы комнатной температуры не может быть преобразована в работу. Тогда энтропия является мерой того, сколько энергии не может быть преобразовано в работу при данных условиях. Точнее, для изолированной системы, состоящей из двух замкнутых систем с разными температурами, в процессе достижения равновесия количество энтропии, теряемой горячей системой, умноженное на температуру горячей системы, есть количество энергии, которое не может превратиться в работу. .
  • Индикатор необратимости : интерпретация «недоступности энергии» тесно связана с интерпретацией «необратимости». Спонтанные термодинамические процессы необратимы в том смысле, что они не прекращаются самопроизвольно. Термодинамические процессы, искусственно навязанные агентами в окружении тела, также оказывают на организм необратимое воздействие. Например, когда Джеймс Прескотт Джоуль использовал устройство, которое производило определенное количество механической работы из окружающей среды с помощью лопасти, которая перемешивала массу воды, переданная энергия была получена водой в виде тепла. Вода расширялась незначительно, совершая термодинамическую работу с окружающей средой. Водоем не показал никаких признаков возврата энергии при обратном движении лопасти. Передача работы проявлялась в виде тепла и не могла быть восстановлена ​​без подходящего холодного резервуара в окружающей среде. Энтропия дает точное объяснение такой необратимости.
  • Рассредоточение : Эдвард А. Гуггенхайм предложил обычную языковую интерпретацию энтропии, которую можно представить как «рассредоточение мод микроскопического движения по всему доступному диапазону». [7] [8] Позже, наряду с критикой идеи энтропии как «беспорядка», дисперсионную интерпретацию отстаивал Фрэнк Л. Ламберт , [6] [9] и используется в некоторых учебниках для студентов. [10]
Интерпретация, собственно, относится к рассеянию в абстрактных пространствах микросостояний, но ее можно условно визуализировать на некоторых простых примерах пространственного распространения материи или энергии. Если убрать перегородку между двумя разными газами, молекулы каждого газа самопроизвольно разойдутся как можно шире в свои соответственно новые доступные объемы; это можно рассматривать как смешивание. Если убрать перегородку, блокирующую теплообмен между двумя телами с разными температурами, чтобы тепло могло проходить между телами, то энергия самопроизвольно рассеивается или распространяется в виде тепла от более горячего к более холодному.
Помимо таких расплывчатых представлений, в общем термодинамическом процессе, рассматриваемом с микроскопической точки зрения, спонтанное рассеивание происходит в абстрактном микроскопическом фазовом пространстве . Согласно законам Ньютона и другим законам движения, фазовое пространство представляет собой систематическую схему для описания разнообразия микроскопических движений, происходящих в телах материи и излучения. Второй закон термодинамики можно рассматривать как количественный учет тесных взаимодействий, рассеивания или смешивания таких микроскопических движений. Другими словами, энтропию можно рассматривать как меру разнообразия движений микроскопических составляющих тел материи и излучения в их собственных состояниях внутреннего термодинамического равновесия.

энтропия и статистическая механика Информационная

  • Как мера беспорядка : Традиционно в учебниках 20-го века энтропия вводилась как порядок и беспорядок, так что она обеспечивает «измерение беспорядка или случайности системы». Утверждалось, что двусмысленность и произвольная интерпретация используемых терминов (таких как «беспорядок» и «хаос») способствуют широко распространенной путанице и могут помешать пониманию энтропии для большинства студентов. С другой стороны, в удобной, хотя и произвольной интерпретации, «беспорядок» можно четко определить как энтропию Шеннона распределения вероятностей микросостояний для данного конкретного макросостояния: [11] : 379  в этом случае связь «беспорядка» с термодинамической энтропией является прямой, но произвольной и не сразу очевидной для человека, незнакомого с теорией информации.
  • Недостающая информация . Идея о том, что информационная энтропия является мерой того, насколько много человек не знает о системе, весьма полезна.
Если вместо использования натурального логарифма для определения информационной энтропии мы используем логарифм по основанию 2, то информационная энтропия примерно равна среднему числу (тщательно выбранных [12] ) да/нет вопросы, которые необходимо задать, чтобы получить полную информацию об изучаемой системе. Во вводном примере двух подброшенных монет, информационной энтропии для макросостояния, которое содержит одну орлу и одну решку, потребуется только один вопрос, чтобы определить ее точное состояние (например, является ли первая орла?), и вместо выражения энтропия как ln(2), можно сказать, что эквивалентно, что это Log 2 (2), который равен количеству вопросов, которые нам нужно будет задать: Один. При измерении энтропии с использованием натурального логарифма (ln), единицы информационной энтропии. называется «нат», но когда он измеряется с использованием логарифма по основанию 2, единица информационной энтропии называется «битом». Это просто разница в единицах, очень похожая на разницу между дюймами и сантиметрами. nat = e бит). Термодинамическая энтропия равна произведению константы Больцмана на информационную энтропию, выраженную в битах. Информационная энтропия, выраженная в битах, равна количеству вопросов типа «да-нет», на которые необходимо ответить, чтобы определить микросостояние по данным. макрогосударство.
Понятия «беспорядок» и «распространение» можно анализировать с учетом концепции информационной энтропии. Например, если мы достанем из коробки новую колоду карт, она расположена в «идеальном порядке» (пики, червы, бубны, трефы, каждая масть начинается с туза и заканчивается королем), мы можем сказать, что тогда мы имеем «упорядоченную» колоду с нулевой информационной энтропией. Если тщательно перетасовать колоду, информационная энтропия составит около 225,6 бит: нам нужно будет задать в среднем около 225,6 вопросов, чтобы определить точный порядок перетасованной колоды. Можно также сказать, что перетасованная колода стала полностью «беспорядочной» или что упорядоченные карты «разбросаны» по всей колоде. Но информационная энтропия не говорит о том, что колоду нужно упорядочить каким-то определённым образом. Если мы возьмем нашу перетасованную колоду и запишем названия карт по порядку, то информационная энтропия станет равна нулю. Если мы еще раз перетасуем колоду, информационная энтропия снова составит около 225,6 бит, даже если каким-то чудом она перетасуется в том же порядке, что и при выходе из коробки, потому что даже если бы это было так, мы бы этого не знали. Таким образом, понятие «беспорядок» полезно, если под порядком мы подразумеваем максимальное знание, а под беспорядком — максимальный недостаток знаний. Концепция «раскладывания» полезна, потому что она дает представление о том, что происходит с картами, когда их тасуют. Вероятность нахождения карты в определенном месте в упорядоченной колоде равна 0 или 1, в перетасованной колоде – 1/52. Вероятность «растеклась» по всей колоде. Аналогично, в физической системе энтропия обычно связана с «распространением» массы или энергии.
Связь между термодинамической энтропией и информационной энтропией определяется уравнением Больцмана, которое гласит, что = k B ln W. S Если мы возьмем логарифм W по основанию 2 , это даст среднее количество вопросов, которые мы должны задать о микросостоянии физической системы, чтобы определить ее макросостояние. [13]

См. также [ править ]

Ссылки [ править ]

  1. ^ «Определение энтропии на английском языке» . Lexico при поддержке Оксфорда . Архивировано из оригинала 11 июля 2019 года . Проверено 18 ноября 2020 г. .
  2. ^ Теоретически кофе можно «несмешать», а древесину можно «несжечь», но для этого потребуется «машина», которая будет генерировать больше энтропии, чем было потеряно в исходном процессе. Вот почему второй закон справедлив только для изолированных систем, а это означает, что они не могут быть подключены к какой-либо внешней «машине».
  3. ^ И. Клотц, Р. Розенберг, Химическая термодинамика - основные концепции и методы , 7-е изд., Wiley (2008), стр. 10. 125
  4. ^ Аткинс, Питер; де Паула, Хулио (2006). Физическая химия Аткинса (8-е изд.). У. Х. Фриман. стр. 92–94. ISBN  0-7167-8759-8 .
  5. ^ Лейдлер, Кейт Дж.; Мейзер, Джон Х. (1982). Физическая химия . Бенджамин/Каммингс. п. 110. ИСБН  0-8053-5682-7 . Затем энтропию можно определить при других температурах, рассматривая серию обратимых процессов, посредством которых температура повышается от абсолютного нуля до рассматриваемой температуры.
  6. ^ Jump up to: Перейти обратно: а б Энтропийные сайты — руководство по содержанию, выбранному Фрэнком Л. Ламбертом
  7. ^ Дагдейл, Дж. С. (1996). Энтропия и ее физический смысл , Тейлор и Фрэнсис, Лондон, ISBN   0748405682 , Дагдейл цитирует только Гуггенхайма на странице 101.
  8. ^ Гуггенхайм, Э.А. (1949), Статистические основы термодинамики, Исследования: Научный журнал и его приложения , 2 , Баттервортс, Лондон, стр. 450–454; п. 453: «Если вместо энтропии прочитать количество доступных состояний или распространение, физическое значение станет ясным».
  9. ^ Козляк Евгений Игоревич; Ламберт, Фрэнк Л. (2005). « От порядка к беспорядку» для изменения энтропии? Взгляните на цифры!» (PDF) . хим. Воспитатель . 10 :24–25.
  10. ^ Например: Аткинс, П.В., Физическая химия де Паулы Дж. Аткинс, 2006, WH Freeman and Company, 8-е издание, ISBN   9780716787594 . Браун, Т.Л., Х.Э. ЛеМэй, Б.Е. Берстен, С.Дж. Мерфи, П. Вудворд, М.Е. Штольцфус 2017. Химия: Центральная наука, 10-е изд. Прентис Холл, 1248 стр., ISBN   9780134414232 . Эббинг, Д.Д. и С.Д. Гаммон, 2017. Общая химия, 11-е изд. Centage Learning 1190 стр., ISBN   9781305580343 . Петруччи, Херринг, Мадура, Биссоннетт, 2011 г. Общая химия: принципы и современные приложения, 10-е издание, 1426 страниц, Pearson Canada ISBN   9780132064521 .
  11. ^ Каллен, Герберт Б. (1985). Термодинамика и введение в термостатистику (2-е изд.). Нью-Йорк: Джон Уайли и сыновья. ISBN  0-471-86256-8 .
  12. ^ Минимальное количество вопросов достигается, когда каждый вопрос либо дает достоверный ответ, либо сокращает оставшуюся неопределенность вдвое. Например, если бы у нас была функция вероятности связанный с переменной , то оптимальным способом допроса было бы сначала спросить: «равен ли x x 2 ?» Если ответ «да», то x заведомо равен x 2 после задания только одного вопроса, и вероятность этого равна P 2 =1/2 . Если ответ «нет», то следующим вопросом будет: « ли x Равно x 4 ? Если ответ «да», то после двух вопросов x заведомо равен x 4 , и вероятность того, что это произойдет, равна P 4. =1/4 . Если ответ «нет», мы можем, наконец, спросить: « ли x равен x 1 ?». Если ответ «да», то x заведомо равен x 1 , а если нет, то x заведомо равен x 3 , и вероятность требования трех вопросов равна P 1 +P 3 =1/4 . Тогда среднее количество заданных вопросов составит Q=(1/2)(1)+(1/4)(2)+(1/4)(3) = 7/4 . Вычисление информационной энтропии Шеннона:
    биты
    что соответствует пошаговой процедуре. В большинстве случаев неясно, как последовательно делить оставшиеся варианты пополам с каждым вопросом, поэтому концепция строго применима только для особых случаев и становится более точной по мере увеличения числа возможных результатов. Тем не менее выражение Шеннона для Q справедливо даже в этих случаях.
  13. ^ В классической механике скорости и положения являются действительными числами, и существует континуум бесконечного числа микросостояний. Это означало бы, что для определения макросостояния придется задать бесконечное количество вопросов. В квантовой механике микросостояния «квантованы», и для данной энергии их конечное число, поэтому количество вопросов конечно. Больцман разработал свою теорию до появления квантовой механики, и его заслуга в том, что он, тем не менее, смог разработать теорию, рассматривающую теоретически бесконечное число микросостояний.

Дальнейшее чтение [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: f2c84ad7203ab3c13ec9baf39bc0215f__1717411200
URL1:https://arc.ask3.ru/arc/aa/f2/5f/f2c84ad7203ab3c13ec9baf39bc0215f.html
Заголовок, (Title) документа по адресу, URL1:
Introduction to entropy - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)