Что такое энтропия?
Наверняка вы хотя бы раз в жизни задумывались над тем, почему физические процессы протекают в некотором определённом направлении. Горячий чайник остывает на морозе, ну, а стрела времени направлена из прошлого в будущее. Скорее всего тут всплывал термин энтропия, который обозначался как объяснение поведения системы. А ещё традиционно энтропия — это мера беспорядка системы.
Но на самом деле понятие куда более глубокое, чем это кажется на первый взгляд. Если провести незримую грань между направлением течения физических процессов и мерой беспорядка системы, то появится интересная параллель.
Скорее всего поверхностное знакомство с энтропией произошло у вас уже в школе, а может быть где-то на ранних курсах института. Там вы слышали очень много непонятного. Энтропия характеризовалась как мера беспорядка системы, как мера упорядочивания, как показатель направления физического процесса. Какое определение будет правильным?
Если спросить любого студента, которого вы поймаете в коридоре между парами, он вам скажет «энтропия — мера беспорядка системы». Этот зазубренный вариант определения рушит всё понимание глубины вопроса. В какой-то степени это правильно. Но давайте начнем распутывать клубок с другой стороны.
Давайте разберемся, почему мера беспорядка системы. Здесь, наверное, стоило бы провести параллели с устройством Вселенной и с тем, как все это формировалось. Существовала некая неупорядоченная система, которая функционировала по некоторым законам и, по сути дела, это именуется хаосом.
Из хаоса каким-то образом (не важно каким), возможно в результате большого взрыва, почему-то начали упорядочиваться различные формы энергии, которые привели к тому, что появились первые частички. Эти частички были демонстрацией того, что из хаоса появились упорядоченные элементы. Упорядочивание постепенно приводило к тому, что формировалась материя в том виде, как мы привыкли её видеть. И тут даже можно говорить не про саму материю, а вспомнить физические явления в том виде, в котором мы привыкли их видеть.
Например, закономерности, описывающие существование электромагнитного поля — это тоже упорядочивание, потому что в противном случае это была бы энергия в чистом виде, которую сложно было бы отнести к чему-то конкретному.
Формулировка определения энтропии, которая построена на мере беспорядка системы, отталкивается как раз от этой логики. Чем больше у нас упорядочивание, тем ниже у нас энтропия и наоборот.

Система всегда стремится от направления с наибольшей упорядоченностью к состоянию с наименьшим упорядочиванием. Это обычное направление энтропии. Впрочем, при формировании Вселенной это направление почему-то сменилось. В обычном случае любая система будет стремиться из состояния более упорядоченного к менее упорядоченному.
Тут появляется и другой аспект проблемы. Любое упорядочивание подразумевает большое количество информации. Чем больше у нас информации о системе, тем больше, собственно говоря, мы можем эту систему упорядочить. Информация будет кодом состояния.
Поэтому второе определение энтропии, которое вы, возможно, тоже уже слышали, построено на том, что энтропия — это то, сколько мы знаем о системе. Тут опять стоит вернуться к природе хаоса. Дело в том, что в хаосе никто ничего не знает. Если мы этот хаос пытаемся упорядочить, найти какие-то связи, то энтропия падает. Энтропия уменьшается по мере появления информации о системе.

Почему так? На самом деле это довольно сложный, даже уже мировоззренческий принцип. В каком-то счёте можно это перенести это на простое экспериментальное исследование любого образца. Чем больше сведений, тем больше порядка. Дальше хоть новый объект формируй, хоть старый изучай.
Чем больше появляется информации, тем ниже становится энтропия и тем больше мы знаем о самой системе. А чем больше у нас информации о системе, тем больше мы можем про нее сказать и больше можем ей управлять.
Фактически у случайного события максимальная энтропия. А вот если бы у нас была какая-то информация об этом событии, то энтропия была ниже, и мы могли бы сказать, что это событие подчиняется таким-то и таким-то закономерностям. В случае случайности это тоже очень важный момент. Случайность не была бы «случайной», если бы мы понимали ситуацию в должной мере.
Следующий момент- это способ описания направления физического процесса. Неизбежно горячий чайник, поставленный на мороз на улицу, будет остывать. Процесс направлен из состояния с наименьшей энтропией к состоянию с наибольшей энтропией. Были частицы, которые имели некоторый нагрев и определенную тепловую энергию, чайник начал остывать, и энергетически выгоднее частицам стало перейти в свободное состояние.
Это свободное состояние технически сложнее описать, поэтому можно даже исходя из этого сказать, что энтропия такого состояния будет возрастать.
Но всегда ли направление процесса одинаковое? Нет, это лишь условность. На эту тему можно написать целую статью. Больцман писал, что течение процесса в том направлении, которое мы привыкли видеть — это только вероятность. С ничтожной вероятностью обратный процесс тоже может происходить.
Так или иначе, энтропия остаётся наверное одним из самых неопределенных физических понятий. Мы рассмотрели лишь три стандартных подхода, но их значительно больше. Наибольший интерес тут представляет мера хаоса.
Источник: ru.freepik.com
1 комментарий
Добавить комментарий
А в энтропии нет никакой меры «хаоса». Достаточно посмотреть на саму формулу этой самой несчастной энтропии.
Добавить комментарий