Что такое энтропия?

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Обзор | Наука и космос

Наверняка вы хотя бы раз в жизни задумывались над тем, почему физические процессы протекают в некотором определённом направлении. Горячий чайник остывает на морозе, ну, а стрела времени направлена из прошлого в будущее. Скорее всего тут всплывал термин энтропия, который обозначался как объяснение поведения системы. А ещё традиционно энтропия — это мера беспорядка системы.

Но на самом деле понятие куда более глубокое, чем это кажется на первый взгляд. Если провести незримую грань между направлением течения физических процессов и мерой беспорядка системы, то появится интересная параллель.

Скорее всего поверхностное знакомство с энтропией произошло у вас уже в школе, а может быть где-то на ранних курсах института. Там вы слышали очень много непонятного. Энтропия характеризовалась как мера беспорядка системы, как мера упорядочивания, как показатель направления физического процесса. Какое определение будет правильным?

Если спросить любого студента, которого вы поймаете в коридоре между парами, он вам скажет «энтропия — мера беспорядка системы». Этот зазубренный вариант определения рушит всё понимание глубины вопроса. В какой-то степени это правильно. Но давайте начнем распутывать клубок с другой стороны.

Давайте разберемся, почему мера беспорядка системы. Здесь, наверное, стоило бы провести параллели с устройством Вселенной и с тем, как все это формировалось. Существовала некая неупорядоченная система, которая функционировала по некоторым законам и, по сути дела, это именуется хаосом.

Из хаоса каким-то образом (не важно каким), возможно в результате большого взрыва, почему-то начали упорядочиваться различные формы энергии, которые привели к тому, что появились первые частички. Эти частички были демонстрацией того, что из хаоса появились упорядоченные элементы. Упорядочивание постепенно приводило к тому, что формировалась материя в том виде, как мы привыкли её видеть. И тут даже можно говорить не про саму материю, а вспомнить физические явления в том виде, в котором мы привыкли их видеть.

Например, закономерности, описывающие существование электромагнитного поля — это тоже упорядочивание, потому что в противном случае это была бы энергия в чистом виде, которую сложно было бы отнести к чему-то конкретному.

Формулировка определения энтропии, которая построена на мере беспорядка системы, отталкивается как раз от этой логики. Чем больше у нас упорядочивание, тем ниже у нас энтропия и наоборот.

Направление процесса
Автор: freepik Источник: ru.freepik.com

Система всегда стремится от направления с наибольшей упорядоченностью к состоянию с наименьшим упорядочиванием. Это обычное направление энтропии. Впрочем, при формировании Вселенной это направление почему-то сменилось. В обычном случае любая система будет стремиться из состояния более упорядоченного к менее упорядоченному.

Тут появляется и другой аспект проблемы. Любое упорядочивание подразумевает большое количество информации. Чем больше у нас информации о системе, тем больше, собственно говоря, мы можем эту систему упорядочить. Информация будет кодом состояния.

Поэтому второе определение энтропии, которое вы, возможно, тоже уже слышали, построено на том, что энтропия — это то, сколько мы знаем о системе. Тут опять стоит вернуться к природе хаоса. Дело в том, что в хаосе никто ничего не знает. Если мы этот хаос пытаемся упорядочить, найти какие-то связи, то энтропия падает. Энтропия уменьшается по мере появления информации о системе.

Любой хаос — это незаметный порядок
Автор: starline Источник: ru.freepik.com

Почему так? На самом деле это довольно сложный, даже уже мировоззренческий принцип. В каком-то счёте можно это перенести это на простое экспериментальное исследование любого образца. Чем больше сведений, тем больше порядка. Дальше хоть новый объект формируй, хоть старый изучай.

Чем больше появляется информации, тем ниже становится энтропия и тем больше мы знаем о самой системе. А чем больше у нас информации о системе, тем больше мы можем про нее сказать и больше можем ей управлять.

Фактически у случайного события максимальная энтропия. А вот если бы у нас была какая-то информация об этом событии, то энтропия была ниже, и мы могли бы сказать, что это событие подчиняется таким-то и таким-то закономерностям. В случае случайности это тоже очень важный момент. Случайность не была бы «случайной», если бы мы понимали ситуацию в должной мере.

Следующий момент- это способ описания направления физического процесса. Неизбежно горячий чайник, поставленный на мороз на улицу, будет остывать. Процесс направлен из состояния с наименьшей энтропией к состоянию с наибольшей энтропией. Были частицы, которые имели некоторый нагрев и определенную тепловую энергию, чайник начал остывать, и энергетически выгоднее частицам стало перейти в свободное состояние.

Это свободное состояние технически сложнее описать, поэтому можно даже исходя из этого сказать, что энтропия такого состояния будет возрастать.

Но всегда ли направление процесса одинаковое? Нет, это лишь условность. На эту тему можно написать целую статью. Больцман писал, что течение процесса в том направлении, которое мы привыкли видеть — это только вероятность. С ничтожной вероятностью обратный процесс тоже может происходить.

Так или иначе, энтропия остаётся наверное одним из самых неопределенных физических понятий. Мы рассмотрели лишь три стандартных подхода, но их значительно больше. Наибольший интерес тут представляет мера хаоса.

Изображение в превью:
Автор: kjpargeter
Источник: ru.freepik.com
Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
Изучаю физику и стараюсь познать устройство мира с её помощью. Делюсь наработками и открытиями с вами. Кандидат наук, научный сотрудник и когда-то преподаватель. Читайте мои статьи на этой страничке ixbt или смотрите научпоп видео в Telegram-канале!

1 комментарий

a
Пытаясь пересказать тему, которая вам далека, вы получаете безумный набор слов. Который никак не соотносится реальностью. Не делайте так больше, пожалуйста.
А в энтропии нет никакой меры «хаоса». Достаточно посмотреть на саму формулу этой самой несчастной энтропии.

Добавить комментарий

Сейчас на главной

Новости

Публикации

Нобелевская болезнь: почему у великих учёных появляются странные идеи

В научном мире уже давно фигурирует неофициальный термин «Нобелевская болезнь», или «нобелетизм». Под ним обычно понимают явление, когда у прославленных лауреатов Нобелевской премии со временем...

Как часто ChatGPT ошибается? Разбор неточностей и паттернов

Генеративный искусственный интеллект, включая ChatGPT, стремительно набирает популярность как альтернатива традиционным поисковым системам. Но современные исследования показывают: эти инструменты...

Обзор велосипедного GPS-компьютера Magene C506

Электронные умные гаджеты повсеместно проникают в нашу жизнь, велосипеды это тоже не обошло стороной. Современные велокомпьютеры подходят как для начинающих велосипедистов, так для опытных...

Медвежья страсть: правда ли, что медведи обожают мед?

Медведи — величественные создания дикой природы, чья сила и независимость восхищают человека. Однако, несмотря на их грозный облик хищников, в нашем сознании также прочно укрепился...

5 самых крупных медведей на планете: вес, длина и реальные фото

В этой статье — пять самых крупных представителей медвежьего мира. Посмотрим, сколько они весят и насколько вырастают. Без мифов и легенд — только реальные цифры и факты....

Самая ядовитая гусеница в мире: крошечная, но опасная

Мир насекомых полон сюрпризов, и не всегда безобидных. Одним из самых опасных представителей среди них считается не хищное существо, а маленькое пушистое создание — гусеница. На первый...