Что такое энтропия?

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Обзор | Наука и космос

Наверняка вы хотя бы раз в жизни задумывались над тем, почему физические процессы протекают в некотором определённом направлении. Горячий чайник остывает на морозе, ну, а стрела времени направлена из прошлого в будущее. Скорее всего тут всплывал термин энтропия, который обозначался как объяснение поведения системы. А ещё традиционно энтропия — это мера беспорядка системы.

Но на самом деле понятие куда более глубокое, чем это кажется на первый взгляд. Если провести незримую грань между направлением течения физических процессов и мерой беспорядка системы, то появится интересная параллель.

Скорее всего поверхностное знакомство с энтропией произошло у вас уже в школе, а может быть где-то на ранних курсах института. Там вы слышали очень много непонятного. Энтропия характеризовалась как мера беспорядка системы, как мера упорядочивания, как показатель направления физического процесса. Какое определение будет правильным?

Если спросить любого студента, которого вы поймаете в коридоре между парами, он вам скажет «энтропия — мера беспорядка системы». Этот зазубренный вариант определения рушит всё понимание глубины вопроса. В какой-то степени это правильно. Но давайте начнем распутывать клубок с другой стороны.

Давайте разберемся, почему мера беспорядка системы. Здесь, наверное, стоило бы провести параллели с устройством Вселенной и с тем, как все это формировалось. Существовала некая неупорядоченная система, которая функционировала по некоторым законам и, по сути дела, это именуется хаосом.

Из хаоса каким-то образом (не важно каким), возможно в результате большого взрыва, почему-то начали упорядочиваться различные формы энергии, которые привели к тому, что появились первые частички. Эти частички были демонстрацией того, что из хаоса появились упорядоченные элементы. Упорядочивание постепенно приводило к тому, что формировалась материя в том виде, как мы привыкли её видеть. И тут даже можно говорить не про саму материю, а вспомнить физические явления в том виде, в котором мы привыкли их видеть.

Например, закономерности, описывающие существование электромагнитного поля — это тоже упорядочивание, потому что в противном случае это была бы энергия в чистом виде, которую сложно было бы отнести к чему-то конкретному.

Формулировка определения энтропии, которая построена на мере беспорядка системы, отталкивается как раз от этой логики. Чем больше у нас упорядочивание, тем ниже у нас энтропия и наоборот.

Направление процесса
Автор: freepik Источник: ru.freepik.com

Система всегда стремится от направления с наибольшей упорядоченностью к состоянию с наименьшим упорядочиванием. Это обычное направление энтропии. Впрочем, при формировании Вселенной это направление почему-то сменилось. В обычном случае любая система будет стремиться из состояния более упорядоченного к менее упорядоченному.

Тут появляется и другой аспект проблемы. Любое упорядочивание подразумевает большое количество информации. Чем больше у нас информации о системе, тем больше, собственно говоря, мы можем эту систему упорядочить. Информация будет кодом состояния.

Поэтому второе определение энтропии, которое вы, возможно, тоже уже слышали, построено на том, что энтропия — это то, сколько мы знаем о системе. Тут опять стоит вернуться к природе хаоса. Дело в том, что в хаосе никто ничего не знает. Если мы этот хаос пытаемся упорядочить, найти какие-то связи, то энтропия падает. Энтропия уменьшается по мере появления информации о системе.

Любой хаос — это незаметный порядок
Автор: starline Источник: ru.freepik.com

Почему так? На самом деле это довольно сложный, даже уже мировоззренческий принцип. В каком-то счёте можно это перенести это на простое экспериментальное исследование любого образца. Чем больше сведений, тем больше порядка. Дальше хоть новый объект формируй, хоть старый изучай.

Чем больше появляется информации, тем ниже становится энтропия и тем больше мы знаем о самой системе. А чем больше у нас информации о системе, тем больше мы можем про нее сказать и больше можем ей управлять.

Фактически у случайного события максимальная энтропия. А вот если бы у нас была какая-то информация об этом событии, то энтропия была ниже, и мы могли бы сказать, что это событие подчиняется таким-то и таким-то закономерностям. В случае случайности это тоже очень важный момент. Случайность не была бы «случайной», если бы мы понимали ситуацию в должной мере.

Следующий момент- это способ описания направления физического процесса. Неизбежно горячий чайник, поставленный на мороз на улицу, будет остывать. Процесс направлен из состояния с наименьшей энтропией к состоянию с наибольшей энтропией. Были частицы, которые имели некоторый нагрев и определенную тепловую энергию, чайник начал остывать, и энергетически выгоднее частицам стало перейти в свободное состояние.

Это свободное состояние технически сложнее описать, поэтому можно даже исходя из этого сказать, что энтропия такого состояния будет возрастать.

Но всегда ли направление процесса одинаковое? Нет, это лишь условность. На эту тему можно написать целую статью. Больцман писал, что течение процесса в том направлении, которое мы привыкли видеть — это только вероятность. С ничтожной вероятностью обратный процесс тоже может происходить.

Так или иначе, энтропия остаётся наверное одним из самых неопределенных физических понятий. Мы рассмотрели лишь три стандартных подхода, но их значительно больше. Наибольший интерес тут представляет мера хаоса.

Изображение в превью:
Автор: kjpargeter
Источник: ru.freepik.com
Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
Изучаю физику и стараюсь познать устройство мира с её помощью. Делюсь наработками и открытиями с вами. Кандидат наук, научный сотрудник и когда-то преподаватель. Читайте мои статьи на этой страничке ixbt или смотрите научпоп видео в Telegram-канале!

1 комментарий

1
Пытаясь пересказать тему, которая вам далека, вы получаете безумный набор слов. Который никак не соотносится реальностью. Не делайте так больше, пожалуйста.
А в энтропии нет никакой меры «хаоса». Достаточно посмотреть на саму формулу этой самой несчастной энтропии.

Добавить комментарий

Сейчас на главной

Новости

Публикации

Ловушка «чемодана без ручки»: почему нам так страшно бросить то, что давно пора бросить

Продолжаем изучать ментальные приемы, которые помогают нам принимать верные решения и делают нас более эффективными. Сегодня поговорим про ловушку невозвратных затрат. Рассмотрим примеры и решения.

Надежность, комфорт и советские комиссионки: почему дипломаты в СССР не ездили на «Волгах» и куда попадали их иномарки после списания

Пока граждане СССР стояли в очередях за «Жигулями», послы ездили на Cadillac и Tatra. Почему дипломатам не подходили советские машины и куда они сдавали авто потом?

3D-сканирование головы, LDAC, xMEMS, ANC: обзор TWS наушников Creative Aurvana Ace MiMi

Я много раз нарывался на отзывы об этой новинке от компании Creative. Многие хвалят, и ставят по звуковым возможностям выше даже именитых производителей. Однозначно, за эту стоимость наушники...

Канцелярит против Розенталя: почему фраза «Доброго времени суток» выдает некомпетентность и какие 6 ошибок разрушают деловую переписку

  • Тематическая подборка
  • Оффтопик
Разбираем 6 главных речевых ошибок деловой среды. Выясняем с точки зрения лингвистики, почему «Доброго времени суток» ломает правила языка, а «пролонгировать задачу» выдает некомпетентность.

Умнее, но дороже: почему искусственный интеллект превращает автомобили в роскошь

Представьте ситуацию: вы приходите к дилеру за новой машиной, а вам говорят: базовая комплектация стоит три миллиона, а за то, чтобы автомобиль сам тормозил перед пешеходами и парковался без вашего...

Что случилось с Meizu? История одного китайского падения

Конец февраля 2026 года. В новостных лентах проскочило официальное заявление: Meizu прекращает разработку новых смартфонов. Для кого-то это лишь мимолетная заметка, очередной бренд, не выдержавший...