Энтропия и информация
Успехи физики низких температур, достигнутые в последние десятилетия (главным образом в изучении квантовых макроскопических явлений - сверхпроводимости и сверхтекучести), вновь привлекли внимание к таким, казалось бы, "прозаическим" вопросам, как охлаждение тел, измерение температуры и т.п. В связи с этим особый интерес традиционно вызывает понятие энтропии, первоначально введенное Рудольфом Клаузиусом (еще в прошлом веке) лишь с целью более удобного описания работы тепловых двигателей.
Однако благодаря усилию многих ученых - прежде всего Людвига Больцмана - стало очевидным, что это понятие играет универсальную роль. По существу именно энтропия определяет многие закономерности в поведении макроскопических систем, в том числе направление их глобальной (а иногда и локальной) эволюции. Более того, выяснилось, что энтропия является одним из фундаментальных понятий, стоящим в одном ряду с энергией, - универсальной мерой различных форм движения материи.
В частности, понятие энтропии оказалось связанным с не менее важными и общими понятиями - в первую очередь с количеством информации. Теория информации дает точную меру количества информации, содержащегося в некотором сообщении. Единицу информации, бит, получают, производя выбор одной из двух равновероятностных возможностей, узнавая результат бросания монеты. Количество информации зависит от вероятности выбора логарифмически. Так, при бросании двух костей мы получаем вдвое больше информации, чем при бросании nкости. Бросая кость, мы производим выбор из шести возможностей. Информация (ее количество) выражается как I=log2P , где P - число равновероятностных ситуаций, из которых производится выбор. При бросании одной кости I=log26=2,6 бит, при бросании двух костей I=log236=5,2 бит.
Приведенное выражения для информации похоже на формулу Больцмана, связывающую энтропию S и вероятность данного состояния, т.е. число способов его осуществления P
S=klnP,
где k=1,38*10-27 Дж/К - постоянная Больцмана. Это сходство не случайно. Получение информации о какой-либо системе есть реальный физический процесс, всегда связанный с возрастанием энтропии. Замораживая воду, мы получаем информацию о положении молекул в кристаллической решетке льда. Платить за это приходится энтропией. Нельзя заморозить воду, находящуюся в изолированной системе, - от нее нужно отводить тепло. Вода замерзает, но нагревается холодильник и его энтропия повышается. Для пересчета полученной информации в энтропийные единицы надо умножить I на k ln2~10-16 эрг/град. Получается, что за один бит информации надо платить очень малым количеством энтропии, равным 2,3*10-24 кал/град.
Принято говорить об антиэнтропийности жизни. При этом имеют в виду высокую упорядоченность живых организмов. Однако, как это показал точным расчетом Л.А. Блюменфельд, степень упорядоченности человеческого организма, т.е. фиксированные положения всех его атомов, не превышает степени упорядоченности куска гранита, имеющего ту же массу. И в том и в другом случае получается ~1026 бит, что эквивалентно всего лишь 230 калориям на градус, 230 энтропийным единицам. Следовательно, говорить о такого рода антиэнтропийности жизни не имеет смысла. Можно подсчитать количество информации, содержащееся в организме, и эквивалентное количество энтропии, но это ничего не даст для понимания жизни, в силу того, что организм есть не статистическая, а динамическая система.
С помощью энтропии стало возможным количественно оценивать и такие на первый взгляд сугубо качественные понятия, как порядок (или структура) и беспорядок (или хаос), а также взаимную связь между ними и возможность перехода одного в другое. Наиболее ярким и впечатляющим является то, что не только порядок может естественно переходить в хаос, но и, наоборот: при определенных условиях из хаоса могут возникать упорядоченные (как правило, диссипативные) структуры.
Эти идеи лежат в основе бурно развивающейся в настоящее время на стыке физики, химии, математики и биологии новой отрасли науки - синергетики.
Глубоко анализируя сущность второго начала термодинамики на уровне микромира, можно рассмотреть традиционные практически важные вопросы, с которыми прочно ассоциируется этот закон, прежде всего закон об ограниченности к.п.д. тепловых двигателей. По существу за этим скрывается значительно более глубокая закономерность, связанная с неизбежными потерями энергии в процессе преобразования неупорядоченного движения в упорядоченное, происходит ли то в тепловом двигателе, химической реакции или в живом организме.
Do'stlaringiz bilan baham: |