Читаем Информация или интуиция? полностью

А поведать мы собираемся вот о чем. По определению, энтропия суть логарифм статистического веса. Это самое правильное определение энтропии, и именно оно встречается в большинстве серьезных учебников статистической физики.Есть, однако, второе определение, и встречается оно даже чаще первого. Согласно этому определению энтропия данного состояния физической системы определяется как величина, пропорциональная логарифму вероятности данного состояния. В качестве коэффициента пропорциональности обычно выбирают так называемую постоянную Больцмана, k, имеющую размерность эрг/°К (читается эрг на градус). Мы уже отмечали, что если пользоваться таким определением, то сама формулировка второго начала термодинамики: всякая изолированная физическая система стремится принять состояние с максимальным значением энтропии — превращается в тавтологию: всякая физическая система стремится принять наиболее вероятное состояние. Но речь пойдет не об этом.Все это представляет для нас чрезвычайно большой интерес, поскольку пока что мы договорились измерять количество информации через соответствующие значения энтропии и от способа определения энтропии непосредственным образом зависит способ определения информации. Более того, упомянутая впервой главе мера Шеннона как раз и связана с определением количества информации через вероятности отдельных состояний (сообщений) .Легко показать, что оба рассмотренных нами определения энтропии означают почти одно и то же.Для этого введем в рассмотрение время. Предположим, что среднее количество секунд, в течение которого в среднем каждый шар пребывает в пределах правой половины стола, в точности одинаково для всех шаров. Это опять-таки и есть наше основное предположение. Тогда среднее количество секунд, в течение которого бильярд пребывает в некотором данном состоянии, в точности пропорционально статистическому весу данного состояния. Вероятность же данного состояния, по определению, есть предел отношения среднего времени, в течение которого система пребывает в данном состоянии, к полному времени наблюдений, когда полное время наблюдений стремится к бесконечности. Переменная величина может быть сколь угодно близка к своему пределу, но все же не равна ему. Именно поэтому мы и говорим, что приведенные выше два определения энтропии означают почти одно и то же. Почти — в смысле близости истинных значений величины к ее пределу. Каким же определением следует пользоваться?Если задача состоит в том, чтобы в процессе анализа явлений природы проводить различные вычисления с использованием значения энтропии, то, безусловно, имеет смысл использовать определение энтропии через вероятность (вероятности), поскольку это дает возможность использовать хорошо развитый к настоящему времени и очень удобный аппарат теории вероятностей. Такие вычисления будут приближенными, однако степень приближения всегда может быть проконтролирована.Более того, для таких, к примеру, систем, как объем с газом, содержащих огромное количество элементов (молекул), можно сразу утверждать, что разница между статистическим весом, поделенным на полное число способов, которыми реализуется любое состояние, и вероятностью будет меньше любой разумной величины,Иное дело, когда цель состоит в том, чтобы объяснить некоторое физическое явление, вскрыть его причину или механизм, лежащий в его основе. Пусть, например, мы хотим объяснить тот факт, что давление газа на все стенки сосуда, в который он заключен, одинаково. Разделим мысленно сосуд на две части и проведем все те же рассуждения, которые мы проводили применительно к двум половинкам бильярдного стола. Мы видим, что большую часть времени сосуд будет находиться в состоянии, когда в обеих его частях находится примерно одинаковое количество молекул. Значит, и среднее количество ударов молекул о стенки в единицу времени (а это и есть давление) будет одинаковым в обеих частях. Но возможны и отклонения от этого общего правила (флюктуации), которые действительно наблюдаются в природе.Рассуждая с вероятностных позиций, мы лишь заменяем одно слово (одинаковое давление) другим словом (равновероятность). Вероятностные представления не позволяют нам также объяснить механизм возникновения флюктуации.Прибегая к вероятностным понятиям, мы неизбежно сталкиваемся с тем обстоятельством, что само по себепонятие вероятности вытекает из другого понятия-случайности. Вопрос о том, в какой мере можно пользоваться вероятностными понятиями, сводится к другому вопросу: случаен или детерминирован окружающий нас мир, то есть снова, играет ли господь бог в кости?

ИНФОРМАЦИЯ И ВЕРОЯТНОСТЬ

Перейти на страницу:

Все книги серии Эврика

Похожие книги

Тайны нашего мозга или Почему умные люди делают глупости
Тайны нашего мозга или Почему умные люди делают глупости

Мы пользуемся своим мозгом каждое мгновение, и при этом лишь немногие из нас представляют себе, как он работает. Большинство из того, что, как нам кажется, мы знаем, почерпнуто из «общеизвестных фактов», которые не всегда верны...Почему мы никогда не забудем, как водить машину, но можем потерять от нее ключи? Правда, что можно вызубрить весь материал прямо перед экзаменом? Станет ли ребенок умнее, если будет слушать классическую музыку в утробе матери? Убиваем ли мы клетки своего мозга, употребляя спиртное? Думают ли мужчины и женщины по-разному? На эти и многие другие вопросы может дать ответы наш мозг.Глубокая и увлекательная книга, написанная выдающимися американскими учеными-нейробиологами, предлагает узнать больше об этом загадочном «природном механизме». Минимум наукообразности — максимум интереснейшей информации и полезных фактов, связанных с самыми актуальными темами; личной жизнью, обучением, карьерой, здоровьем. Приятный бонус - забавные иллюстрации.

Сандра Амодт , Сэм Вонг

Медицина / Научная литература / Прочая научная литература / Образование и наука
6000 изобретений XX и XXI веков, изменившие мир
6000 изобретений XX и XXI веков, изменившие мир

Данное издание представляет собой энциклопедию изобретений и инноваций, сделанных в XX и XXI веках. Точные даты, имена ученых и новаторов и названия изобретений дадут полное представление о том, какой огромный скачок человечество сделало за 110 лет. В этой энциклопедии читатель найдет год и имя изобретателя практически любой вещи, определившей привычный бытовой уклад современного человека. В статьях от «конвейерного автомобилестроения» до «фторографен» раскрыты тайны изобретений таких вещей, как боксерские шорты, памперсы, плюшевый медвежонок, целлофан, шариковый дезодорант, титан, акваланг, компьютерная мышь и многое другое, без чего просто немыслима сегодняшняя жизнь.Все изобретения, сделанные в период с 1901 по 2010 год, отсортированы по десятилетиям, годам и расположены в алфавитном порядке, что делает поиск интересующей статьи очень легким и быстрым.

Юрий Иосифович Рылёв

Научная литература / Прочая научная литература / Образование и наука