Весьма ценная в техническом плане для начала компьютерной эры, теория информации Шеннона мало что привнесла в философию. Удивительным образом та часть теории, которая привлекла внимание специалистов других областей, может быть выражена одним-единственным термином – энтропия. Как объяснял Уоррен Уивер в классическом изложении теории информации, «человек, впервые сталкивающийся с понятием энтропии в теории коммуникаций, вправе ощутить волнение, он вправе заключить, что встретил нечто основополагающее, важное»[328]
. Концепция энтропии восходит к термодинамике: на ней основан второй закон термодинамики, гласящий, что Вселенная и каждая изолированная система в ней неизбежно стремится к нарастанию беспорядка. Разделите бассейн на две части, поставив между ними перегородку. Наполните одну часть водой, а другую – чернилами. Дождитесь, пока поверхность успокоится, а затем уберите перегородку. Вы увидите, что лишь посредством случайного перемещения молекул вода и чернила со временем перемешаются. Этот процесс никогда не повернется вспять, сколько ни жди – хоть до конца света. Именно поэтому часто считается, что второй закон термодинамики – это тот физический принцип, который уподобил время одностороннему уличному движению. Энтропия – наименование того свойства систем, которое увеличивается согласно второму закону: перемешивания, беспорядочности, случайности. Это понятие легче постичь интуитивно, не пытаясь измерить его в реальной жизни. Как с достаточной степенью достоверности можно оценить, насколько хорошо перемешались два вещества? Можно взять случайный набор молекул смеси и пересчитать молекулы каждого из этих веществ в нем; но какой вывод вы сделаете, если получите результат «да – нет – да – нет – да – нет – да – нет»[329]? Вряд ли вы скажете, что энтропия большая. Другой способ заключается в подсчете только четных молекул; но что, если получится последовательность «да – нет – нет – да – да – нет – нет – да»? Порядок проявляется таким образом, что делает бесполезным любой алгоритм подсчета. Дополнительную сложность в теорию информации добавляют проблемы смысла и представления. Последовательности вроде такой: οι оюо оюо оою ш ою и оо ооо оою ш ою il оюо о ооо ооо… – могут показаться упорядоченными только наблюдателям, знакомым с азбукой Морзе и творчеством Шекспира. И как тогда быть с топологически замысловатыми узорами странного аттрактора?Роберт Шоу узрел в аттракторах движущую силу информации. Согласно его первоначальной и главнейшей концепции, хаос указывает естественный путь возврата к физическим наукам в обновленной форме, к тем идеям, которые теория информации почерпнула из термодинамики. Странные аттракторы, соединяющие порядок и беспорядочность, открыли новую перспективу в вопросе измерения энтропии систем. Они являются эффективными «перемешивателями», что создают непредсказуемость и таким образом повышают энтропию. По представлениям Шоу, они порождают информацию там, где ее ранее не существовало.
Однажды Норман Паккард, читая журнал
К этому времени члены группы регулярно встречались в большом старом доме неподалеку от побережья. Они притащили туда мебель с блошиного рынка и компьютерное оборудование, применявшееся в основном для работы над теорией рулетки. Шоу держал там пианино, на котором наигрывал мелодии эпохи барокко или просто импровизации на классические и современные темы. Встречаясь у побережья, физики выработали собственный стиль исследований: процедуру оценки идей, просеивания их сквозь сито целесообразности, штудирования литературы и написания своих работ. В конечном счете молодые люди научились довольно эффективной совместной работе над статьями для научных журналов. Впрочем, первая статья была подписана именем Шоу – одна из немногих, которые он напишет, – и он работал над ней в одиночку, что было довольно характерно. И что не менее характерно, он опоздал.