Читаем Информация или интуиция? полностью

Поскольку речь идет об информационных методах в технике, нельзя обойти молчанием системы связи, применительно к которым К. Шеннон и формулировал свои основы теории информации. Системы связи — это огромная область, даже беглый обзор которой требует самостоятельной книги. Поэтому здесь мы, по существу, коснемся лишь одного вопроса, наиболее важного для развиваемой нами точки зрения: как кодируются сообщения?Сейчас используют в основном электрические и радиотехнические (которые тоже можно считать частным случаем электрических) системы передачи данных на. расстояние. В этих системах информация, которую нужно передать, представляется переменными электрическими напряжениями — сигналами. Система связи строится таким образом, чтобы закон изменения напряжения во времени на приемном конце по возможности точно соответствовал такому же закону на передающем конце канала связи.Максимальная величина напряжения ограничивается энергетическими соображениями. Два различных значения напряжения различимы в том случае, если разность между ними больше, чем уровень шумов, который всегда присутствует в любом канале связи. Отсюда следует, что на приемном конце мы можем производить выбор лишь среди конечного (обычно не очень большого) количества значений электрического напряжения. Наиболее надежная связь получается в том случае, когда таких значений только два: либо оно есть — говорят, что в этом случае сигнал имеет значение единицы, либо его нет — сигнал имеет значение нуля. Такие двоичные посылки используются в телеграфии.Существуют ограничения и во времени. Благодаря особенностям каналов связи мы можем констатировать, что электрическое напряжение на приемном конце имеет данное значение только в том случае, если оно поддерживается в течение определенного промежутка времени. Переход от одного значения к другому также требует времени. Значит, за определенный промежуток времени мы можем передать по каналу связи (независимо от его природы) лишь конечное число значений напряжения или, как говорят связисты, посылок. Максимальное количество посылок, передаваемое в единицу времени, — это основная характеристика любого канала связи.Но передавать надо не посылки, а сообщения, имеющие смысл, например, последовательности букв русского или латинского алфавита. Поскольку количество букв в алфавите обычно оказывается больше, чем количество различимых значений напряжения, каждой букве ставится в соответствие несколько посылок, составляющих определенную комбинацию. Такой процесс установления соответствия между буквами или какими-либо другими символами и комбинациями электрических посылок называется кодированием.А теперь самое главное. Основная задача, решаемая при проектировании любого канала связи, состоит в том, каким образом передать в единицу времени наибольшее количество информации. Такая задача возникает по многим соображениям, в том числе и экономическим. Каждая секунда работы канала связи обходится в определенную сумму денег, поэтому чем больше информации мы передадим за эту секунду, тем дешевле будет стоить передача единицы информации. Аналогичным образом, затраты энергии в канале связи также пропорциональны времени ее функционирования. Поэтому чем больше информации будет передано в единицу времени, тем меньше будет стоить передача единицы информации и тем меньших энергетических затрат она потребует.Анализ современных языков показывает, что отдельные буквы в них встречаются с различной частотой. Например, в русском языке чаще всего встречается буква «а» и реже всего — буквы «ш» и «ъ». Ясно, что среднее количество букв, передаваемых по каналу связи в единицу времени, будет наибольшим, если чаще встречающиеся буквы кодировать комбинациями, состоящими из меньшего числа посылок, а реже встречающиеся буквы кодировать комбинациями, состоящими из большого числа посылок.Пусть, например, в некотором сообщении буква «е» встречается 20 раз, а буква «ш» 2 раза. Если каждой из этих букв поставить в соответствие, скажем, по три посылки, то общее количество посылок будет 66 и при скорости передачи 1000 посылок в секунду, за секунду можно передать примерно 333 буквы. Если же букве «е» ставить в соответствие одну посылку, а букве «ш» — четыре посылки, то общее количество посылок будет 28 и при той же скорости передачи за секунду можно будет передать 785 букв.Именно это соображение послужило отправной точкой для всей шенноновской теории информации. Говорят, что мера Шеннона — это среднее количество информации, приходящееся на один символ, в сообщениях, передаваемых по каналам связи.Давайте хорошенько подумаем, так ли это на самом деле. Предположим, что мы располагаем набором копий телеграмм, поступивших в какое-то телеграфное отделение в течение месяца. Можно ли на основании анализа этих телеграмм утверждать, что отдельные смысловые единицы (именно смысловые единицы — они-то и содержат информацию, а не символы) встречаются в телеграммах чаще, чем другие. Можно ли, например, считать, что слова «выезжаю встречайте» будут зарегистрированы чаще, чем, скажем, слово «поздравляю»?и да и нет. Во всяком случае, это зависит от даты, географического положения отделения связи и многих других факторов.При кодировании телеграфных сообщений, вообще говоря, учитывается относительная частота появления смысловых единиц. Примером могут служить бланки поздравительных телеграмм. Пользуясь таким бланком, фактически можно передавать по телеграфу лишь адрес и имя получателя, а также имя или имена отправителей. Сам текст уже заранее отпечатан на бланке, и передается лишь индекс бланка. Но количество поздравительных телеграмм по сравнению с общим их количеством относительно мало. Кроме того, количество поздравительных телеграмм, посылаемых в единицу времени, или их относительная частота, меняется от случая к случаю. Например, в предпраздничные дни она резко возрастает.Иное дело язык. Частота, с которой встречаются отдельные буквы в каждом языке, есть величина постоянная, представляющая собой характеристику данного языка и не зависящая от времени и других факторов. Вот и получается, что мера Шеннона — это характеристика языка, а не выражаемой средствами этого языка информации. Мера Шеннона показывает, какое среднее количество посылок должно быть затрачено для кодирования одной буквы, чтобы количество букв, передаваемым в единицу времени, оказалось максимальным. Само по себе это правильно, но из букв может быть составлено слово, не несущее информации.Задавая вопрос: является ли применительно к системам связи мера Шеннона мерой количества информации? — мы вынуждены ответить на него отрицательно. Повторяем: информация — это не сами символы (буквы), а то, что выражается средствами этих символов. Можно отметить здесь, что как раз только что рассмотренное свойство шенноновской меры и послужило основанием к тому, что, кроме такой меры количества информаций, стали предлагать другие меры для смысловой, или семантической, информации.

Перейти на страницу:

Похожие книги

Еда. Отправная точка. Какими мы станем в будущем, если не изменим себя в настоящем?
Еда. Отправная точка. Какими мы станем в будущем, если не изменим себя в настоящем?

«Одни люди относятся к еде легко, для других она является темой многочисленных сомнений и размышлений.До недавнего времени я принадлежала ко второй категории: у меня тоже складывались непростые отношения с едой. И вот наконец, к собственному удивлению и радости, мне удалось перейти на другую сторону. В этой книге я постараюсь рассказать, как такое стало возможным».Эта книга подробно, шаг за шагом, описывает то, как рождаются наши пристрастия, симпатии и антипатии к разным продуктам и блюдам.С одной стороны, генетика, семейные традиции, социальное окружение очень влияют на формирование наших вкусов. С другой стороны, все не так безнадежно, как кажется на первый взгляд, если знать истоки, законы и осознанно идти на их изменение.Книга читается с большим интересом, в ней много историй о стремлении людей прийти к полезному и в то же время желанному образу жизни, в которой еда – самый основной ее источник.

Би Уилсон

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Научпоп / Документальное
Чудесная жизнь клеток: как мы живем и почему мы умираем
Чудесная жизнь клеток: как мы живем и почему мы умираем

Что мы знаем о жизни клеток, из которых состоим? Скорее мало, чем много. Льюис Уолперт восполнил этот пробел, рассказав о клетках доступным языком, — и получилась не просто книга, а руководство для понимания жизни человеческого тела. Как клетки зарождаются, размножаются, растут и приходят в упадок? Как они обороняются от бактерий и вирусов и как умирают? Как злокачественные клетки образуют опухоли? Какую роль во всем этом играют белки и как структуру белков кодируют ДНК? Как воспроизводятся стволовые клетки? Как, наконец, из одной-единственной клетки развивается человек? И главный вопрос, на который пока нет однозначного ответа, но зато есть гипотезы: как появилась первая клетка — и значит, как возникла жизнь? Мир клеток, о котором рассказывается в этой книге, невероятен.Льюис Уолперт (р. 1929) — известный британский биолог, популяризатор науки, телеведущий, почетный профессор Лондонского университета.Книга изготовлена в соответствии с Федеральным законом от 29 декабря 2010 г. № 436-ФЗ, ст. 1, п. 2, пп. 3. Возрастных ограничений нет

Льюис Уолперт

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Биология / Научпоп / Образование и наука / Документальное