Поскольку речь идет об информационных методах в технике, нельзя обойти молчанием системы связи, применительно к которым К. Шеннон и формулировал свои основы теории информации. Системы связи — это огромная область, даже беглый обзор которой требует самостоятельной книги. Поэтому здесь мы, по существу, коснемся лишь одного вопроса, наиболее важного для развиваемой нами точки зрения: как кодируются сообщения?Сейчас используют в основном электрические и радиотехнические (которые тоже можно считать частным случаем электрических) системы передачи данных на. расстояние. В этих системах информация, которую нужно передать, представляется переменными электрическими напряжениями — сигналами. Система связи строится таким образом, чтобы закон изменения напряжения во времени на приемном конце по возможности точно соответствовал такому же закону на передающем конце канала связи.Максимальная величина напряжения ограничивается энергетическими соображениями. Два различных значения напряжения различимы в том случае, если разность между ними больше, чем уровень шумов, который всегда присутствует в любом канале связи. Отсюда следует, что на приемном конце мы можем производить выбор лишь среди конечного (обычно не очень большого) количества значений электрического напряжения. Наиболее надежная связь получается в том случае, когда таких значений только два: либо оно есть — говорят, что в этом случае сигнал имеет значение единицы, либо его нет — сигнал имеет значение нуля. Такие двоичные посылки используются в телеграфии.Существуют ограничения и во времени. Благодаря особенностям каналов связи мы можем констатировать, что электрическое напряжение на приемном конце имеет данное значение только в том случае, если оно поддерживается в течение определенного промежутка времени. Переход от одного значения к другому также требует времени. Значит, за определенный промежуток времени мы можем передать по каналу связи (независимо от его природы) лишь конечное число значений напряжения или, как говорят связисты, посылок. Максимальное количество посылок, передаваемое в единицу времени, — это основная характеристика любого канала связи.Но передавать надо не посылки, а сообщения, имеющие смысл, например, последовательности букв русского или латинского алфавита. Поскольку количество букв в алфавите обычно оказывается больше, чем количество различимых значений напряжения, каждой букве ставится в соответствие несколько посылок, составляющих определенную комбинацию. Такой процесс установления соответствия между буквами или какими-либо другими символами и комбинациями электрических посылок называется кодированием.А теперь самое главное. Основная задача, решаемая при проектировании любого канала связи, состоит в том, каким образом передать в единицу времени наибольшее количество информации. Такая задача возникает по многим соображениям, в том числе и экономическим. Каждая секунда работы канала связи обходится в определенную сумму денег, поэтому чем больше информации мы передадим за эту секунду, тем дешевле будет стоить передача единицы информации. Аналогичным образом, затраты энергии в канале связи также пропорциональны времени ее функционирования. Поэтому чем больше информации будет передано в единицу времени, тем меньше будет стоить передача единицы информации и тем меньших энергетических затрат она потребует.Анализ современных языков показывает, что отдельные буквы в них встречаются с различной частотой. Например, в русском языке чаще всего встречается буква «а» и реже всего — буквы «ш» и «ъ». Ясно, что среднее количество букв, передаваемых по каналу связи в единицу времени, будет наибольшим, если чаще встречающиеся буквы кодировать комбинациями, состоящими из меньшего числа посылок, а реже встречающиеся буквы кодировать комбинациями, состоящими из большого числа посылок.Пусть, например, в некотором сообщении буква «е» встречается 20 раз, а буква «ш» 2 раза. Если каждой из этих букв поставить в соответствие, скажем, по три посылки, то общее количество посылок будет 66 и при скорости передачи 1000 посылок в секунду, за секунду можно передать примерно 333 буквы. Если же букве «е» ставить в соответствие одну посылку, а букве «ш» — четыре посылки, то общее количество посылок будет 28 и при той же скорости передачи за секунду можно будет передать 785 букв.Именно это соображение послужило отправной точкой для всей шенноновской теории информации. Говорят, что мера Шеннона — это среднее количество информации, приходящееся на один символ, в сообщениях, передаваемых по каналам связи.Давайте хорошенько подумаем, так ли это на самом деле. Предположим, что мы располагаем набором копий телеграмм, поступивших в какое-то телеграфное отделение в течение месяца. Можно ли на основании анализа этих телеграмм утверждать, что отдельные смысловые единицы (именно смысловые единицы — они-то и содержат информацию, а не символы) встречаются в телеграммах чаще, чем другие. Можно ли, например, считать, что слова «выезжаю встречайте» будут зарегистрированы чаще, чем, скажем, слово «поздравляю»?и да и нет. Во всяком случае, это зависит от даты, географического положения отделения связи и многих других факторов.При кодировании телеграфных сообщений, вообще говоря, учитывается относительная частота появления смысловых единиц. Примером могут служить бланки поздравительных телеграмм. Пользуясь таким бланком, фактически можно передавать по телеграфу лишь адрес и имя получателя, а также имя или имена отправителей. Сам текст уже заранее отпечатан на бланке, и передается лишь индекс бланка. Но количество поздравительных телеграмм по сравнению с общим их количеством относительно мало. Кроме того, количество поздравительных телеграмм, посылаемых в единицу времени, или их относительная частота, меняется от случая к случаю. Например, в предпраздничные дни она резко возрастает.Иное дело язык. Частота, с которой встречаются отдельные буквы в каждом языке, есть величина постоянная, представляющая собой характеристику данного языка и не зависящая от времени и других факторов. Вот и получается, что мера Шеннона — это характеристика языка, а не выражаемой средствами этого языка информации. Мера Шеннона показывает, какое среднее количество посылок должно быть затрачено для кодирования одной буквы, чтобы количество букв, передаваемым в единицу времени, оказалось максимальным. Само по себе это правильно, но из букв может быть составлено слово, не несущее информации.Задавая вопрос: является ли применительно к системам связи мера Шеннона мерой количества информации? — мы вынуждены ответить на него отрицательно. Повторяем: информация — это не сами символы (буквы), а то, что выражается средствами этих символов. Можно отметить здесь, что как раз только что рассмотренное свойство шенноновской меры и послужило основанием к тому, что, кроме такой меры количества информаций, стали предлагать другие меры для смысловой, или семантической, информации.