К аналогичному выводу можно прийти, если рассуждать с позиций шенноновской теории информации. В шенноновской теории вводятся в рассмотрение так называемые сигналы, то есть физические величины, изменяющиеся определенным образом. Каждому значению такой физической величины ставится в соответствие некоторый символ. Символы представляют собой структурные единицы, из которых строятся сообщения. Мера Шеннона определяет среднее количество информации, приходящееся на один символ. Это среднее количество информации, в свою очередь, численно равно, по Шеннону, средней величине логарифма вероятности появления каждого данного символа, взятой с обратным знаком.Таким образом, отличие информации Шеннона от энтропии Больцмана (теперь мы это знаем) чисто формальное. Просто понятие «состояние физической системы» заменяется понятием «символ». Здесь, однако, скрываются соображения, имеющие самое существенное значение для круга вопросов, рассматриваемых в данной книге.До сих пор мы имели дело только с информацией, содержащейся в физической системе и способной, в частности, заставить физическую систему совершить мехакическую работу. Но независимо от того, какова природа информации и кто является приемником, потребителем этой информации, ясно, что получить информацию можно лишь взаимодействуя с некоторой физической системой. Это утверждение справедливо и для случая, когда приемником информации является человек, и для случая, когда потребителем информации является другая физическая система.В процессе передачи — приема информации в каждый данный момент времени мы фиксируем одно из состояний физической системы носителя информации и присваиваем этому состоянию значение символа. Например, красный свет светофора — это состояние физической системы «светофор», которому присваивается смысл символа «запрет». Буква, отпечатанная типографским способом на листе бумаги, — это тоже определенное состояние физической системы включающей в себя молекулы веществ, из которых состоит бумага, и молекулы веществ, из которых состоит краска. Каждая буква есть не что иное, как определенное геометрическое расположение молекул краски, что в принципе ничем не отличается от расположения бильярдных шаров на столе.Итак, единственная возможность получать и передавать информацию состоит в том, чтобы использовать физическую систему— посредник (такую систему называют также носителем), и каждому физическому состоянию носителя ставить в соответствие символ с определенным смыслом. Например, состоянию системы: бумага — краска, характеризуемому тем, что молекулы краски расположены вдоль эллипса, ставится в соответствие буква (символ) О. Но предположение о непрерывном изменении энергии или других физических величин, значения которых могут быть восприняты получателем, сразу приводит к возможности реализовать бесконечное число различных состояний такой системы, то есть бесконечное число символов. А отсюда следует, что физическая система может содержать и передавать бесконечное число информации за конечный интервал времени.Но любая теория, которая оперирует лишь с бесконечными величинами, совершенно бессмысленна. Поэтому, оставаясь в рамках теории Шеннона, мы вынуждены точно так же, как это сделал в свое время М. Планк, предположить, что любая величина, отдельные значения которой характеризуют состояние физической системы, может изменяться лишь скачками и, следовательно, в пределах конечного интервала принимать лишь конечное число возможных значений.Здесь следует сделать такое замечание. Мы пока не высказались по поводу универсальности и даже справедливости теории Шеннона. На данном этапе можно лишь предположить, что теория Шеннона, по всей вероятности, справедлива и удобна для описания информационных процессов в термодинамических, то есть массовых вырожденных системах. Оба свойства, массовость (большое количество составляющих элементов) и вырожденность (независимость от индивидуальности каждого элемента), имеют самое существенное значение.Однако уже на данном этапе рассмотрения мы неизбежно приходим к выводу, что главную роль в информационных процессах играет свойство различимости. Двум состояниям мы можем ставить в соответствие различные символы только в том случае, если они различимы, то есть имеется хотя бы принципиальная возможность выполнять последовательность действий, приводящую к установлению различия между этими состояниями. Соотношение неточностей Гейзенберга устанавливает, что отличить одно состояние от другого можно лишь в том случае, если характеризующие эти состояния значения отличаются друг от друга больше, чем на величину постоянной Планка, Следовательно, постоянная Планка играет в теории информации не меньшую роль, чем в других отраслях физики.