Алгоритм. Определение из словаря: «под алгоритмом понимают последовательность точно описанных операций, выполняемых в определенном порядке. Примерами алгоритма могут служить точно установленные предписания решения математических, логических, физических и всяких других задач, когда эти задачи являются заведомо решаемыми». Мы примем несколько более общее определение. Алгоритм – это некоторая последовательность действий над материальными объектами или системами, выстроенная в причинно-следственную цепь. Примерами алгоритма могут служить последовательности реальных действий. «Взял лопату правой рукой пониже по рукоятке, правой, за конец рукоятки, сориентировал лопату для копки земли, надавил правой ногой на её рабочий элемент, лопата врезалась в землю, вывернул и перевернул полученный ком земли, повторил все операции и так до тех пор, пока не вскопаешь заданный участок огорода». Алгоритмы могут быть циклическими. Циклы работ многих машин. Например, последовательность движения деталей швейной машины или двигателя внутреннего сгорания.

Понятие «цикл» отличается от алгоритма меньшей определенностью. В нем часто не определена четкая последовательность отдельных действий. Возможна путаница. Например, водоворот то же цикл, но не алгоритм. Поэтому мы, где только возможно, будем называть циклы алгоритмами, уточняя, каждый раз, последовательность отдельных явлений, которые эти «циклы» образуют.

Система. Установившегося описания этого термина нет, хотя интуитивно ясно, что в реальной природе это совокупность, соединение отдельных материальных элементов, взаимодействующих друг с другом во времени. Этим определением мы и будем в дальнейшем пользоваться. Следует особо отметить материальность элементов и связей системы. Например, термодинамическая система – множество молекул газов соударяющихся друг с другом; солнечная система – планеты и Солнце, связанные силами гравитации; биологические системы (организмы) и т.д. В разумном мире понятие системы неоднозначно, есть системы правил, нормы и законы общества, языки и т.п. Такие системы назовем абстрактными. Но в действительности все эти понятия описывают связи между материальными объектами (людьми). Связи между элементами системы могут изменяться со временем по интенсивности или качеству, то есть по изменению сущности (например, переключение). И сами системы не могут, конечно, существовать вне времени. В конечном итоге, всё их существование сводится к движению материи, в философском, материальном смысле этого слова.

Размеры, границы системы иногда не вполне однозначны, т.е. интересующая нас система может быть выделена из внешней среды при помощи некоторых правил с пренебрежением слабыми или медленно меняющимися связями. Организм, автомобиль – четко выделенные в пространстве системы, но телефонная сеть (материальная часть) неопределенна в пространстве. Но правила ее выделения из окружающей среды, ограничения, очевидно существуют. Часто систему искусственно выделяют из окружающей среды, из более общей системы. Например, отдельный человек – вполне конкретная и ограниченная система, которую можно изучать отдельно от внешней среды, но ясно, что без этой среды он существовать не может; в этом случае он есть подсистема.

По мере накопления человечеством знаний об окружающем нас мире всё время подтверждается факт, что не существует полностью изолированной от внешней среды системы. Но есть системы очень слабо связанные друг с другом, поэтому мы далее будем использовать термин «система», имея в виду, что она всегда связана с более общей системой, является открытой. Отметим, что часто внутренние закономерности, возникающие в сложных системах и действующие во времени, есть цепи причинно-следственных явлений, функционирование, т.е. алгоритмы.

К определению системы можно добавить её существенное свойство – она имеет «входы» и «выходы», через которые обменивается с внешней средой (также системой) веществом и энергией, которые, в частности, могут быть сформированы во времени в виде потоков информации.

Информация . Этот термин также толкуется по разному смыслу, поэтому придется определить его в удобной для нас форме (Не более того, так как нет ни сил, ни желания вступать в терминологические споры по поводу этого понятия).

Информация, это вид взаимодействия между системами, вид изменяющейся во времени связи. При этом между системами всегда передается вещество или энергия.

Информация имеет следующие свойства:

1. Выражается количественно в виде числа последовательных воздействий одной системы на другую (сигналов). Числа, определяющие количество информации, принято показывать в двоичной системе исчисления (биты).

2. Имеет качество, которое определяется по степени воздействия на систему, принимающую информацию.

3. При наличии памяти во взаимодействующих системах информация может накапливаться (запоминаться), изменяя энтропию (см. ниже) и качество вновь поступающей информации.

4. Воздействие на систему может носить спусковой (сигнальный) характер, когда изменения в системе происходят за счет не относящегося к сигналу внутреннего или внешнего источника энергии – действие информации усиливается внутри системы. Дело в том, что иногда внешние сигналы очень слабы, но весьма существенны для получающей информацию системы.

Более подробно об этих свойствах информации надо сказать следующее.

Количество информации обычно выражается в виде какого-нибудь кода (языка). Наиболее простым оказывается двоичный код (ряд нулей и единиц), при помощи которого можно выразить любую информацию. То есть любую информацию можно преобразовать в двоичный код. Если, конечно, предварительно договориться о правилах преобразования.

Отметим, что в данном определении количество информации не обязательно характеризует устройство, сложность, структуру системы, а является только специфическим видом описания связей между системами, т.е. в принципе нельзя сказать, что, чем более качественно и количественно сложней система, тем больше информации в ней «заключено». Последнее слово имеет в виду длину описания данной системы. В обыденной жизни совершенно ясно, что если мы будем описывать некую систему, например, для того, чтобы по нашему описанию ее смогли повторить (создать, изготовить и т.п.), то наше описание будет тем длиннее, чем сложнее система. Но здесь важны границы описания – изложить только то, что необходимо, не продолжая описания, например, вплоть до устройства атомов. Затем, важно кому предназначается это описание и множество других условий. По сути, мы опишем только связь между двумя системами, например, между конструкторским бюро и заводом по производству самолетов. Предлагать эту информацию бедуинам, кочующим по Сахаре, бесполезно. Они не поймут этого описания. Или разговор двух человек, не знающих языка друг друга, по телефону. Много бит информации будет передано по каналу связи, но об описании чего бы то, ни было можно и не упоминать.

Количество информации не зависит однозначно от степени сложности получающих и передающих её систем.

Качество информации – одно из наиболее важных её свойств. Это видно из следующего примера. Прочитав в газете, что некоем вооруженном конфликте погибли люди, Вы получаете информацию, почти не влияющую на Вас. Но если среди этих людей оказались Ваши близкие, то это совсем другое качество, тем более, если среди погибших оказались Вы сами (правда, в этом случае прочитать газету будет некому). Качество информации, очевидно, зависит от устройства, организации взаимодействующих систем – их элементы и связи должны иметь более или менее одинаковую структуру. «Системы должны понимать друг друга, быть настроенными в унисон».

Измерять качество информации можно безразмерным числом, которое характеризовало бы изменение состояние, структуру, функционирование системы (энтропию) скачком. Например, качество равно нулю – после передачи информации системы никак не изменились; качество равно бесконечности или очень большому числу – система разрушается неким источником энергии, внутренним или внешним. Причем энергия переданная системе при получении информации может быть очень мала по сравнению с этим источником. Отметим, что качество информации взаимодействия между системами зависит от времени. Это ее свойство связано с памятью и сложностью систем, способностью их обучаться. Например, сто пятьдесят лет назад ранение в живот означало для человека верную смерть – для него качество информации о пуле в животе было равно бесконечности. Сейчас это ранение, в большинстве случаев, не опасно для жизни; качество информации об этом ранении, конечно, очень велико, но не бесконечно.

Влияние на количество и качество передаваемой информации, как видно из приведенных примеров, существенно зависит от многих параметров и характеристик взаимодействующих систем, в частности от объема и устройства памяти, наличия и четкости работы обратных связей, дискретных спусковых устройств и т.п.

Взаимодействие поступающей в систему информации и памяти вызывает более или менее глубокую перестройку структуры этой системы, например, создается возможность передачи этой информации на выходы – в окружающую среду (другим системам). Поступление и выдача информации могут выражаться в виде совершенно разных физических параметров, т.е. в принципе нельзя сказать об информации, как об особой субстанции, как, например, материя и энергия. Так что информация только изменяет структуру памяти системы – вполне материального объекта. Например, мозг получил на входе информацию голосом: «Убегай!». Но на выходе, – быстрое движение ногами, прочь от этого места.

В частном случае, можно представить систему, которая выдает ту же информацию, что и получает, но через некоторое время. Говорят, что информация хранилась в системе. По смыслу наших определений этот процесс выглядит так. Информация перешла в память системы через систему входов в соответствии с порядком и амплитудой получаемых энергетических воздействий, и в ней произошли дискретные изменения структуры. Для этой дискретности существует некий порог действия внешних возмущений, когда они не могут изменить структуру памяти. Например, таким возмущением являются тепловые движения молекул, которые всегда есть и достаточно интенсивны. Другой пример – включение электрического светильника. Выключатель требует определенного усилия для включения, и сам не выключится. Требуется опять значительное усилие. Так и с памятью.

Но через некоторое время она может оказаться перед «считывающей» системой, которая тем или иным способом «чувствует» положение элементов памяти, последовательно их «ощупывая» («просматривая» и т.п.). Это считывание обычно не влияет на сохранность информации.

Термин «хранение информации» нельзя понимать буквально, иначе мы вынуждены будем признать, что в памяти хранится нечто нематериальное. Некое духовное Начало. Но, как видим, все объясняется на уровне материализма. И в дальнейшем мы будем говорить о хранении информации в памяти систем, так как такова сложившаяся традиция, но всегда будет подразумеваться только то, о чем мы рассуждали выше.

Последнее свойство информации («сигнальный характер») существенно отличает ее от обычного, например, силового взаимодействия. Связи между системами, всегда материальны, но при этом оказывается, что изменения в системах, вызванные поступлением информации не соответствуют количеству передаваемой при этом энергии. Очень часто небольшое воздействие на систему приводит к ее резкой реакции, осуществляемой за счет внутренних ресурсов энергии.

Именно в этом аспекте исторически выделилось понятие информации, как чего-то материально несущественного, но весьма ценного для системы. Понятно, что одна и та же информация воздействует (или не воздействует) на различные системы по-разному, или на туже систему, но в разное время. Поэтому нельзя провести резкой границы между информацией и силовым (энергетическим) воздействием, т.е. информация передается при любом взаимодействии: соударение молекул в термодинамической системе, разрушение здания авиабомбой, прием радиосигнала телевизором, чтение книги и т.п.

Энтропия. Прежде всего, следует разобраться с понятиями: порядок и беспорядок в природе, так как они являются образующими для определения энтропии. Начнем с примеров. Если взять некоторое количество вещества, то интуитивно кажется, что порядок будет выше, если атомы, из которых состоит это вещество, соберутся в кристалл, чем если бы они оказались в виде жидкости или газа. Произвольно перемешанные в ящике разноцветные шары также соответствуют понятию беспорядка, но могут быть уложены отдельно, по цвету; буквы в виде слов создают определенный порядок, позволяющий понимать написанное и т.д.

Эти примеры показывают на относительность интуитивного понятия порядка. Действительно, в первом примере, кристаллы твердого тела, даже для одного вещества, могут иметь различную форму (морозные узоры на окнах) – в каком случае порядок больше? Шары в ящике можно уложить по некоторой закономерности – будет ли выше порядок? И здесь нет количественного выхода, так как невозможно численно выразить отличие этих двух состояний.

Поэтому количественную меру неопределенности состояния системы (беспорядка) – энтропию вычисляют только как разность для двух близких состояний системы, которые связаны так, что вероятность второго из них при осуществлении первого может быть вычислена практически.

Для направления отсчета принято, что энтропия принимает максимальное значение при полном хаосе. Представить себе это состояние невозможно, так же как и нуль энтропии – состояние порядка при максимальной сложности.

Универсальность энтропии обусловлена самой сущностью этого понятия, связанного с вероятностью всех возможных состояний системы. Например, неопределенность существует при передаче информации по каналам связи, при определении конкретного состояния некоторого физического объекта (здоровья, технического состояния и т.п.), в термодинамике и статистической физике. Энтропия сигнала, посланного по линии связи, будет больше на том её конце, где информация принимается. Так как в процессе его прохождения по линии обязательно возникнут помехи, которые создадут неопределенность. Сигнал может быть понят принимающей системой лишь с некоторой вероятностью.

В термодинамике энтропия есть функция данного состояния системы, определяемого известными параметрами (давлением, температурой и проч.).

Энтропия не есть явление или субстанция, а лишь вероятностная мера неопределенности состояния системы. Поэтому такие термины, как «генерирование энтропии», «негаэнторопия» неестественны и часто связаны с плохим переводом иностранных статей и книг.

Далее следуют просто копии толкований перечисленных ниже терминов, взятых из Википедии. Он приведен здесь для удобства чтения бумажной формы этой книжки, когда нет немедленного доступа к Интернету.

ФИЗИКА

Диполь – электрический, совокупность двух равных по абсолютной величине разноимённых точечных зарядов, находящихся (закрепленных) на некотором расстоянии друг от друга.

Детерминизм – абсолютная, строгая взаимосвязь и взаимообусловленность всех происходящих процессов и явлений.

ХИМИЯ

М алоновая кислота (пропандиовая, метандикарбоновая кислота) НООССН2СООН – двухосновная предельная карбоновая кислота. Обладает всеми химическими свойствами, характерными для карбоновых кислот. Соли и сложные эфиры малоновой кислоты называются малонатами.

БИОЛОГИЯ

Ганглий, или нервный узел – скопление нервных клеток, состоящее из тел, дендритов и аксонов нервных клеток и глиальных клеток. Обычно ганглий имеет также оболочку из соединительной ткани. Имеются у многих беспозвоночных и всех позвоночных животных. Часто соединяются между собой, образуя различные структуры (нервные сплетения, нервные цепочки и т. п.).

Нейроглия, или просто глия – совокупность вспомогательных клеток нервной ткани. Составляет около 40 % объёма центральной нервной системы (ЦНС). Количество глиальных клеток в среднем в 10-50 раз больше, чем нейронов. Глиальные клетки составляют специфическое микроокружение для нейронов, обеспечивая условия для генерации и передачи нервных импульсов, а также осуществляя часть метаболических процессов самого нейрона. Нейроглия выполняет опорную, трофическую, секреторную, разграничительную и защитную функции.

Рецептор (сенсор, датчик) – Здесь расширенное понятие, которое имеет в виду некое образование, которое воспринимает первоначальное воздействие внешней среды на некоторую систему. В организмах, это органы чувств, в машинах, датчики температуры, давления и проч.

Эффектор (например, мышцы) – органы или системы органов, реагирующие на действие внешних или внутренних раздражителей и выступающие в роли исполнительного звена.

Фермент – катализатор биологических реакций. Обычно обладают большой специфичностью, т.е. действуют только на один вид химической реакции.

Нуклеотиды – (нуклеиновые кислоты) как и белки, необходимы для жизни. Они представляют собой генетический материал всех живых организмов вплоть до самых простых вирусов. Название «нуклеиновые кислоты» отражает тот факт, что локализуются они главным образом в ядре живой клетки(nucleus – ядро). Молекула нуклеотида состоит из трех частей – пяти углеродного сахара, азотистого основания и фосфорной кислоты.

Хромосомы – нуклеопротеидные структуры в ядре клетки, в которых сосредоточена бо́льшая часть наследственной информации и которые предназначены для её хранения, реализации и передачи потомкам.

Репликон – участок ДНК или РНК, реплицирующийся из одной точки начала репликации. Во время жизни организма продуцируется множество белков. При этом информация считывается с ДНК. Для этого специальные ферменты раздвигают нити молекулы, образуется репликон, и с одной из них считывается необходимая информация, которая при помощи специфических молекул РНК доставляется к месту синтеза белка.

Репликация – это процесс, под которым понимается точное копирование данных из одного источника на другой.