Многие из тех, кто начинал заниматься кибернетикой как в Советском Союзе, так и за рубежом, видели суть спора в двух вопросах: "Может ли машина мыслить?" и "Можно ли рассматривать кибернетические механизмы как живые?" Сводить все споры кибернетики к этим двум вопросам значило бы обеднить интеллектуальное содержание дискуссий, тем не менее эти вопросы серьезно обсуждались большинством кибернетиков и сыграли важную роль в советских дискуссиях на эту тему. Сам Винер был достаточно осторожным в этих вопросах, но даже он чувствовал, что в свете кибернетических исследований могут стать необходимыми некоторые новые определения "жизни". Он отметил, что живые организмы и неорганические кибернетические системы подобны, так как и те и другие являются островками уменьшающейся энтропии в мире, где беспорядок имеет тенденцию возрастать. Он заметил, что "проблема, является машина живой или нет, в данном случае представляет собой семантическую проблему, и мы вправе разрешить ее то так, то иначе, в зависимости от того, как нам будет удобнее"1. Вопрос о том, являются ли машины "живыми", конечно же не идентичен вопросу о том, могут ли они "мыслить", но ответы Винера были сходными; он отмечал, что вопрос о том, могут ли машины мыслить, зависит от определения этого понятия. Будучи более точно выраженной, проблема мышления машин обычно ставится так: "Выполняют ли компьютеры функции, лишь аналогичные мышлению, или эти функции структурно идентичны мышлению?" Формулируя этот вопрос таким образом, английский логик А. М. Тьюринг был готов признать возможность думающих машин. Он верил, что машину можно рассматривать как мыслящую, если человек, отделенный от нее непрозрачной перегородкой, будет задавать .ей вопросы и не сможет по полученным ответам определить, имеет ли он дело с машиной или с другим человеком2.
1 (Винер Н. Кибернетика и общество. С. 44.)
2 (Turing A. M. Computing Machnery and Intelligence // Mind. 1950. Oct. Vol. 56. P. 434.)
Некоторые из советских ученых, которые первыми поддержали кибернетику, такие, как Кольман и Берг, позже предупреждали против представления о мыслящих машинах; они признавали лишь некоторое сходство по аналогии между функциями машины и мышлением. Таким образом, отмечал Кольман: "Кибернетические машины, даже самые совершенные, моделирующие сложнейшие логические процессы, не думают, не образуют понятий"1. Берг выражался еще более недвусмысленно: "Мыслят" ли электронные машины? Я уверен, что нет. Машины не мыслят и не будут мыслить"2. Эти взгляды поддержал Тодор Павлов, почетный президент Академии наук Болгарии, который писал: "И самая сложная машина-автомат не ассимилирует, не ощущает, не помнит, не мыслит, не фантазирует, не мечтает, не ищет и т. д."3.
1 (Кольман Э. Кибернетика ставит вопросы // Наука и жизнь. 1961. № 5. С. 44.)
2 (Берг А. И. Наука величайших возможностей // Природа. 1962. № 7. С. 21.)
3 (Павлов Т. Автоматы, жизнь, сознание // Философские науки. 1963. № 1. С. 53.)
Теоретическое объяснение невозможности наличия сознания у компьютеров было тем же, что и у "Материалиста" в 1953 г. Материя на разных уровнях развития имеет качественные различия; придавать интеллектуальную силу механической совокупности транзисторов и контактов значило бы совершать механистическую ошибку, указывали критики, уверовав в то, что весь комплекс действий может быть редуцирован к комбинациям простейших элементов,- подобные представления отрицались их интерпретацией диалектического материализма. Они утверждали, что сложные организмы качественно отличаются от менее сложных и не могут быть сведены к одним и тем же составляющим.
Как в случае с проблемой определения кибернетики, к 1961 г. оказалось, что значительное согласие удалось достигнуть в том случае, когда решительно отвергалась возможность мыслящих машин, после чего энтузиасты кибернетики вновь вернулись к своим наиболее эффективным положениям. В одной из статей 1964 г., предваряемой лозунгом "Всего лишь автомат? Нет, мыслящее существо!", академик Колмогоров отмечал, что "точное определение таких понятий, как воля, мышление, эмоции, еще не удалось сформулировать. Но на естественнонаучном уровне строгости такое определение возможно... Принципиальная возможность создания полноценных живых существ, построенных полностью на дискретных (цифровых) механизмах переработки информации и управления, не противоречит принципам материалистической диалектики". Такие статьи встревожили некоторых гуманитариев, один из которых, Б. Бялик, написал статью под названием "Товарищи, вы это серьезно?", в которой он отказывался поверить тому, что машина может испытывать эмоции, оценивать искусство или обладать настоящим сознанием. Академик С. Л. Соболев, директор Института математики и Вычислительного центра Сибирского отделения АН СССР, ответил Бялику статьей под названием "Да, это вполне серьезно!". Это, наверное, была самая благосклонная статья советского ответственного автора, появившаяся в прессе Советского Союза. Соболев прямо называл человека кибернетической машиной и признавал возможность создания человеком других машин, которые были бы живыми, способными на эмоции и, возможно, совершеннее человека2.
1 (Колмогоров А. Автоматы и жизнь // Возможное и невозможное в кибернетике. М., 1964. С. 14, 22-23.)
2 (См.: Бялик Б. Товарищи, вы это серьезно?; Соболев С. Да, это вполне серьезно! // Возможное и невозможное в кибернетике.)
Хотя вопрос о возможности кибернетических устройств воспроизводить живые организмы остался спорным в Советском Союзе, положительный ответ на него не получил большой поддержки со стороны философов. Диалектический материализм мог и не отрицать специально возможность мыслящих машин, но антропоцентрическая или гуманистическая природа исторического материализма была настоящим препятствием для таких мнений. Согласно некоторым советским авторам, главное различие между человеком и машиной не техническое, а социальное. Как отметил Кольман, "те, кто утверждает, что человек - машина и что кибернетические устройства мыслят, чувствуют, имеют волю и т. п., упускают из виду прежде всего одну "мелочь" - исторический подход. Машины - это продукт общественно-трудовой деятельности человека"1. Это мнение было еще сильнее выражено Н. П. Антоновым и А. Н. Кочергиным: "Необходимо подчеркнуть, что трудится человек, а не машина. Можно сказать, что машина работает, но нельзя говорить, что она трудится... Она не может стать субъектом трудовой деятельности, потому что у нее нет и не может быть необходимости в труде, нет социальных потребностей, для удовлетворения которых надо трудиться. Это главное и принципиальное различие между машиной и человеком"2.
1 (Кольман Э. Чувство меры // Там же. С. 53.)
2 (Антонов И. П., Конергин А. Н. Природа мышления и проблема его моделирования // Вопросы философии. 1963. № 2. С. 42.)
Вопросом более важным, чем способность машины воспроизводить функции человека, был вопрос о моральной ответственности человека за действия его машины. Западные кибернетики в целом больше, чем советские коллеги, были озабочены возможными последствиями использования компьютеров. Когда Норберт Винер посетил в 1960 г. редакцию главного советского философского журнала "Вопросы философии" (где ему был оказан очень теплый прием), он заметил: "Если мы создадим машину... которая настолько умна, что в какой-то мере превосходит человека, то мы не сможем сделать ее полностью "послушной". Контроль над такими машинами может оказаться очень несовершенным... Подобные машины могут даже стать опасными, так как было бы иллюзией полагать, будто опасность устраняется просто в силу того, что это мы нажимаем кнопки. Человек, конечно, может нажать кнопку и остановить машину. Но, поскольку мы полностью не владеем всеми процессами, происходящими в машине, мы легко можем оказаться в неведении относительно того, когда следует нажать кнопку.
Программирование "думающих" машин ставит перед нами, таким образом, моральную проблему..."1
1 (Норберт Винер в редакции нашего журнала // Вопросы философии. 1960. № 9. С. 164-165.)
Беспокойство Винера было по-разному выражено другими кибернетиками, которые говорили о возможности диктаторского управления обществом посредством использования кибернетических машин, в то время как другие относились к компьютерам как к демону, который поработит своего хозяина1.
1 (Эшби, как и Винер, однажды сказал, что компьютеры в конце концов могут стать настолько сложными, что ни их конструктор, ни оператор не будут понимать, почему они выполняют те операции, которые они выполняют. См.: Ashby W. R. Design for a Brain. Эти взгляды остро критиковались советским автором: Араб-Оглы Э. А. Социология и кибернетика//Вопросы философии. 1958. № 5. С. 138-151.)
Эти пессимистические взгляды авторов из Западной Европы и Северной Америки в большинстве своем отвергались советскими исследователями. Как и философы, советские естествоиспытатели выражали, за редким исключением, оптимистические взгляды на науку. Если кто-нибудь из них, говоря словами Оппенгеймера, "познает грех" в результате своих исследований, они держат его при себе. Действительно, некоторые советские ученые говорили, что основная разница между человеком и машиной заключается в том, что человек ставит собственные цели, в то время как машина стремится лишь к тем, которые в нее закладываются. Если общество поощряет позитивные цели, говорили советские авторы, то и машинам этого общества будут задаваться достойные функции. Эти писатели предполагали, что кибернетики на Западе не уверены в капиталистическом обществе, а поэтому они не уверены в том, какие роли будут призваны играть их компьютеры.