1. Введение: шаткие основания когнитивной науки
На протяжение более чем десяти лет, а на самом деле, со времен зарождения этой дисциплины, я являюсь практикующим “ученым-конгинивистом”. За это время я наблюдал за чрезвычайно важной работой и прогрессом в этой области. Тем не менее, как дисциплина когнитивная наука страдает от того, что несколько из ее самых заветных основополагающих предположений ошибочны. Работать можно и на основании ошибочных предположений, но это создает излишние трудности. В этой главе я хочу разоблачить и опровергнуть некоторые из этих ложных предположений. Они вытекают из системы ошибок, которые я описал в первой и второй главах.
В когнитивной науке нет общего согласия относительно ее основополагающих принципов, но в основном ее направлении существуют определенные общие черты, заслуживающие того, чтобы их специально сформулировать. Будь я ученым-когнитивистом, принадлежащим общему направлению, я бы заявил следующее:
Когнитивная наука не интересуется непосредственно изучением как таковых мозга или сознания. Изучаемые нами когнитивные механизмы реализованы в мозге. Некоторые из них находят выражение в сознании, но нас интересует тот промежуточный уровень, на котором действительные когнитивные процессы являются недоступными для сознания. Хотя, по сути, будучи реализованными в мозге, они могли бы быть реализованы в неограниченном количестве технических устройств (hardware systems). Что касается мозга, то его роль несущественна. Процессы, объясняющие познание, по своей сути являются бессознательными. Например, правила универсальной грамматики Хомского (1986), правила зрения Марра (1982), или язык мысли Фодора (1975) не являются теми феноменами, которые могли бы стать осознаваемыми. Более того, все эти процессы являются вычислительными. Основное предположение, стоящее за когнитивной наукой, заключается в том, что мозг — это компьютер, и все мыслительные процессы являются вычислительными. Поэтому многие из нас полагают, что теория искусственного интеллекта (ИИ) (artificial intelligence (AI)) является сердцем когнитивной науки. Среди нас существуют споры относительно того, является ли мозг цифровым вариантом старой разновидности компьютеров фон Ньюмана или коннективным (connectionist) аппаратом. Некоторым из нас удается существенно преуспеть в этом вопросе, потому что мы считаем, что серийные процессы в мозге реализуются в параллельно работающей конвективной системе (например, Hobbs 1990). Но почти все мы соглашаемся с тем, что когнитивные мыслительные процессы являются бессознательными, что они, по большей части, в принципе бессознательны, а также, что они являются вычислительными.
Я не согласен ни с одним существенным утверждением, сделанным в предыдущем абзаце, и я уже критиковал некоторые из них в предыдущих главах, в особенности утверждение о том, что существуют глубинные бессознательные мыслительные процессы. Главной целью этой главы является критика некоторых аспектов концепции вычисления.
Я думаю, что невозможность этой исследовательской программы будет гораздо проще объяснить, если мы с самого начала обратимся к конкретному примеру: в теории ИИ большие надежды были возложены на программы, используемые в SOAR. Строго говоря, SOAR — это разновидность компьютерной архитектуры, а не программа, но программы, выполняемые в SOAR, рассматриваются как многообещающие примеры ИИ. Такая программа заложена в робота, способного по команде передвигать кубики. Так, например, робот отреагирует на команду “Возьми кубик и передвинь его на три интервала влево”. Для этого у него есть зрительные сенсоры и искусственные руки, и вся система работает, потому что она выполняет набор формальных символьных манипуляций, соединенных с преобразователями, которые получают входные данные от зрительных сенсоров и отсылают выходные данные к моторным механизмам. Но моя проблема заключается в том, как все это связанно с человеческим поведением. Мы, например, знаем много подробностей о том, каким образом человек осуществляет подобное в реальной жизни. Во-первых, он должен быть в сознании. Далее, ему необходимо услышать и понять порядок действий. Он должен сознательно видеть кубики, он должен решить выполнить команду, а затем он должен осуществить сознательное волевое интенциональное действие по перемещению кубиков. Заметьте, что все эти утверждения предполагают контрфактические высказывания: например, если нет сознания, то невозможно и передвижение кубиков. Также мы знаем, что все ментальное получает свою причину и объяснение в нейрофизиологии. Поэтому, прежде чем начать компьютерное моделирование, мы знаем, что существует два набора уровней, а именно: ментальные уровни, многие из которых осознаваемы, и нейрофизиологические уровни.
Так куда же здесь должны втиснуться формальные символьные манипуляции? Это фундаментальный основополагающий вопрос для когнитивной науки, но вы будете удивлены, насколько мало внимания ему уделяется. Для любой компьютерной модели решающим является вопрос: “В какой степени модель соответствует моделируемой реальности?” Но вам не удастся найти обсуждения этой темы, пока вы не прочитаете работы скептических критиков, таких как автор данной книги. Обычный ответ, нацеленный на избежание необходимости в более детальных и конкретных ответах, заключается в том, что между уровнем интенциональности человека (тем, что Ньюелл [1982] называет “уровнем знания”) и различными нейрофизиологическими уровнями существует промежуточный уровень формальной символьной манипуляции. Здесь мы задаемся вопросом: что это все могло бы значить с эмпирической точки зрения?
Если вы читаете книги о мозге (скажем, Shepherd 1983; или Bloom и Lazerson 1988), у вас создается некоторое представление о том, что происходит в мозге. Если вы обратитесь к книгам о вычислении (computation) (скажем, Boolos and Jeffrey), вы получите представление о логической структуре теории вычисления. Если вы затем обратитесь к книгам о когнитивной науке (скажем, Pylyshyn 1984), в них вам скажут, что книги о мозге описывают то же самое, что и книги о вычислении. Философски говоря, для меня это отдает чем-то неправильным, а я научился, по крайней мере, в начале исследования доверять своему чутью.
2. Сильная версия ИИ, слабая версия ИИ и когнитивизм
Основная идея компьютерной модели сознания заключается в понимании сознания как программы и мозга как технической реализации вычислительной системы. Часто встречаемый лозунг гласит: “Сознание относительно мозга — это все равно, что программа относительно вычислительной машины (hardware)”.
Начнем наше исследование этого утверждения с различения трех вопросов:
1 Является ли мозг цифровым компьютером?
2 Является ли сознание компьютерной программой?
3 Можно ли симулировать работу мозга на цифровом компьютере?
В этой главе я буду рассматривать вопрос 1, а не 2 или 3. В своих ранних работах (Searle 1980a, 1980b, 1984b), я дал отрицательный ответ на вопрос 2. Из того, что программы определяются лишь формально и синтаксически, а сознанию внутренне присуще ментальное содержание, с необходимостью следует невозможность обусловить сознание программой. Сам по себе формальный синтаксис не гарантирует наличия ментального содержания.Я продемонстрировал это десять лет назад в аргументе “китайской комнаты” (Searle 1980a). Компьютер, например я, мог бы выполнять шаги какой-нибудь программы ментальных способностей, например понимания китайского языка, не понимая и слова по-китайски. Аргумент основывается на простой логической истине, что синтаксис не то же самое, что семантика, и его не достаточно для семантики. Поэтому ответ на второй вопрос — это демонстративное “нет”.
Ответ на вопрос 3, по крайней мере, в его естественной интерпретации, кажется мне таким же демонстративным “да”. В естественной интерпретации это вопрос о том, существует ли такое описание мозга, в соответствии с которым было бы возможно вычислительное симулирование его работы. Но исходя из тезиса Чёрча о том, что все, что можно достаточно точно охарактеризовать набором шагов, можно также симулировать на цифровом компьютере, мы очень просто приходим к положительному ответу на этот вопрос. Работа мозга может быть симулирована на цифровом компьютере в том же смысле, как и изменение погоды, поведение нью-йоркской биржи или схема полетов воздушных судов над Латинской Америкой. Так что “Является ли сознание программой?” — это не наш вопрос. Ответ на него: “Нет”. Не нашим также является вопрос: “Можно ли симулировать работу мозга?” Ответом на него будет “да”. Наш же вопрос звучит так: “Является ли мозг цифровым компьютером?” И в целях нашего обсуждения я приравниваю его к вопросу: “Являются ли процессы в мозге вычислительными?”
Можно подумать, что интерес в этом вопросе по большей части пропадает, если вопрос 2 получает отрицательный ответ. То есть, можно подумать, что, если сознание не является программой, то нет никакого интереса в вопросе о том, является ли мозг компьютером. Но это не совсем так. Даже для тех, кто соглашается с тем, что сами по себе программы не обуславливают ментальные феномены, все же остается важным вопросом то, что, даже если сознание есть нечто большее, чем синтаксические операции цифрового компьютера, все равно, может оказаться, что ментальные состояния являются как минимум вычислительными состояниями, и что ментальные процессы являются вычислительными процессами, оперирующими с формальной структурой этих ментальных состояний. На самом деле, мне кажется, что эту позицию разделяет достаточно большое число людей.
Я не хочу сказать, что эта позиция полностью ясна, но ее суть — это что-то вроде следующего: на определенном уровне описания процессы в мозге являются синтаксическими, т.е. существуют, так сказать, “предложения в голове”. Они могут относиться не к английскому или китайскому языкам, а, скажем, к “языку мысли” (Fodor 1975). Как у всяких предложений у них есть синтаксическая структура и семантика или значение, и проблема синтаксиса может быть отделена от проблемы семантики. Проблема семантики — это то, как предложения в голове получают свое значение. Но этот вопрос может обсуждаться отдельно от вопроса о том, как функционирует мозг, перерабатывая эти предложения. Типичный ответ на второй вопрос таков: мозг работает подобно цифровому компьютеру, производя операции вычисления над синтаксической структурой предложений в голове.
Для строгости в терминологии сильной версией ИИ я называю мнение о том, что обладать сознанием — это то же, что обладать программой. Слабой версией ИИ является точка зрения, согласно которой процессы в мозге (ментальные процессы) могут быть симулированы вычислительно. Когнитивизмом же я называю рассмотрение мозга как цифрового компьютера. Эта глава о когнитивизме.
3. Начальная версия
Чуть ранее я привел предварительный вариант предположений основного направления в когнитивной науке. Теперь мне бы хотелось как можно яснее объяснить, почему когнитивизм все это время интуитивно казался привлекательным. Версия о соотношении между человеческим интеллектом и вычислением восходит по крайней мере к классической работе Тьюринга (1950) и, как мне кажется, является основанием когнитивизма. Я назову ее начальной версией:
Начнем с двух утверждений математической логики, а именно с тезиса Чёрча-Тьюринга и теоремы Тьюринга. Для наших целей формулировка тезиса Чёрча-Тьюринга такова: для любого алгоритма существует некая машина Тьюринга, способная выполнять этот алгоритм. В тезисе Тьюринга говорится, что существует универсальная машина Тьюринга, способная симулировать любую машину Тьюринга. Таким образом, если мы сложим эти два определения, то результатом будет то, что машина Тьюринга может выполнять любой алгоритм.
Хорошо, но почему этот вывод такой уж восхитительный? Дело в том, что у целого поколения молодых исследователей искусственного интеллекта начинали бегать мурашки по коже при одной мысли: а что если мозг — это и есть универсальная машина Тьюринга?
Ну а существуют ли объективные причины для предположения, что мозг мог бы быть универсальной машиной Тьюринга? Продолжим рассмотрение начальной версии:
Ясно, что некоторые ментальные способности людей являются алгоритмическими. Например, я могу сознательно производить деление столбиком, проходя через этапы алгоритма для решения задач с делением столбиком. Более того, этот процесс будет следствием тезиса Чёрча-Тьюринга и теоремы Тьюринга о том, что все, что алгоритмически может сделать человек, может также быть сделано и на универсальной машине Тьюринга. Например, я могу применить алгоритм, который я сам использую для деления в столбик, и на цифровом компьютере. В этом случае, в соответствии с описанием Тьюринга (1950), мы оба — я (человеческий компьютер) и механический компьютер — используем один и тот же алгоритм. Я это делаю сознательно, а механический компьютер — несознательно (nonconsciously). Теперь кажется разумным предположить, что может существовать целый набор таких же вычислительных ментальных процессов, происходящих в мозге неосознанно. А если так, то мы могли бы узнать, как работает мозг, симулируя эти самые процессы на цифровом компьютере. Таким же способом, каким мы получили компьютерное симулирование процессов для осуществления деления в столбик, мы могли бы получить компьютерное симулирование процессов понимания языка, зрительного восприятия, категоризации и т. д.
“Ну а как же быть с семантикой? В конце концов, программы лишь синтаксичны”. Здесь в начальной версии в игру вступает другой набор логико-математических доводов:
Развитие теории доказательства (proof theory) показало, что с учетом некоторых общеизвестных ограничений семантические отношения между утверждениями могут быть полностью отражены синтаксическими отношениями между предложениями, выражающими эти утверждения. Теперь, если мы допустим, что ментальное содержимое в голове выражено синтаксически, то для объяснения ментальных процессов нам надо будет объяснить лишь вычислительные процессы между синтаксическими элементами, находящимися в голове. Если теория доказательства окажется верной, то рассматривать семантику не придется. Именно этим занимаются компьютеры: они применяют теорию
Таким образом, мы имеем четко определенную программу исследования. Мы пытаемся разыскать программы, реализуемые в мозге, путем программирования компьютеров для выполнения таких же программ. Мы делаем это поочередно: сначала добиваясь соответствия между механическим компьютером и человеческим компьютером (для соответствия системе Тьюринга), а затем с помощью психологов ищем доказательства тому, что внутренние процессы одинаковы в двух разновидностях компьютеров.
Я бы попросил читателя держать в уме эту начальную версию при чтении всего нижеследующего. Особенно обратите внимание на различение Тьюрингом сознательного выполнения программы человеческим компьютером и несознательным выполнением программы мозгом или механическим компьютером. Также обратите внимание на мысль о том, что нам, возможно, удастся разыскать программы, применяемые в природе, и они будут теми же программами, которые мы загружаем в наши механические компьютеры.
Если почитать книги и статьи в поддержку когнитивизма, то можно отыскать некоторые общие предположения, порой не сформулированные, но, тем не менее, распространенные.
Во-первых, очень часто предполагается, что единственной альтернативой взгляду на мозг как на цифровой компьютер является некая форма дуализма. Я рассмотрел причины подобной категоричности в главе II. Риторически говоря, идея здесь заключается в том, чтобы принудить читателя думать, что если он не согласится с идеей о том, что мозг — это некая разновидность компьютера, то тогда он неизбежно обречен на сомнительные ненаучные взгляды.
Во-вторых, также предполагается, что вопрос, являются ли процессы в мозге вычислительными, это эмпирический вопрос. Он должен разрешиться с помощью фактического исследования так же, как фактически разрешились вопросы относительно того, является ли сердце насосом и осуществляют ли зеленые листья фотосинтез. Здесь нет места логическому разбору или концептуальному анализу, т.к. в данном случае мы имеем дело с неотвратимым научным фактом. В самом деле, я думаю, что многие люди, работающие в этой области, усомнятся в том, что вопрос, который я здесь ставлю, вообще является адекватным философским вопросом. Вопрос “Является ли мозг на самом деле цифровым компьютером?” для них не более философский, чем вопрос “Является ли ацетилхолин на самом деле нейропроводни-ком в нейромускульных соединениях?”
Даже люди, не являющиеся сторонниками когнитивизма, такие как Пенроуз (1989) и Дрейфус (1972), по всей видимости, считают этот вопрос полностью фактическим. Их, по-видимому, не беспокоит то, каким является утверждение, в котором они усомнились. Я же озадачен вопросом: какой факт, относящийся к мозгу, мог бы привести к выводу о том, что он является компьютером.
В-третьих, еще одной стилистической особенностью подобной литературы является спешка и даже порой небрежность, с которой приукрашиваются основополагающие вопросы. Каковы конкретно анатомические и физиологические особенности обсуждаемого мозга? Чем точно является цифровой компьютер? И как должны быть связаны ответы на эти два вопроса? Обычный подход в подобных книгах и статьях заключается в приведении нескольких замечаний относительно нулей и единиц и общего изложения тезиса Чёрча-Тьюринга, а затем следуют более восхитительные вещи, как, например, компьютерные достижения и неудачи. К своему удивлению, читая эту литературу, я обнаружил один характерный философский пробел. С одной стороны у нас есть изящный набор математических утверждений, начиная с теоремы Тьюринга и заканчивая тезисом Чёрча о теории рекурсивного действия. С другой стороны у нас есть впечатляющий комплект электронных приспособлений, которые мы каждый день используем. Поскольку у нас такая продвинутая математика и такая хорошая электроника, мы предполагаем, что кто-то каким-то образом уже сделал за нас основную философскую работу по соединению математики с электроникой. Но, по-моему, дело обстоит совсем не так. Наоборот, мы пребываем в особой ситуации, когда среди практиков не существует общего теоретического согласия относительно абсолютно фундаментальных вопросов, как-то: Чем точно является цифровой компьютер? Чем точно является символ? Чем точно является алгоритм? Чем точно является вычислительный процесс? При каких точно физических условиях две системы выполняют одну и ту же программу?
4. Определение вычисления
Так как относительно фундаментальных вопросов нет общего согласия, мне кажется, будет лучше всего обратиться к самим источникам, к первоначальным определениям Алана Тьюринга.
По Тьюрингу, машина Тьюринга может выполнять определенные элементарные операции: на своей ленте она может переписать 0 на 1, может переписать на своей ленте 1 на 0, она может сдвинуть ленту на одно деление влево или же на одно деление вправо. Она управляется программой, состоящей из инструкций, где каждая инструкция определяет условия выполнения задания и само задание, если позволяют условия.
Таково стандартное определение вычисления, которое может оказаться несколько обманчивым, если понимать его буквально. Если вы вскроете стоящий у вас дома компьютер, то вы вряд ли обнаружите в нем нули, единицы или ленту. Но для определения это не имеет особого значения. Чтобы обнаружить, что предмет действительно является цифровым компьютером, нам, выходит, не нужно собственно искать нули, единицы и т.п.; нам скорее следует искать что-то, что мы могли бы трактовать как или считать за или использовать как функцию нулей и единиц. Кроме того, дело усложняется еще больше, т.к. выходит, что такую машину можно сделать практически из чего угодно. Как говорит Джонсон-Лэирд: “Ее можно сделать как счеты из костяшек и прутков, из гидравлической системы, по которой течет вода, ее можно сделать из транзисторов, закрепленных на силиконовом чипе, через который проходит электрический заряд, она также может быть воспроизведена и мозгом. В каждой из этих машин используются разные агенты для изображения бинарных символов. Расстановка костяшек, наличие или отсутствие воды, уровень напряжения и, быть может, нервные импульсы” (Johnson-Laird 1988, стр.39).
Похожие замечания делаются большинством людей, пишущих на эту тему. Например, Нед Блок (1990) показывает, как мы можем получить электрическую систему, в которой единицы и нули будут приписываться уровням напряжения в 4 и 7 вольт соответственно. Нам может показаться, что теперь нужно отыскивать уровни напряжения. Но Блок говорит нам, что единица лишь “конвенционально” приписывается определенному уровню напряжения. Ситуация становится еще более загадочной, когда он сообщает, что нам вообще не обязательно электричество, и что мы можем использовать сложную систему из кошек, мышей и сыра, чтобы устроить нашу систему таким образом, что находящаяся на привязи кошка, пытаясь вырваться, тем самым будет открывать элемент системы, который мы также сможем рассматривать как 0 или 1. Блок настойчиво пытается донести до нас то, что “техническая реализация совершенно не важна для вычислительной дескрипции. Эти системы работают по-разному, но они, тем не менее, вычислительно эквивалентны” (стр. 260). В том же русле Пилишин утверждает, что вычислительная последовательность может быть реализована в “стае голубей, приученных клевать так, чтобы это отвечало требованиям машины Тьюринга!” (1984, стр. 57).
Но теперь, если мы пытаемся серьезно воспринять идею о мозге как цифровом компьютере, мы сталкиваемся с неприятным выводом о том, что мы можем из чего угодно создать систему, которая будет делать то же, что и мозг. С этой точки зрения, выражаясь языком вычисления, “мозг”, способный работать как мой или ваш, можно создать из кошек, мышей и сыра или из прутков или водопроводных труб или еще чего-нибудь, с тем условием, что обе системы будут, как говорит Блок, “вычислительно эквивалентны”. Вам просто потребуется слишком много кошек, голубей, водопроводных труб или чего-либо другого. Защитники когнитивизма заявляют об этом выводе с полным и не скрытым удовлетворением. Но им следовало бы побеспокоиться, и я попытаюсь показать, что этот вывод — всего лишь вершина целого айсберга проблем.
5. Первое затруднение: синтаксис внутренне не присущ физическим свойствам
Почему же такая множественная применимость не смущает сторонников концепции вычисления? Ответ заключается в том, что они думают, что одна и та же функция может быть реализована многими способами. В таком случае компьютеры очень похожи на карбюраторы и термостаты. Если карбюратор можно сделать из латуни и стали, то тогда и компьютер можно сделать из неограниченного числа производственных материалов.
Но здесь существует разница: классы карбюраторов и термостатов определяются в терминах производства физических последствий. Именно поэтому никто не скажет, что карбюратор можно сделать из голубей. Класс же компьютеров определяется синтаксически в терминах приписывания нулей и единиц. Возможность различной реализации — это следствие того, что соотносимые свойства являются чисто синтаксическими, а не того, что один и тот же физический результат может быть получен с применением различных физических веществ. В данном случае единственная причастность физических свойств заключается в том, допускают ли они приписывание нулей и единиц и перехода между ними.
Это влечет за собой два гибельных следствия:
1 Принцип, предполагающий возможность различной реализации, должен также предполагать и возможность универсальной реализации. Если вычисление определяется заданием синтаксиса, то все что угодно может считаться цифровым компьютером, т. к. любой объект может стать предметом синтаксического приписывания. Нулями и единицами можно описать все.
2 Еще хуже то, что синтаксис не является внутренне присущим физике. Приписывание синтаксических свойств всегда зависит от агента или наблюдателя, трактующего физические явления синтаксически.
Так чем же, собственно, эти следствия гибельны?
Нам хотелось узнать, как работает мозг, и особенно как он производит ментальные явления. Но мы не ответим на вопрос, если скажем, что мозг является цифровым компьютером в том же смысле, в каком им является желудок, печень, сердце, солнечная система и штат Канзас. По нашей модели мы должны были найти какой-нибудь факт относительно работы мозга, который показал бы нам, что мозг — это цифровой компьютер. Нам хотелось узнать, можно ли говорить о мозге как компьютере так же естественно, как и о том, что зеленые листья осуществляют фотосинтез, а сердце перекачивает кровь. Нельзя сказать, что мы “конвенционально” приписываем сердцу слово “насос”, а листьям слово “фотосинтез”. Имеет место реальный факт. Наш вопрос заключается в следующем: “Существует ли реальный факт, делающий мозг цифровым компьютером?” Сказать, что мозг — это цифровой компьютер, потому что все что угодно — цифровой компьютер, значит не ответить на вопрос.
Исходя из хрестоматийного определения вычисления сложно сказать, как можно избежать следующих выводов:
1. Для любого предмета существует такое его описание, в соответствии с которым этот предмет можно рассматривать как цифровой компьютер.
2. Для любой программы или для любого достаточно сложного предмета, существует такая дескрипция, в соответствии с которой предмет выполняет эту программу. Так, например, стена за моей спиной сейчас выполняет программу Wordstar, потому что есть некая структура молекулярного движения, изоморфная формальной структуре программы Wordstar. Таким образом, если стена выполняет программу Wordstar, то если она будет достаточно большой, то сможет выполнять любую программу, включая любую программу, выполняемую мозгом.
Мне кажется, что главная причина, почему защитники когнитивизма не усматривают проблемы в возможности множественной или универсальной реализации, заключается в том, что они не рассматривают ее как следствие более глубокой проблемы, а именно того, что “синтаксис” не является таким же физическим свойством, как масса или сила тяжести. Они же, наоборот, рассуждают о “синтаксических двигателях” (“syntactical engines”) и даже семантических двигателях (“semantic engines”) как о бензиновых или дизельных двигателях, будто является реальным фактом то, что мозг или что угодно еще — это синтаксический двигатель.
Я думаю, что проблема возможной универсальной реализации не является серьезной проблемой. Мне кажется, что вполне возможно предотвратить универсальную реализуемость как следствие, если дать понятию вычисления более строгое определение. Мы, конечно, должны учесть то, что программисты и инженеры рассматривают универсальную реализуемость как искажение изначальных определений Тьюринга, а не как действительное следствие вычисления. В неопубликованных работах Брайана Смита, Винода Гоеля и Джона Батали говорится о том, что более реалистическое определение вычисления будет акцентировать такие свойства, как каузальные связи между состояниями программы, возможность программирования и контроля за механизмом и его расположение в реальном мире. Результатом всего этого будет то, что подобной схемы недостаточно. Должна существовать каузальная структура, способная снять гарантированные контрфактические высказывания. Но в настоящей дискуссии подобные ограничения определения вычисления не помогут, потому что глубинная проблема заключается в том, что синтаксис по своей сути является понятием, зависящим от наблюдателя (observer relative). Возможность множественной реализации вычислительно эквивалентных процессов в разных физических средах указывает не только на то, что эти процессы абстрактны, но и на то, что они вообще внутренне не присущи данной системе. Они зависят от внешнего истолкования. Мы ищем реальные факты, способные сделать процессы в мозге вычислительными, но, исходя из данного нам определения вычисления, таких фактов просто не может быть. С другой стороны, мы не можем сначала сказать, что все что угодно может быть цифровым компьютером, если только мы припишем ему синтаксис, а затем вопрос о том, является ли или нет цифровым компьютером некая естественная система, такая как мозг, считать вопросом о факте, внутренне присущем фактическим операциям этой системы.
То же самое можно постулировать, и не употребляя слово “синтаксис”, если оно вводит в заблуждение. Другими словами, кто-нибудь мог бы возразить, сказав, что понятия “синтаксис” и “символы” — это всего лишь обороты речи, и что нас на самом деле интересует существование систем с дискретными физическими явлениями и установление переходов между этими явлениями. С этой точки зрения мы не нуждаемся в нулях и единицах как таковых, они используются лишь для удобства. Но это, как мне кажется, тоже не выход. Физическое состояние системы будет считаться вычислительным только относительно приписывания этому состоянию некой вычислительной роли, функции или интерпретации. С исчезновением нулей и единиц сама проблема не исчезнет, потому что такие понятия как вычисление, алгоритм или программа не называют физических свойств, внутренне присущих системам. Вычислительные состояния не выявляются внутри физических свойств, они приписываются физическим свойствам.
Здесь есть одно отличие от аргумента “китайской комнаты”, и я должен был заметить его еще десять лет назад, но не сделал этого. Аргумент “китайской комнаты” показывал, что семантика не является внутренне присущей синтаксису. Сейчас я отдельно утверждаю то, что синтаксис внутренне не присущ физическим свойствам. Исходя из целей первоначального обсуждения, я предполагал, что синтаксическое описание компьютера не было проблематичным. Но это ошибка. Невозможно назвать что-либо цифровым компьютером и сказать, что в этом заключается его внутреннее свойство, потому что описание чего-либо как цифрового компьютера всегда зависит от наблюдателя, приписывающего синтаксическую интерпретацию чисто физическим свойствам системы. Это значит, что гипотеза о “языке мысли” несостоятельна. Невозможно найти неизвестные предложения, внутренне присущие вашей голове, т. к. что-либо является предложением только относительно агента или пользователя, использующего его как предложение. Применительно к вычислительной модели вообще это означает, что описание процесса как вычислительного является описанием физической системы, осуществляемым снаружи, и распознание вычисления в любом процессе не является распознанием внутренне присущего физического свойства. Такое распознание является по своей сути описанием, зависящим от наблюдателя.
Это следует четко понимать. Я не говорю, что существуют априорные ограничения для схем, которые мы можем обнаружить в природе. Без сомнения, мы могли бы раскрыть схему событий происходящих в мозге, которая являлась бы изоморфной программе тестового редактора vi, выполняемой моим компьютером. Но сказать, что что-либо функционирует подобно вычислительному процессу, значит сказать нечто большее, чем то, что имеет место схема физических взаимодействий. В данном случае необходимым становится приписывание каким-либо агентом вычислительной интерпретации. Подобным образом, мы можем обнаружить в природе предметы, у которых была бы форма стульев, и которые могли бы использоваться в качестве таковых, но мы никогда не сможем обнаружить в природе предметов, функционирующих в качестве стульев, иначе как относительно агентов, которые бы рассматривали и использовали их как стулья.
Для того чтобы полностью понять суть аргумента, необходимо понимать различие между свойствами, которые внутренне присущи миру, и свойствами, зависящими от наблюдателя. Такие понятия как “масса”, “гравитационное притяжение” и “молекула” обозначают свойства, внутренне присущие миру. Даже если исчезнут все наблюдатели, в мире все равно будет существовать масса, гравитационное притяжение и молекулы. Но такие выражения, как “прекрасный день для пикника”, “ванна” или “стул”, не называют свойства, внутренне присущие реальности. Они скорее называют предметы, подчеркивая некоторое свойство, которое было им приписано, некоторое свойство, зависящее от наблюдателей или пользователей. Если бы никогда не было пользователей или наблюдателей, все равно существовали бы горы, молекулы, массы и гравитационное притяжение. Но если бы никогда не существовало пользователей или наблюдателей, не существовало бы таких свойств, как “быть прекрасным днем для пикника” или “быть стулом” или “быть ванной”. Приписывание свойств, зависящих от наблюдателя, к числу свойств, внутренне присущих миру, не является произвольным. Некоторые внутренние присущие свойства мира упрощают использование предметов в качестве, например, стульев или ванной. Но свойство быть стулом, ванной или прекрасным днем для пикника — это такое свойство, которое существует лишь относительно пользователей или наблюдателей. Главное, на что я хочу здесь указать, это то, что, исходя из стандартного определения вычисления, вычислительные свойства являются зависящими от наблюдателя. Они не являются внутренне присущими. Аргумент, следовательно, может быть резюмирован следующим образом:
Цель естественной науки — раскрыть и описать свойства, внутренне присущие естественному миру. Исходя из определений вычисления и познания, вычислительная наука ни коим образом не сможет быть естественной наукой, потому как вычисление не является внутренне присущим свойством мира. Она приписывается в зависимости от наблюдателей.
6. Второе затруднение: когнитивизму свойственно заблуждение, связанное с гомункулом
Похоже, что мы столкнулись с проблемой. Синтаксис не часть физики. Следствием этого будет то, что, если вычисление определяется синтаксически, то ничто, по сути, не является цифровым компьютером лишь благодаря своим физическим свойствам. Есть ли выход из этого затруднения? Да есть, и он стандартно используется в когнитивной науке. Но этот выход является выходом из огня, да в полымя. Большинству из тех работ по теории вычислительных функций сознания, которые я видел, тем или иным образом присуще заблуждение, связанное с гомункулом. Суть его заключается в том, что в мозге есть некий агент, использующий его для своих вычислений. Типичным примером является Дэвид Марр (1982), описывающий задачу зрения, как переход от двухмерных визуальных восприятий на сетчатке гааза к трехмерному описанию внешнего мира, как обработку данных зрительной системы. Все затруднение в том, кто собственно читает предоставленное описание. В самом деле, из прочтения книги Марра, а также многих других стандартных книг на эту тему, складывается впечатление, что нам следует воззвать к гомункулу внутри системы для того, чтобы он трактовал ее операции как поистине вычислительные.
Многим писателям, например Деннету (1978), заблуждение, связанное с гомункулом не кажется таким уж проблематичным. Им кажется, что гомункула можно “исключить”. Идея заключается в следующем: так как вычислительные операции компьютера можно раскладывать на более простые составляющие до тех пор, пока мы не достигнем простых бинарных схем, типа “да-нет”, “1-0”, создается впечатление, что гомункулы более высоких уровней могут заменяться на более глупых гомункулов, до тех пор пока мы не достигнем низшего простого уровня, в котором, по сути, нет гомункула. Коротко, вся идея заключается в том, что рекурсивное разложение исключит гомункула.
Мне потребовалось немало времени, чтобы понять, к чему эти люди нас пытаются склонить. Так что, если кто-нибудь еще над этим также недоумевает, я приведу пример и детально его объясню. Допустим, у нас есть компьютер, умножающий шесть на восемь, чтобы получить сорок восемь. Мы задаем вопрос: “Как он это делает?” Ответом может быть то, что он семь раз прибавляет шестерку к ней самой. Но если вы спросите: “Как он добавляет шестерку к ней самой семь раз?”, на это можно ответить, что сначала он переводит все цифры в двоичную систему счисления, а затем применяет простой алгоритм для оперирования с двоичной системой счисления до тех пор, пока мы, наконец, не достигнем нижнего уровня, на котором все инструкции существуют в форме “написать нуль, стереть единицу”. Так, например, на верхнем уровне наш умный гомункул говорит: “Я могу умножать шесть на восемь, чтобы получить сорок восемь”. Но на следующем, более низком уровне, он заменяется на более глупого гомункула, который говорит: “Я вообще-то не умею умножать, но я умею складывать”. Под ним находятся еще более глупые, которые говорят: “Мы, на самом деле, не умеем ни складывать, ни умножать, но мы знаем, как осуществить переход из десятичной в двоичную систему”. Под этими сидят еще более глупые, которые говорят: “Мы вообще-то ничего подобного не знаем, но мы умеем работать с двоичными символами”. На самом нижнем уровне находится целая компания гомункулов, которые просто говорят: “Ноль один, ноль один”. Все высшие уровни сводятся к этому низшему. По настоящему существовать может только низший уровень, все верхние уровни — это уровни лишь как-бы (as-if).
Разные авторы (например, Haugeland 1981; Block 1990) описывают это свойство, когда заявляют, что система — это синтаксический двигатель, управляющий семантическим двигателем. Но нам снова приходится сталкиваться с нашим старым вопросом: какие факты, внутренне присущие системе, делают ее синтаксической? Какие факты относительно низшего уровня или любого другого уровня превращают все операции в нули и единицы? Без гомункула, находящегося вне рекурсивного разложения, у нас даже нет синтаксиса, с которым мы могли бы работать. Попытка элиминировать заблуждение, связанное с гомункулом внутри рекурсивного разложения заканчивается неудачей, потому что единственный путь сделать синтаксис внутренне присущим физическим свойствам-это поместить гомункула внутрь физических свойств.
У всего этого есть еще одна очаровательная черта. Когнитивисты с радостью допускают, что более высокие уровни вычисления, например “умножение 6 на 8”, зависят от наблюдателя; не существует чего-либо напрямую соответствующего умножению; все происходит относительно гомункула/наблюдателя. Но они хотят избавиться от этого допущения на более низких уровнях. Электронная цепочка, как они признают, на самом деле, не умножает 6 на 8 как таковые, но она в действительности манипулирует нулями и единицами, и из этих манипуляций, так сказать, складывается умножение. Но допустить, что более высокие уровни вычисления не являются внутренне присущими физическим свойствам, значит допустить то же самое и относительно более низких уровней. Так что заблуждение, связанное с гомункулом все еще с нами.
Для настоящих компьютеров, тех, что вы покупаете в магазине, проблемы гомункула не существует, потому что каждый пользователь является этим самым гомункулом. Но, если мы предположим, что мозг — это цифровой компьютер, у нас остается вопрос: “А кто пользователь?” В когнитивной науке типичные вопросы, требующие гомункула, это вопросы типа: “Каким образом зрительная система вычисляет форму из оттенков; каким образом она вычисляет отдаленность объекта, исходя из размера образа на сетчатке?” Параллельным вопросом мог бы быть следующий: “Каким образом гвозди вычисляют расстояние, на которое они войдут в доску, исходя из силы удара молотка и плотности древесины?” В обоих случаях ответ один: если нас интересует внутренняя работа системы (how the system works intrinsically), то ни гвозди, ни зрительная система ничего не вычисляют. Мы, как внешние гомункулы, можем описать их вычислительно, и это зачастую полезно сделать. Но вы не поймете процесс забивания гвоздей, предполагая, что гвозди каким-то образом внутренне применяют алгоритмы, и вы не сможете понять, что такое зрение, предполагая, что система выполняет, например, алгоритм выведения формы из оттенка.
7. Третье затруднение: синтаксис не имеет каузальных воздействий
В естественных науках существуют способы объяснения, указывающие на механизмы, являющиеся причиной выработки феноменов, которые изначально предполагается объяснить. Такой подход особенно распространен в биологических науках. Примером могут являться теория болезни, ссылающаяся на микробов, теория ДНК и наследуемых особенностей и даже дарвиновская теория естественного отбора. В каждом случае указан каузальный механизм, и в каждом случае это указание дает объяснение результату, производимому этим механизмом. Если вернуться и взглянуть на “начальную версию”, становится ясно, что именно такой вид объяснения предпосылает когнитивизм. Предполагается, что механизмы, по которым процессы в мозге осуществляют познание, являются вычислительными, и, точно указав на программы, мы определим причины познания. Одна из прекрасных сторон этой исследовательской программы, как это часто замечается, заключается в том, что нам не нужно знать подробности о работе мозга для того, чтобы объяснить познание. Процессы в мозге — это лишь техническая реализация когнитивных программ, но само объяснение познания дано на уровне программы. Стандартная точка зрения, заявленная Ньюеллом (1982), утверждает то, что существует три уровня объяснения: уровень технической реализации (hardware), уровень программы и уровень интенциональности (последний уровень Ньюелл называет уровнем знания (the knowledge level). Особый вклад когнитивной науки осуществляется именно на уровне программы.
Но, если правильно все, что я говорил до сих пор, то тогда этот проект в чем-то должен оказаться сомнительным. Раньше я думал, что когнитивистская теория была ложной относительно своей каузальности, но теперь я затрудняюсь сформулировать ее в какой бы то ни было связной форме, даже в форме какого-либо эмпирического тезиса. Сам тезис заключается в том, что существует очень много символов, манипуляция которыми происходит в мозге, т.е. нулей и единиц, проносящихся через мозг со скоростью света и невидимых не только для невооруженного глаза, но и для самого сильного электронного микроскопа, и именно они являются причиной познания. Но затруднение заключается в том, что нули и единицы, как таковые, не имеют каузального воздействия, потому что они вообще существуют лишь в глазах наблюдателя. Выполняемая программа не обладает никаким каузальным воздействием, за исключением воздействия, которым обладает выполняющий эту программу прибор, потому что у программы нет ни настоящего существования, ни онтологии вне выполняющего ее прибора. Говоря языком физики, такой вещи как отдельный “уровень программы” не существует.
Вы сможете в этом убедиться, если вернетесь к начальной версии и припомните различия между механическим компьютером и человеческим компьютером Тьюринга. В человеческом компьютере Тьюринга действительно существует уровень программы, внутренне присущий системе, и на этом уровне компьютер осуществляет каузальную функцию, превращая входные данные (input) в выходные (output). Это происходит потому, что человек постоянно следует правилу для осуществления определенного вычисления, и это каузально объясняет его действия. Но, когда мы программируем компьютер на выполнение того же вычисления, приписывание вычислительной интерпретации зависит от нас, внешних гомункулов. Нет никакой ин-тенциональной каузальности, внутренне присущей системе. Человеческий компьютер беспрестанно следует правилам, и этот факт объясняет его поведение, но механический компьютер буквально не следует никаким правилам. Он сконструирован так, как будто следует правилам, поэтому для практических коммерческих целей не важно то, что он, на самом деле, не следует никаким правилам. Он не может следовать правилам, потому что у него нет интенционально-го содержания, внутренне присущего системе, функционирующей каузально, чтобы вызывать поведение. А когнитивизм убеждает нас в том, что мозг работает как продающийся в магазинах компьютер, и что эта работа является причиной познания. Но без гомункула, как у компьютера, так и у мозга есть только схемы, а схемы не имеют никаких каузальных воздействий, помимо тех, которые присущи выполняющим программу приборам. Так что, похоже, когнитивизм никак не сможет предоставить каузального основания познания.
Здесь, как мне кажется, кроется загадка. Любой, кто хоть иногда имеет дело с компьютером, знает, что мы действительно зачастую даем каузальные объяснения, ссылаясь на программу. Например, мы можем сказать, что, нажав эту клавишу, я получил такой-то результат, потому что машина выполняет программу vi, а не программу emacs. Это похоже на обычное каузальное объяснение. Загадка состоит в том, как мы можем согласовать тот факт, что синтаксис как таковой не имеет никакого каузального воздействия, с тем, что мы действительно приводим каузальные объяснения, апеллирующие к программе. И, более пристрастно, сможет ли такой вид объяснения предоставить подходящую модель для когнитивизма? Спасет ли это когнитивизм? Сможем ли мы, например, спасти аналогию с термостатом, сказав, что точно так же, как понятие “термостат” используется в каузальных объяснениях независимо от физического аспекта его употребления, понятие “программа” может использоваться в объяснении без учета того, как программа применяется на физическом уровне?
Чтобы исследовать эту загадку, давайте расширим начальную версию и посмотрим, как когнитивистская исследовательская методика функционирует в реальной исследовательской деятельности. Идея заключается в том, чтобы запрограммировать обычный компьютер так, чтобы он симулировал какую-нибудь когнитивную способность, такую как зрение или язык. Затем, если мы достигаем хорошей симуляции, эквивалентной, по крайней мере, машине Тьюринга, мы строим гипотезу о том, что компьютер-мозг применяет ту же программу, что и обычный компьютер. А для проверки гипотезы мы ищем косвенное психологическое свидетельство, например время реакции. Создается впечатление, что мы можем каузально объяснять поведение компьютера-мозга, истолковывая программу в том же смысле, в каком мы объясняем работу обычного компьютера. Что здесь не так? Похоже ли это на совершенно законную программу научного исследования? Мы знаем, что преобразование обычным компьютером входных данных в выходные данные объясняется программой, и в мозге мы обнаруживаем такую же программу, следовательно, мы имеем каузальное объяснение.
Относительно этого проекта нас сразу же должны обеспокоить две вещи. Первое, мы бы никогда не приняли подобного вида объяснения ни для одной части мозга, если бы действительно понимали, как она работает на нейробиоло-гическом уровне. Второе, мы бы никогда не приняли это объяснение для других видов систем, вычислительные функции которых мы можем симулировать. Для иллюстрации первого пункта обратимся, например, к известному рассмотрению того “Что говорит глаз лягушки ее мозгу” (Lettvin, et al. 1959 in McCulloch 1965). Этот случай описан только в терминах анатомии и физиологии нервной системы лягушки. Типичный произвольно выбранный пассаж выглядит так:
Постоянные детекторы контраста (Sustained Contrast Detectors) Ни один анмиелиновый аксон этой группы не реагирует, когда общее освещение выключено. Если острая грань какого-нибудь предмета более светлого или темного, чем фон, появляется в его поле и останавливается, он сразу начинает разряжаться и продолжает разрядку, безотносительно формы грани или того, является ли предмет больше или меньше, чем поле восприятия (стр. 239).
Я никогда не слышал, чтобы кто-нибудь говорил, что это всего лишь техническое применение, что необходимо выяснить какую программу использует лягушка. Я не сомневаюсь, что можно произвести компьютерную симуляцию “детекторов насекомых” у лягушки. Быть может, кто-нибудь это сделал. Но все мы понимаем, что, как только становится ясно, как зрительная система лягушки работает в действительности, “вычислительный” уровень становится излишним.
Для иллюстрации второго опасения рассмотрим симуляции других видов систем. Я, например, печатаю эти слова на машине, которая симулирует поведение старой механической пишущей машинки. Что касается качества симуляции, то программа текстового редактора симулирует пишущую машинку лучше, чем любая известная мне программа ИИ симулирует мозг. Но ни один здравомыслящий человек не скажет: “Наконец-то мы понимаем, как работают пишущие машинки, они являются реализацией программы текстового редактора”. Дело просто в том, что вычислительные симуляции не дают каузального объяснения симулируемого явления.
Так что же происходит? Мы, в общем, не предполагаем, что вычислительные симуляции процессов в мозге предоставляют нам какое-либо объяснение вместо или в дополнение к нейробиологическому объяснению того, как на самом деле работает мозг. И мы, как правило, не используем выражение “X- вычислительная симуляция от Y” для определения симметрического отношения. Другими словами, мы не предполагаем, что если компьютер симулирует пишущую машинку, то и пишущая машинка симулирует компьютер. Мы не предполагаем, что каузальное объяснение поведения урагана предоставляется программой, симулирующей погоду. Так почему же мы должны делать исключение из этих принципов относительно неизвестных процессов в мозге? Существует ли уважительная причина для подобного исключения? И какого рода каузальным объяснением является объяснение, опирающееся на формальную программу?
Я полагаю, что решение проблемы заключается в следующем. После исключения из системы гомункула, у вас остается лишь схема событий, которой кто-либо извне может приписать вычислительную интерпретацию. Сама по себе схема может дать каузальное объяснение только в том случае, когда вы знаете, что в системе существует некая схема, и вы знаете то или иное причинное взаимодействие является частью, составляющей эту схему. И вы можете, например, на основании более ранних состояний предсказывать более поздние. Более того, если вы заранее знаете, что система была запрограммирована внешним гомункулом, вы можете приводить объяснения, отсылающие к интенциональности гомункула. Вы, например, можете сказать, что машина работает именно так, потому что она выполняет программу vi. Подобным образом вы можете объяснить, что эта книга начинается с рассуждения о несчастливых семьях и не содержит длинных пассажей о трех братьях, потому что это “Анна Каренина” Толстого, а не “Братья Карамазовы” Достоевского. Но вы не можете объяснять такую физическую систему как пишущая машинка или мозг, идентифицируя схему, общую для этой системы и ее компьютерной симуляции, потому что существование схемы не объясняет того, как в действительности сама система работает в качестве физической системы. В случае с познанием схеме присущ слишком высокий уровень абстракции, чтобы объяснять такие конкретные (и, следовательно, физические) явления, как наличие зрительного восприятия или понимание предложения.
Мне кажется очевидным, что мы не можем объяснить то, как функционируют пишущие машинки и ураганы, указав формальные схемы, общие для них и их компьютерных симуляций. Почему же это не очевидно в случае с мозгом?
Здесь мы подходим ко второй части решения загадки. Расширяя начальную версию когнитивизма, мы молчаливо предполагали, что мозг может выполнять алгоритмы для познания так же, как их выполняет человеческий компьютер Тьюринга и механический компьютер. Но именно это предположение было ошибочным. Для иллюстрации задайте себе вопрос, что происходит, когда система выполняет алгоритм. Человеческий компьютер сознательно проходит шаги алгоритма, так что этот процесс является как каузальным, так и логическим: логическим, потому что алгоритм предоставляет набор правил для получения выходных символов из входных символов, и каузальным, потому что агент осуществляет сознательное усилие для прохождения этих шагов. В случае с механическим компьютером вся система должна включать и внешнего гомункула, и вместе с гомункулом она будет как каузальной, так и логической: логической, потому что гомункул осуществляет интерпретацию работы машины, и каузальной, потому что прохождение процесса осуществляется через техническую составляющую (hardware) машины. Но соответствие этим требованиям не может быть достигнуто посредством грубых, слепых, несознательных нейрофизиологических операций в мозге. В мозге как компьютере нет никакого сознательного интенционального применения алгоритма в том смысле, в котором это происходит в человеческом компьютере, но в нем также не может быть никаких неосознаваемых применений, таких, какие имеют место в механическом компьютере, потому что здесь необходим внешний гомункул для привязывания вычислительной интерпретации физическим явлениям. Самое большее из того, что мы можем найти в мозге, это схема событий, являющаяся формально схожей с выполняемой механическим компьютером программой, но эта схема сама по себе не имеет никакого собственного каузального воздействия и, следовательно, ничего не объясняет.
В целом, тот факт, что приписывание синтаксиса не устанавливает никакого каузального воздействия, является смертельным для утверждения о том, что программы дают каузальное объяснение познанию. Давайте вспомним, что из себя представляют когнитивистские объяснения, и рассмотрим их последствия. Объяснения, подобные рассмотрению Хом-ским синтаксиса естественных языков или Марром зрения, осуществляются путем установления набора правил, по которым символы входных данных превращаются в символы выходных данных. У Хомского, например, отдельный входной символ “S” может быть превращен в любое из бесконечного числа предложений путем повторного применения набора синтаксических правил. У Марра, представления двухмерного зрительного комплекса обращаются в трехмерные “дескрипции” мира в соответствии с определенным алгоритмом. Трехчастное различение Марра вычислительной задачи, алгоритмического решения этой задачи и технического применения алгоритма (подобно различениям Ньюелла) стало очень популярным примером общей схемы объяснения.
Если воспринимать эти объяснения наивно, так, как это делаю я, то их можно сравнить с высказыванием о находящемся в комнате человеке, который выполняет действия в соответствии с определенным набором правил для образования английских предложений или для получения трехмерных дескрипций, в зависимости от рассматриваемого нами случая. Но теперь давайте зададимся вопросом о том, какие факты действительного мира соответствуют этим объяснениям применительно к мозгу. Например, в случае Хомского мы не должны думать, что агент сознательно осуществляет повторяющиеся действия в соответствии с правилами; но мы также и не должны думать, что он бессознательно продумывает способ выполнения набора правил. Скорее правила являются “вычислительными”, и мозг осуществляет вычисления. Но что это значит? Предполагается, что мы должны рассматривать мозг как обычный компьютер. Причина приписывания определенного набора правил обычному компьютеру и мозгу должна быть единой в обоих случаях. Но мы видели, что в обычном компьютере такое приписывание всегда зависит от наблюдателя, оно зависит от гомункула, приписывающего техническим стадиям (hardware states) вычислительные интерпретации. Без гомункула не существует вычисления, а есть только замкнутая электронная цепь. Так каким же образом мы помещаем в мозг вычисление без гомункула? Насколько я знаю, ни Хомский, ни Марр никогда не задавались подобным вопросом и даже не знали, что такой вопрос существует. Но без гомункула установление состояний программы не имеет никакой объясняющей силы. Имеет место лишь физический механизм мозг, с его различными физическими и физическими/ментальными каузальными уровнями описания.
Краткое изложение аргументов в этом разделе
Обсуждение в этом разделе было несколько обширнее, чем мне бы хотелось, но мне кажется, что оно может быть кратко изложено следующим образом:
Возражение: Каузальность вычислительных объяснений является чистым фактом. Например, компьютеры управляют самолетами, а то, как они это делают, выражается посредством программы. Что могло бы быть еще более каузальным, чем это?
Ответ: Программа дает каузальное объяснение в следующем смысле. Существует соизмеримый класс физических систем такого рода, что схемы в этих системах позволяют нам закладывать (encode) информацию в физические свойства, внутренне присущие системе (примером являются уровни напряжения). И эти самые схемы, включающие преобразователи на входе и выходе системы, позволяют нам использовать любое звено этого соизмеримого класса соответствий для пилотирования самолета. Общедоступное использование этих схем упрощает приписывание вычислительной интерпретации (это не удивительно, ведь схемы были разработаны в коммерческих целях), но такие интерпретации все равно внутренне не присущи системам. Если объяснение ссылается на программу, то появляется необходимость в гомункуле.
Возражение: Да, но, допустим, мы могли бы обнаружить подобные схемы в мозге? Наличие таких внутренне присущих схем — это все, чего не хватает вычислительной когнитивной науке.
Ответ: Разумеется, вы можете обнаружить такие схемы. В мозге можно найти схем больше, чем кому-либо нужно. Но даже если бы мы ограничивали отбор схем, требуя адекватных каузальных связей и последующих контрфактических высказываний, отыскание такой схемы не объяснило бы нам то, что мы пытаемся объяснить. Мы не пытаемся выяснить, как внешний гомункул приписывает вычислительную интерпретацию процессам в мозге. Мы пытаемся объяснить наличие таких конкретных биологических явлений, как сознательное понимание предложения или сознательный зрительный опыт окружающего. Для такого объяснения необходимо понимание грубых физических процессов, производящих вышеуказанные явления.
8. Четвертое затруднение: мозг не осуществляет переработку информации
В этом разделе я, наконец-то, обращусь к тому, что, как мне кажется, в некотором смысле является центральной темой всего вышеописанного, а именно к теме переработки информации. Многим людям, работающим в научной парадигме “когнитивной науки”, покажется, что значительная часть моего обсуждения просто не относится к делу, и они будут возражать против него следующим образом:
Существует разница между мозгом и всеми остальными описанными вами системами, и эта разница объясняет, почему в случае с другими системами вычислительная симуляция является лишь симуляцией, в то время как в случае с мозгом вычислительная симуляция на самом деле не является дублированием или даже моделированием функциональных свойств мозга. Причина заключается в том, что мозг, в отличие от других упомянутых систем, является системой, перерабатывающей информацию. И этот факт относительно мозга, выражаясь вашими словами, является “внутренне присущим” (intrinsic). Переработка мозгом информации является биологическим фактом, и то, что мы также можем перерабатывать ту же самую информацию вычислительно, указывает на отличную роль вычислительных моделей процессов мозга от вычислительных моделей таких процессов, как, например, погода.
Таким образом, имеет место четко сформулированный исследовательский вопрос: Являются ли вычислительные операции, с помощью которых мозг перерабатывает информацию, такими же, как и операции, с помощью которых компьютеры перерабатывают ту же информацию?
Такое воображаемое возражение оппонента заключает в себе одну из самых грубых ошибок когнитивной науки. Ошибка заключается в предположении, что мозг осуществляет переработку информации в том же смысле, что и компьютер. Чтобы увидеть, что это ошибка, сравните то, что происходит в компьютере с тем, что происходит в мозге. В случае с компьютером вводимая информация кодируется внешним агентом в форме, которая может быть переработана в замкнутой электрической сети компьютера. Это значит, что человек предоставляет синтаксическую реализацию информации, которую компьютер способен переработать, например, на разных уровнях напряжения. Компьютер, таким образом, проходит через несколько стадий разного напряжения, которые внешний агент может проинтерпретировать как синтаксически, так и семантически, хотя самой технической составляющей внутренне не присущ синтаксис или семантика: здесь все зависит от наблюдателя. Если происходит выполнение алгоритма, то физические свойства значения не имеют. Наконец, выходными данными является некий физический феномен, например, распечатка, символы которой наблюдатель может интерпретировать синтаксически и семантически.
Теперь сопоставим это с мозгом. Здесь ни один нейрофизиологический процесс не является зависимым от наблюдателя (хотя, как и любой другой процесс, он может быть описан с точки зрения, зависящей от наблюдателя), причем мельчайшие нейрофизиологические подробности имеют решающее значение. Что бы прояснить эту разницу, рассмотрим пример. Допустим, я вижу приближающуюся ко мне машину. Стандартная вычислительная модель зрения соберет информацию о воспринимаемом комплексе на сетчатке глаза и, в конечном счете, выдаст предложение “Ко мне приближается машина”. Но это не то, что в действительности происходит в биологии. В биологии благодаря бомбардировке фотонами фоторецепторов сетчатки моего глаза осуществляется конкретный и особый ряд электрохимических реакций. Результатом этого процесса, в конечном счете, является зрительный опыт. Биологическая реальность не является реальностью, в которой зрительная система производит группу слов или символов; скорее, этот самый зрительный опыт зависит от конкретного, особого, осознанного визуального события. Конкретное визуальное событие так же специфично и конкретно, как ураган или переваривание пищи. Мы можем с помощью компьютера создать такую модель события или его осуществления, которая сможет перерабатывать информацию, мы можем создать перерабатывающую информацию модель погоды, пищеварения или любого другого явления, но сами по себе эти явления не будут системами по переработке информации.
Короче говоря, смысл, в котором когнитивная наука использует понятие “переработки информации”, находится на слишком высоком уровне абстракции для того, чтобы ухватить конкретную биологическую действительность внутренней интенциональности. Понятие “информации” в мозге всегда специфично относительно той или иной модальности. Оно является специфическим относительно мысли, зрения, слуха или, например, прикосновения. С другой стороны, уровень переработки информации в вычислительных моделях познания, свойственных когнитивной науке, просто сводится к ряду символов, в качестве выходных данных, в ответ на ряд символов как входных данных.
Мы не видим этой разницы из-за того, что предложение “Я вижу приближающуюся ко мне машину” может использоваться для обозначения как зрительной интенциональности, так и выходных данных вычислительной модели. Но это не должно затемнять того факта, что зрительный опыт — это конкретное осознаваемое событие, и оно происходит благодаря особым электрохимическим биологическим процессам. Смешивать эти события и процессы с формальной символьной манипуляцией — значит смешивать реальность с моделью. Главный пункт этой части обсуждения заключается в том, что исходя из понимания когнитивной наукой слова “информация” мозг нельзя назвать устройством по переработке информации.
9. Краткое изложение аргумента
1. Согласно стандартному хрестоматийному определению, вычисление определяется синтаксически в понятиях символьной манипуляции.
2 Но синтаксис и символы не определяются в понятиях физики. Несмотря на то, что символы всегда основываются на физических признаках, понятия “символ” и “тот же самый символ” не определяются на языке физических свойств. Коротко, синтаксис не является внутренним физическим свойствам.
3 Следствием этому является то, что вычисление не обнаруживается в физических свойствах, а приписывается им. Определенные физические явления могут быть использованы, запрограммированы или проинтерпретированы синтаксически. Синтаксис и символы задаются наблюдателем.
4 Вы, следовательно, не можете обнаружить то, что мозг или что-либо другое по своей сути являлось бы цифровым компьютером, хотя вы могли бы дать ему, равно как и чему угодно еще, вычислительную интерпретацию. Суть заключается не в том, что заявление “Мозг является цифровым компьютером” просто ложно. Оно, скорее, даже не дотягивает до уровня ложности. В нем нет ясного смысла. Вопрос “Является ли мозг цифровым компьютером?” поставлен некорректно. На вопрос “Можем ли мы приписывать вычислительную интерпретацию мозгу?” ответом будет несомненно “да”, потому что мы можем приписать вычислительную интерпретацию чему угодно. Если же спрашивается: “Являются ли процессы в мозге внутренне вычислительными?”, то ответом, естественно, будет “нет”, потому что ничто не является внутренне вычислительным, за исключением, конечно, сознательных агентов, интенционально осуществляющих вычисления.
5. В одних физических системах вычислительный подход работает гораздо лучше, чем в других. Поэтому мы создаем, программируем и используем их. В таких случаях мы являемся гомункулом внутри системы, интерпретирующим физические явления как синтаксически, так и семантически.
6. Но приводимые нами каузальные объяснения не указывают на каузальные свойства, отличные от физического уровня реализации и от интенциональности гомункула.
7 Стандартный, хотя и скрытый, выход из этой ситуации — это заблуждение, связанное с гомункулом. Заблуждение, относительно гомункула, свойственно вычислительным методам познания, и оно не может быть снято через стандартные аргументы рекурсивного разложения. Они являются ответом на другой вопрос.
8 Нам не избежать вышеупомянутых выводов, если мы предположим, что мозг осуществляет “переработку информации”. Что касается внутренне присущих мозгу операций, то он не осуществляет никакой переработки информации. Он является особым биологическим органом, и особые нейрофизиологические процессы в нем вызывают особые формы интенциональности. В мозге, будучи внутренне ему присущими, имеют место нейрофизиологические процессы, и иногда они являются причиной сознания. На этом вся история заканчивается. Все прочие ментальные атрибуции являются либо диспозициональными, например, в тех случаях, когда мы приписываем агенту бессознательные состояния, либо зависящими от наблюдателя, например, в тех случаях, когда мы приписываем вычислительную интерпретацию процессам в мозге.