Причудливая математика случайного
И все-таки, что такое случайность? Можно ли дать ей количественную оценку? Можно ли расклассифицировать случайности, как набор биологических образцов? Бывают ли случайности разной силы? Эта глава целиком посвящена математике (и вообще науке) везения и совпадений, но она отнюдь не состоит из сплошных цифр. На этих страницах вы столкнетесь лицом к лицу с закоренелыми преступниками, заглянете за кулисы фармацевтических испытаний, переживете на себе вспышку сверхновой и познакомитесь с омегой – самым случайным числом во Вселенной.
У богов за пазухой
Хорошо ли вы умеете подсчитывать шансы разных событий? Может быть, вы заядлый искатель осмысленного узора во всем на свете? А может, вам покоя не дают совпадения? В конечном счете все эти сложные штуки сводятся к информации – и к выяснению, кто ею обладает. Слово Йену Стюарту .
Как вы уже знаете, человеческий мозг замечательно умеет отслеживать разного рода осмысленные узоры и характерные закономерности. Эта способность служит одним из краеугольных камней науки. Заметив закономерность, мы пытаемся описать ее математически, а потом использовать эти выкладки для того, чтобы лучше понять окружающий нас мир. А если мы не можем вычленить никакого узора, мы не объясняем его отсутствие нашей невнимательностью. Мы предпочитаем выбрать излюбленную нами альтернативу и заключить, что имеем дело со случайностью.
Мы не видим никаких закономерностей при подбрасывании монетки, кидании костей, вращении рулеточного колеса. Поэтому мы называем их случайными процессами. До недавних пор мы не видели никаких закономерностей в погоде, вспышках эпидемий, в турбулентном потоке жидкости, поэтому все это мы тоже называли явлениями случайного характера. Оказывается, слово «случайный» здесь описывает разное: порой случайный характер действительно присущ явлению или процессу, а иногда дело попросту в том, что мы слишком невежественны и не понимаем тех или иных закономерностей.
Чуть больше века назад все это казалось довольно просто и определенно. Мол, некоторые природные явления подчиняются законам физики: орбиты планет, движение приливов и т. п. Другие им не подчиняются: скажем, узор градин на садовой дорожке. Первую брешь в стене между порядком и хаосом пробил Адольф Кетле, примерно в 1870 году открывший, что в случайных событиях есть свои статистические закономерности. Позже ученые начали по-настоящему описывать хаос (где поведение систем, кажущееся случайным, на самом деле подчинено строгим законам), что полностью разрушило большие куски этой стены. Каким бы в конечном счете ни оказалось действительное соотношение порядка и хаоса, уже сейчас ясно, что их нельзя воспринимать просто как некие противоположности.
Но нам, похоже, все-таки трудно удержаться от искушения обсуждать процессы, протекающие в реальном мире, либо как упорядоченные, либо как случайные. По-настоящему ли случайна погода – или же в ней есть какие-то закономерности? Действительно ли бросание костей дает череду случайных чисел – или же на самом деле этот процесс чем-то жестко обусловлен? Физики сделали случайность главной основой квантовой механики, науки об очень малом: никто, утверждают они, не в состоянии предсказать, в какой именно момент распадется радиоактивный атом. Но если это так, что же служит спусковым крючком такого события? Откуда атом «знает», когда ему распадаться? Чтобы попытаться ответить на эти вопросы, нужно разобраться, о каком виде случайности мы говорим. Что это – истинное, изначальное свойство реальности или же след наших представлений о ней, того, каким образом мы строим ее модели?
Начнем с самых простых идей. Систему можно назвать случайной, если то, что она сделает в ближайший момент, не зависит от того, что она сделала в прошлом. Если я буду подбрасывать «честную» монетку и у меня 6 раз подряд выпадет орел, на седьмом броске с равной вероятностью может выпасть орел или решка. И наоборот, система считается упорядоченной, если ее предыстория влияет на ее будущее предсказуемым образом. Мы в состоянии предсказать время ближайшего восхода с точностью до каких-то долей секунды, и каждое утро мы оказываемся правы. Стало быть, бросание монетки – процесс случайный, а движение Солнца – нет.
Четкое расписание восходов объясняется строгой геометрией земной орбиты. Статистический рисунок бросания «случайной» монетки более загадочен. Эксперименты показывают, что в долгосрочной перспективе орлы и решки выпадают с одинаковой суммарной частотой (при условии, что монетка «честная»). Если представить вероятность события как долю случаев, когда это событие происходит (при длинной серии опытов), тогда и для орла, и для решки вероятность выпадения составит 1/2. На самом деле у понятия вероятности не совсем такое определение, но здесь мы даем простое следствие из технического определения. Оно называется «законом больших чисел».
То, что в долгосрочной перспективе общее число выпавших орлов и решек оказывается равным, можно назвать чисто статистическим свойством большого количества бросков (см. «Закон средних»). Более глубокий вопрос, с куда более озадачивающим ответом, таков: откуда монетка «знает», что в долгосрочной перспективе она должна выдать столько же орлов, сколько и решек? Ответ таков: если вы как следует вдумаетесь, то поймете, что монетка вовсе не представляет собой случайную систему.
Представим монетку как тонкий круглый диск. Если диск запускается вертикально с известной линейной скоростью и известной быстротой вращения, можно точно вычислить, сколько полуоборотов он совершит, прежде чем упадет на пол и остановится. Если при этом он отскочит от пола, расчет окажется труднее, но все равно в принципе он осуществим. Подбрасываемая монета – система из классической механики. Она подчиняется тем же законам движения и тяготения, благодаря которым так предсказуемы орбиты планет. Почему же монетка непредсказуема?
Предсказуема. В принципе. На практике вы не знаете ни линейную скорость, ни быстроту вращения, а исход броска очень зависит от обоих параметров. Как только вы подбросили монетку, ее судьба уже предопределена (если не учитывать ветер, пробегающую мимо кошку и другие привходящие обстоятельства). Но поскольку вам не известна ни линейная скорость, ни быстрота вращения, вы понятия не имеете, каков будет неизбежный исход броска, даже если вы умеете молниеносно проделывать вычисления в уме.
То же самое и с игральной костью. Ее можно представить себе как подпрыгивающий куб, чье поведение тоже подчинено законам классической механики и описывается определенными уравнениями. Если с достаточной точностью отследить начальное движение кубика и достаточно быстро сделать нужные расчеты, можно совершенно точно предсказать результат. Что-то подобное удалось проделать для рулетки. Точность прогноза здесь меньше (предсказывается, на какой половине колеса остановится шарик), но она достаточно высока, чтобы выиграть, да и результаты предсказаний не должны быть идеальными, чтобы разорить казино.
Следовательно, Альберт Эйнштейн выбрал неверную метафору, когда подверг сомнению случайный характер квантовой механики, отказываясь верить, будто Бог играет в кости. Ему следовало бы в это поверить. А затем он мог бы задаться вопросом, как ведут себя эти игральные кубики, где они расположены и каков реальный источник квантовой «случайности».
У проблемы есть и более глубинный слой. Предсказать исход броска игральной кости трудно не только из-за того, что мы толком не знаем начальных условий броска. Мешает еще и своеобразная природа процесса – хаотическая.
Хаос на самом деле не носит случайного характера. Но точность любых измерений, какие мы можем сделать, имеет пределы, а значит, для нас хаос непредсказуем. В случайной системе прошлое не оказывает влияния на будущее. В хаотической системе прошлое все-таки влияет на будущее, только вот расчеты, которые позволили бы нам оценить величину этого эффекта, чрезвычайно чувствительны по отношению к малейшим ошибкам наблюдения. Каждая изначальная ошибка, пусть даже очень небольшая, затем так стремительно разрастается, что совершенно разрушает прогноз.
С броском монетки что-то похожее: достаточно серьезная ошибка при измерении начальной линейной скорости и начальной быстроты вращения лишит нас возможности заранее узнать результат броска. Но монетка не является «истинно хаотической», поскольку, пока она вращается в воздухе, ошибка растет относительно медленно. В по-настоящему хаотической системе ошибка растет очень быстро – по экспоненте. Острые углы игральной кости, вступающие в дело, когда идеальный математический куб отскакивает от плоской поверхности стола, дают именно такого рода экспоненциальное расхождение. Поэтому игральная кость кажется «случайной» по двум причинам: из-за человеческого незнания начальных условий, как с монеткой, и из-за хаотической, хотя и детерминированной динамики (т. е. в данном случае предопределенной, четко подчиняющейся физическим законам, которые позволяют точно предсказать конкретные результаты).
Все, что я до сих пор говорил, опиралось на ту или иную математическую модель, которую мы выбрали для описания процесса. Но зависит ли (не) случайный характер той или иной физической системы от модели, которую мы используем?
Чтобы ответить на этот вопрос, вспомним первый большой успех применения случайных моделей в физике. Речь идет о статистической механике. Эта теория лежит в основе термодинамики (по сути, физики газов), чье появление в известной степени мотивировалось необходимостью создавать более эффективные паровые двигатели. Какой максимальной эффективности может достичь паровая машина? Термодинамика ставит тут очень четкие и специфические ограничения.
На заре термодинамики главное внимание обращали на «крупномасштабные» переменные – объем, давление, температуру, количество теплоты. Все эти переменные связаны между собой «газовыми законами». К примеру, закон Бойля – Мариотта гласит, что произведение давления газа на его объем постоянно при данной температуре. Закон совершенно детерминистичен: зная объем, можно вычислить давление, и наоборот.
Однако вскоре стало очевидно, что физика газов на атомарном уровне, лежащая в основе газовых законов, носит, в сущности, случайный характер: молекулы газа беспорядочным образом отскакивают друг от друга. Людвиг Больцман первым стал изучать, как это отскакивание молекул (представляемых в рамках его модели как крошечные твердые сферы) соотносится с газовыми законами (и со многим другим). Согласно его теории, классические переменные – давление, объем и температура – представлены как статистические средние, что заставляет предположить присущий системе случайный характер. Обоснованно ли такое предположение?
Бросание монетки и игральной кости в основе своей детерминированы. То же самое касается и системы, состоящей из огромного количества маленьких круглых сфер. В этом космическом бильярде каждый шар подчиняется законам механики. Если известны исходное положение и скорость каждой сферы, последующее движение будет полностью предопределено. Но Больцман и не пытался следить за точным маршрутом каждой сферы. Он сделал допущение, что позиции и скорости сфер носят «статистический» характер, без какой-то склонности к движению в том или ином определенном направлении. Так, давление – это мера усредненной силы, которая возникает, когда шарики отскакивают от внутренней поверхности стенок сосуда, где они находятся, если предположить, что каждая сфера с одинаковой вероятностью двигается в любом направлении.
Статистическая механика описывает движение большого количества сфер статистическими величинами – такими как «среднее». Иными словами, она использует случайную модель на микроуровне, чтобы объяснить детерминированную модель на макроуровне. Корректен ли такой подход?
Да, хотя Больцман этого тогда и не знал. По сути, он сделал два допущения: движение сфер хаотично и хаос этот особого рода – порождающий «среднее состояние», которому можно дать четкое определение. Из этих идей впоследствии вырос целый раздел математики – эргодическая теория. В ходе развития математики гипотеза Больцмана превратилась в широко известную теорему.
Таким образом, произошел удивительный сдвиг точки зрения. Детерминированная модель (газовые законы) усовершенствовали до случайной (с крошечными сферами), а затем эту случайность математически обосновали как следствие детерминированной динамики.
И все-таки носит ли поведение газов случайный характер? Всё зависит опять-таки от точки зрения. Одни аспекты их поведения лучше описываются статистически, другие – детерминировано. Общего ответа нет, все зависит от контекста. И эта ситуация вовсе не является такой уж необычной. При решении некоторых задач (например, при расчетах характеристик воздушных потоков вокруг космического челнока) жидкость или газ можно рассматривать как единое целое, как некий континуум, подчиняющийся определенным законам. В других ситуациях, например при изучении броуновского движения (беспорядочного перемещения частиц взвеси, вызванного столкновениями с атомами), следует принимать в расчет атомарную природу жидкости или газа, и здесь годится больцмановская модель в каком-то из ее современных вариантов.
Итак, в нашем распоряжении две различные модели, между которыми есть математическая связь. Никакая из них не описывает реальность полностью и исчерпывающе, но каждая все-таки дает неплохое ее описание. Бессмысленно было бы утверждать, что реальность сама по себе «случайна» или «не случайна»: случайность – математическая характеристика, отражающая то, как мы описываем систему, а не характеристика системы как таковой.
Значит, в мире нет ничего по-настоящему случайного? Пока мы не разберемся в основах квантового мира, сказать наверняка нельзя. Согласно наиболее распространенным интерпретациям, квантовая механика строится на допущении, что где-то очень глубоко, на субатомном уровне, Вселенная носит по-настоящему случайный характер, и ее нельзя дальше членить на какие-то детерминированные процессы. Тут совсем не как с моделью термодинамической случайности, где участвуют твердые сферы и где статистические свойства объясняются нашим (неизбежным) неведением точного положения и состояния всех этих шариков. Здесь нельзя по принципу аналогии построить какую-то «модель системы в миниатюре» с немногочисленными параметрами, которые, если мы их только узнаем, позволят нам разгадать тайну. Просто не существует никаких «скрытых переменных», чье детерминированное, но хаотическое поведение управляло бы броском квантовой игральной кости. Квантовый мир случаен – и точка. Или?..
В пользу предположения о случайном характере квантового мира явно говорит один математический довод. Еще в 1964 году Джон Белл придумал, как проверить, случайны ли процессы в квантовой механике или же она управляется скрытыми переменными, то есть, по сути, квантовыми свойствами, которые мы пока просто не научились наблюдать. В основу работы Белла легла идея о двух квантовых частицах (таких как электроны), которые после взаимодействия разводятся на огромное расстояние.
Проделайте определенные измерения параметров этих разделенных частиц, и вы сможете определить, что же управляет их свойствами – случайность или скрытые параметры. Ответ на этот вопрос очень важен: он позволит выяснить, способны ли квантовые системы, которые уже взаимодействовали в прошлом, затем влиять на свойства друг друга, даже находясь на противоположных концах Вселенной.
По мнению большинства физиков, эксперименты, базирующиеся на работе Белла, подтвердили, что в квантовых системах правит случайность и загадочное «действие на расстоянии». Многим ученым, судя по всему, так страстно хочется объявить о фундаментальной роли случайности в квантовой теории, что они стараются уклониться от любых попыток дальнейшего обсуждения вопроса. А жаль. Ведь работа Белла, при всей своей блистательности, не столь убедительна, как им представляется.
Здесь кроется целый ряд сложных проблем, но главное вот в чем. Математические теоремы строятся на допущениях. Свои основные допущения Белл перечисляет открыто, но доказательство его теоремы подразумевает и кое-какие неявные допущения, которые далеко не все готовы признать. Кроме того, в экспериментах, основанных на работе Белла, нашлись «дырки». По большей части эти «дырки» носят технический характер (в частности, они связаны с эффективностью детектирования и погрешностями эксперимента), но здесь есть и философские аспекты. Так, условия эксперимента предполагают, что человеческие существа, выполняющие опыт, свободны в выборе его параметров. Между тем возможно (хоть и, как нам кажется, маловероятно), что некая внешняя сила координирует и контролирует все составляющие эксперимента, в том числе и самих экспериментаторов.
Итак, несмотря на все колоссальное давление преобладающего в науке мнения, дверь для детерминистического объяснения квантовой неопределенности по-прежнему открыта. Дьявол, как всегда, кроется в деталях. Может оказаться трудно или даже вообще невозможно проверить такую теорию, но мы попросту не в состоянии знать это заранее. Возможно, она не особенно изменит квантовую механику (подобно тому, как модель с твердыми сферами не очень изменила термодинамику), но вдруг она позволит нам совершенно по-новому взглянуть на многие озадачивающие нас сегодня проблемы. Кроме того, в результате квантовая теория может вновь занять место среди других статистических научных теорий, с каких-то точек зрения нося случайный характер, а с каких-то – детерминистический.
Пока же, если оставить в стороне квантовый мир, совершенно ясно: на самом-то деле такой штуки, как случайность, не существует. Практически все эффекты, которые кажутся нам случайными, возникают не из-за того, что природа непредсказуема, а из-за человеческого невежества или других видов ограниченности нашего знания о мире. Эта мысль не нова. Еще Александр Поуп в своем «Опыте о человеке» писал:
Математики не занимаются проблемами добра и зла, но во всем остальном Поуп оказался прав, и теперь ученые отлично понимают, почему.
Закон средних
Однажды, подбрасывая самую обыкновенную монетку, я получил 17 орлов подряд. Вероятность такого события составляет 1/131 072. Теперь решкам наверняка надо как-то «подтянуться» – и при следующем броске именно решка выпадет с большей вероятностью?
Нет. Вероятность выпадения орла и решки при следующем броске одинакова. То же самое касается и всех дальнейших бросков. В очень длинной последовательности бросков общая доля орлов и решек должна быть очень близка к 50 % – к «распределению поровну». Можно ожидать, что на каждые два миллиона бросков в среднем придется по миллиону орлов и по миллиону решек.
Хотя 17 очень отличается от нуля, 1 000 017 ближе к миллиону, чем к нулю: их отношение составляет 1,000017, число очень близкое к единице. Решки не «подтягиваются» к орлам: последующий миллион бросков затмевает немногочисленные первые броски, и чем больше вы будете подкидывать монетку, тем менее значительной будет становиться эта изначальная разница между количеством выпавших орлов и решек.
Схожая картина – с тем, насколько часто выпадают те или иные номера в Британской национальной лотерее. В течение какого-то периода номер 13 выпадал сравнительно редко, тем самым укрепляя суеверных игроков в убеждении, будто 13 – несчастливое число. Поэтому некоторые ожидали, что в будущем 13 станет выпадать чаще. Другие же полагали, что это число и дальше будет подтверждать свою «черную» репутацию. Математические законы вероятностей, подкрепленные бесчисленными экспериментами, говорят о том, что оба лагеря заблуждаются. В будущем у каждого номера по-прежнему одни и те же шансы на то, чтобы оказаться выбранным. Лототрон обращается со всеми шарами одинаково и вообще не «знает», какие на них номера.
Парадоксальным образом это не значит, что в действительности все номера будут выпадать с совершенно равной частотой. Абсолютное равенство здесь крайне маловероятно. Следует ожидать, что мы увидим некие колебания вокруг среднего значения. В этом раскладе будут и номера-победители, и номера-аутсайдеры.
Математики даже предсказывают размах и вероятность таких флуктуаций. Однако ученые не в состоянии дать прогноз, какие номера окажутся в числе победителей, а какие – в числе проигравших. Заранее можно лишь сказать, что победителем и проигравшим может оказаться практически любой номер, и вероятности здесь практически равны для всех номеров.
Должно ли это произойти?
Рассматривать абстрактные понятия случайного очень приятно, однако наша повседневная жизнь блестяще умеет налагать ограничения на то, что должно бы считаться случайными событиями. Скрестите случайность с реальным миром, и вы получите причудливые и необычные математические следствия, имеющие глубинную связь с явлениями природы. Порой даже кажется, что случайность при этом словно исчезает, говорит Роберт Мэтьюз .
Многие страшатся непонятных совпадений, которые вдруг проступают в случайном узоре повседневных событий. Но всякий знает, что случайность – это сама суть беспорядка, где нет осмысленного рисунка и четких закономерностей. А потому в таких совпадениях ничего особенного нет.
Однако это не так. Вглядитесь как следует в туман случайности, и вы, быть может, разглядите в нем регулярность и универсальные истины, хотя все это мы чаще склонны приписывать глубинному космическому порядку. В чем же тут дело? А вот в чем. То, что мы называем случайностью, обычно является просто версией реальной случайности, только на цепи и в наморднике. Принужденная действовать в рамках определенных пределов, заданных ограничениями того мира, где мы живем, случайность отбрасывает небольшую долю своей хваленой математической беззаконности. Доля эта невелика, и эффект обычно крайне мал. Но иногда он становится ясным как день и даже шокирующим – если вы знаете, куда смотреть.
Возьмем лотерейные номера. Беглый взгляд на комбинации, выпавшие в прошлом, не выявляет ничего, кроме случайности.
Но если всмотреться, начнут проступать мельчайшие крупицы упорядоченности: там – пара последовательных чисел, тут – череда простых чисел.
Но лотерею никто не «подкручивает»: регулярно проводится статистическая проверка, чтобы исключить возможность мошенничества со стороны организаторов. Что же происходит? Перед нами пример реванша случайности. Она мстит за то, что ее обуздали. По-настоящему случайные числа не знают границ, а вот лотерейные номера лишены столь безбрежной свободы. Их царство простирается лишь от 1 до 49. А когда случайность помещают в столь тесные рамки, допускающие возможность лишь некоторых исходов, она утрачивает часть своей абсолютной беззаконности и непредсказуемости. Она вынуждена подчиниться теории вероятностей, которая описывает поведение бесконечно случайного в конечном мире.
Так, в лотерее с 49 шарами, согласно теории вероятностей, наборы с «аномальной» (как нам кажется) комбинацией номеров будут появляться примерно в половине всех розыгрышей. Когда случайности приходится распределять свои сюрпризы по ограниченному количеству результатов, следует ожидать неожиданного.
Возьмите произвольный уикенд футбольного сезона в любом году и в любой стране – скажем, 14–15 августа 2004 года в английской премьер-лиге. В эти дни 20 команд сражаются друг с другом в 10 матчах. В половине матчей хотя бы у двух игроков, вышедших на поле, будет совпадать день рождения (без учета года). Странное совпадение? Вовсе нет. Теория вероятностей демонстрирует, что когда случайность вынуждена разбросать дни рождения 22 игроков, участвующих в каждом матче (без учета замен), среди 365 дней года (для простоты не будем рассматривать високосные годы), шансы на то, что хотя бы два игрока, участвующие в матче, отмечают день рождения одновременно, составят приблизительно 50:50. Иными словами, в примерно половине из 10 матчей, сыгранных в этот уик-энд, по меньшей мере у двух игроков должен совпадать день рождения. И что же? В действительности именно это и наблюдается.
Теория вероятностей предсказывает такие же шансы (примерно 50:50) на то, что по меньшей мере один игрок из 230, вышедших на поле в этот уикенд, будет отмечать день рождения в день матча. В описываемые дни таких нашлось даже два: Джей-Джей Оокча из Bolton Wanderers и Джонни Джексон из Tottenham Hotspur.
Более пристальный взгляд на случайность позволяет обнаружить еще менее заметные признаки ее бунта против ограничений. Примерно столетие назад статистик Владислав Борткевич провел ставшее впоследствии классическим исследование смертей в прусской армии. В работе подчеркивалась странная связь между случайностью и универсальной математической константой е. Это нескончаемое иррациональное число (2,718281…) частенько всплывает в природных процессах, скорость которых зависит от текущего состояния системы. Примеры – рост населения или радиоактивный распад.
Данные Борткевича показывают, что это универсальное число можно отыскать в случайных событиях – например, в риске погибнуть от удара лошадиным копытом. Согласно воинским рапортам, всем прусским солдатам грозил небольшой (но конечный по величине) риск скончаться из-за лягающегося скакуна. В среднем один такой случай приходился на каждые 1,64 года. Борткевич обнаружил, что среди 200 изученных им рапортов 109 не сообщали ни о каких смертных случаях. Разделим 200 на 109, а затем возведем результат в степень 1,64 – средний интервал между смертями от удара копытом. Получится 2,71, то есть почти e (с точностью примерно 1 %).
Статистический выброс? Вовсе нет. Это связано с математическими особенностями так называемого распределения Пуассона. Теория вероятностей показывает, что встречу с числом е можно ожидать, когда много событий, обусловленных случайностью, распределено в ограниченном интервале времени. Точно так же происходит и с событиями, разбросанными по ограниченной области пространства. К примеру, число е можно получить, исследуя картину падения «Фау-1» на Южный Лондон во время Второй мировой войны. Хотя мест падения сотни, вероятность того, что случай заставит снаряд упасть на определенный участок британской столицы сравнительно низка. Анализ данных, сходный с предыдущим, дает число 2,69 – опять-таки это почти е (и тоже с точностью около 1 %).
Это справедливо и для частоты войн между странами, и вообще для многих других явлений в человеческой жизни. В каждой конкретной ситуации вероятность события может быть низкой, но оно имеет массу возможностей произойти, и случайность отвечает на это, словно бы заманивая в статистику событий число е.
Случайность способна даже породить данные, из которых можно извлечь, пожалуй, самую знаменитую универсальную константу. Если произвольным образом бросать иголку на деревянный пол, окажется, что число случаев, когда она пересечет щель между какими-нибудь половицами, зависит от геометрических параметров иглы и половиц… и от числа π. Дело в том, что игла каждый раз оказывается на полу под случайным углом по отношению к половицам. Если проделать этот опыт несколько десятков тысяч раз подряд, из этой случайности проступит неожиданно точное значение числа π.
Таких фокусов много. Белого кролика по кличке Пи можно вынуть из любой шляпы, окаймленной случайностью. Соберите большую кучу целых чисел, разбейте их на пары и проверьте, есть ли у каждой пары общий делитель. Вычислите долю таких пар, у которых общего делителя нет, умножьте на 6 и извлеките из произведения квадратный корень. Как показывает одна математическая теорема, по мере роста количества исследуемых пар результат такого вычисления будет все больше приближаться к числу π.
Можно даже задействовать звезды на ночном небе. Достаточно сравнить угловое расстояние между любыми двумя звездами на небесной сфере с угловым расстоянием для любой другой пары. Проделайте это упражнение для 100 самых ярких звезд на небе, и описанный выше метод общего делителя даст вам «небесное π», равное 3,12772: отклонение от истинного значения составляет меньше 0,5 %.
Нам, людям, судя по всему, присуще особое пристрастие к высматриванию осмысленных узоров в случайном – от религиозных фигур в облаках до лиц на Марсе. И мы правы, когда отмахиваемся от большинства из них как от иллюзий. Но иногда случайность может приносить нам сюрпризы, давая узор, который намекает на таящийся во всем порядок.
Жестокий суд
Сыщик Коломбо, герой культового американского телесериала, при всей своей мнимой неуклюжести всегда добирается до преступника. Взять хотя бы фотографа светской хроники из серии, вышедшей в 1974 году. Он убил свою жену и представил дело как неудавшееся похищение. Перед вами идеальное преступление – но до тех пор, пока хитроумный детектив не придумает трюк для его разоблачения. Коломбо ставит убийцу в ситуацию, когда тот вынужден схватить с полки, где стоят 12 фотоаппаратов, один-единственный. Негодяй хватает именно тот, с помощью которого снимали жертву перед ее убийством. «Вы только что сами себя изобличили, сэр», – замечает полицейский, присутствующий при этой сцене и внимательно наблюдающий за преступником.
Увы, все не так просто. Даже не будучи убийцей, всякий мог бы случайно выбрать тот же аппарат, шансы здесь – 1 из 12. Такого рода улики не годятся для суда. Или годятся?
Подобные вероятностные ловушки встречаются не только в детективах. «Со статистикой ошибаются до безобразия часто, – говорит Рэй Хилл, математик из британского Сэлфордского университета, в свое время дававший экспертные заключения по нескольким громким уголовным делам. – Я постоянно сталкиваюсь с примерами, когда при работе с уликами и свидетельскими показаниями никто не обращает внимание на эти ошибки».
Основная причина здесь – слишком небрежный анализ вероятностей, который может привести к несправедливому решению, запятнать репутацию суда и даже отправить невиновного за решетку. По мере того как все больше судебных разбирательств полагаются на «совершенно недвусмысленные» данные вроде результатов сопоставления ДНК, проблема становится все более острой. Некоторые математики призывают судей пройти специальный краткий курс, чтобы научиться лучше оценивать истинную значимость представляемых в суде доказательств. Лозунг этих энтузиастов: «Байесовское правосудие – для всех!».
Сей клич побуждает обратиться к работам Томаса Байеса, британского математика XVIII века. Он показал, как вычислять условную вероятность – шансы на то, что нечто является истинным, если его истинность зависит от других утверждений, которые являются истинными. Именно с этой проблемой постоянно сталкиваются суды по уголовным делам, просеивающие доказательства, чтобы определить, виновен ли подсудимый (см. «Правосудие по Байесу»).
Похоже, математику следовало бы широко применять в суде: это кажется вполне логичным. Однако судьи и присяжные слишком часто полагаются на интуицию. Вот очень показательный пример: в 1996 году британец Дэннис Джон Адамс предстал перед судом по обвинению в изнасиловании. При опознании среди группы лиц (когда выстраивают нескольких похожих людей, и жертве или свидетелю нужно выбрать одного из них) Адамса не идентифицировали. Его подружка утверждала, что у него алиби. Но его ДНК «с вероятностью 200 миллионов к 1» совпала по генетическому составу со спермой, отобранной на месте преступления. Столь ошеломляющая улика наверняка убедила бы любое жюри присяжных, что он виновен.
Но следует разобраться, что же означает эта цифра. Юристы, присяжные и журналисты часто считают, что в такой ситуации есть лишь один шанс на 200 миллионов, что сперма с места преступления принадлежала не Адамсу, а кому-то другому, а потому его уверения в невиновности показались всем неубедительными. Однако как мы увидим позже, на самом деле это означает: есть один шанс на 200 миллионов, что ДНК любого произвольно выбранного человека совпадет по своему составу с генетическим материалом, отобранным на месте преступления.
Разница трудноуловимая, но очень важная. Возьмем, к примеру, все 10 тысяч мужчин, способных совершить это преступление. Это означает шанс 10 тысяч на 200 миллионов, или 1 на 20 тысяч, что такое совпадение ДНК относится не только к Адамсу, но и к кому-то другому. Ситуация для Адамса не очень утешительная, но все-таки уже совсем не такая безнадежная.
Защита Адамса обеспокоилась, что присяжные могут неверно интерпретировать эти вероятности, и даже обратилась с просьбой вызвать в суд Питера Доннелли, специалиста по статистике из Оксфордского университета. «Мы разработали специальную анкету, чтобы помочь им объединить все доказательства при помощи байесовской логики», – рассказывает Доннелли.
Однако они не сумели убедить присяжных в эффективности байесовского подхода, и Адамса признали виновным. Дважды он подавал апелляцию, и оба раза безуспешно. Приговор не удалось обжаловать, поскольку оба раза судья провозглашал, что работа жюри «состоит в том, чтобы оценивать доказательства не посредством какой-то формулы… а путем совместного использования здравого смысла каждого из присяжных».
А если здравый смысл противоречит истине, справедливости? По мнению Дэвида Люси, математика из британского Ланкастерского университета, приговор Адамсу показывает: в обществе сложилась культурная традиция, которую необходимо срочно менять. «В некоторых делах статистический анализ – единственный способ оценить доказательства, так как интуиция может привести к ошибочным выводам», – подчеркивает он.
Норман Фентон, специалист по информатике из Лондонского университета королевы Марии, не раз сотрудничавший с защитой в уголовных процессах, предлагает решение проблемы. Вместе со своим коллегой Мартином Нилом он разработал целую пошаговую систему схем и древовидных алгоритмов принятия решения. Система должна помочь присяжным усвоить байесовскую логику. Фентон и Нил считают: как только присяжных удастся убедить, что метод работает, экспертам разрешат применять теорему Байеса к фактам, изложенным в деле. Теорему можно воспринимать как своего рода «черный ящик»: пусть вы и не понимаете, что происходит у него внутри, зато он позволяет вычислить, как вероятность невиновности или виновности меняется по мере представления каждого очередного доказательства. «Вас же не интересует, какие вычислительные стадии проходит электронный калькулятор, чтобы выдать результат, правда? Почему же вас интересует это здесь?» – спрашивает Фентон.
Предложение спорное. Доведя его до логического предела, можно представить себе судебный процесс, чей исход целиком зависит от одного-единственного вычисления. Когда речь идет о сравнении ДНК или образцов крови, байесовские вероятности работают отлично. Гораздо труднее дать количественную оценку таким инкриминирующим факторам, как внешность или поведение. «Разные присяжные интерпретируют разные улики по-разному. Математик не должен выполнять эту работу за них», – замечает Доннелли.
По его мнению, экспертов-криминалистов следовало бы натаскивать в области статистики, чтобы они могли отслеживать вероятные ошибки в самом начале, практически еще до того, как они действительно будут допущены. После процесса над Адамсом и других подобных дел такое началось и в США, и в Великобритании. Однако адвокаты и присяжные по-прежнему не очень уж сведущи в статистике, а зачастую вообще не имеют никакого понятия об этой науке.
Как показывают пять видов реальных судебных ошибок и погрешностей, приводимые ниже, здесь нет места самоуспокоенности и небрежности. По словам Доннелли, эти юридические примеры очень убедительны. Призывы пересмотреть основы практики статистического анализа объясняются отнюдь не тем, что математики пытаются навязать миру свой образ мышления. «Для справедливого суда нужно научить каждого участника процесса корректно обращаться с неопределенностями», – говорит он.
1. Прокурорская ошибка
«Прокурорская ошибка – погрешность, которую очень легко допустить», – говорит Йен Эветт из Principal Forensic Services, криминологической консалтинговой фирмы, базирующейся в английском графстве Кенте. При этом происходит смешение двух слегка различных вероятностей, которые разграничивает формула Байеса: P (H | E), т. е. вероятности того, что обвиняемый невиновен, если его данные соответствуют улике, и P (E | H), т. е., наоборот, вероятность того, что данные обвиняемого соответствуют улике, если он невиновен. Первая вероятность – то, что мы хотели бы знать. Вторая – то, что нам обычно сообщают эксперты-криминалисты.
К сожалению, даже у профессионалов иногда возникает здесь путаница. На процессе 1991 года, где Эндрю Дина из британского Манчестера обвиняли в изнасиловании, эксперт на основании изучения образца ДНК согласился с тем, что «вероятность того, что источник спермы не Эндрю Дин, а кто-то другой, составляет 1 на 3 миллиона».
Это неверно. Единица на 3 миллиона – вероятность того, что любой невинный человек среди всего населения страны обладает ДНК-профилем, совпадающим с тем, который выявили при анализе спермы, обнаруженной на месте преступления. Иными словами, это P (E | H). Вспомним, что в Великобритании живет около 60 миллионов человек. А значит, такой профиль обнаружится у немалого числа мужчин. Тут многое зависит от того, сколько из них действительно могли бы совершить это преступление. Но все равно вероятность невиновности Дина (хоть его ДНК-профиль и дает соответствие), или P (H | E), гораздо выше, чем «1 на 3 миллиона».
Дина признали виновным. Приговор удалось с блеском обжаловать, что привело к целому потоку сходных апелляций. Результаты оказались разными, иной раз – довольно неожиданными. В 2008 году в тюрьму заключили одного калифорнийца, чья ДНК, как установила полиция, соответствовала образцам, полученным на месте изнасилования и убийства, совершенных за 35 лет до этого.
2. Ошибка конечного вопроса
В деле Дина обвинение едва не превратило свою вероятностную ошибку в окончательный приговор. Однако в сознании присяжных она наверняка превратилась в «ошибку конечного вопроса» (т. е. вопроса о вине, адресуемого присяжным) – в явное и недвусмысленное приравнивание (небольшой) величины P(E | H) и вероятности того, что подсудимый невиновен.
В 1968 году в Лос-Анджелесе ошибка конечного вопроса отправила за решетку Малькольма Коллинза и его жену Джанет. На первый взгляд, обстоятельства дела практически не оставляли места для сомнений: пожилую даму ограбили белая женщина-блондинка и темнокожий усатый мужчина, после чего преступная парочка скрылась на желтой машине. Эксперты подсчитали: шансы найти межрасовую пару, отвечающую этому описанию, составляют 1 на 12 миллионов.
Полицию это убедило. Присяжные тоже не особенно спорили. Они полагали: есть шанс 1 на 12 миллионов, что описание обвиняемой пары не соответствуют описанию преступников. Они полагали: такова же и вероятность ее невиновности.
Они ошибались и в том, и в другом. В таком городе, как Лос-Анджелес, в котором живут и через который проезжают миллионы представителей всевозможных рас, наверняка нашлась бы по меньшей мере еще одна такая пара, и у Коллинзов были бы равные с нею шансы оказаться невиновными (или даже более высокие). Не говоря уж о том, что само описание преступников могло оказаться неточным. Все эти факты помогли успешно обжаловать приговор.
3. Пренебрежение исходной выборкой
Всякий, кто хочет воспользоваться определением ДНК-профиля как быстрой дорожкой для вынесения обвинительного приговора, должен осознавать: генетические доказательства могут быть шаткими. Даже если шансы найти еще одно генетическое совпадение составляют один на миллиард, в мире, где живет 7 миллиардов человек, это означает, что есть еще семь носителей такого же профиля.
К счастью, косвенные и криминалистические доказательства часто довольно быстро сужают группу подозреваемых. Но пренебрежение «исходной выборкой» (всем набором возможных носителей изучаемых совпадений) способно привести к неверным выводам, и не только в зале суда.
Допустим, некто попадает в операционную. У него только что диагностировали смертельную болезнь, которая поражает одного человека из каждых 10 тысяч. Точность диагноза – 99 %. Какова вероятность, что пациент действительно болен этим недугом?
На самом деле она меньше 1 %. Причина этого – сама по себе малая распространенность заболевания, означающая, что даже при диагностике с 99-процентной точностью ложноположительные результаты намного перевешивают истинноположительные (см. схему). Вот почему так важно провести дополнительные исследования, чтобы уменьшить вероятности. Такие результаты, столь противоречащие интуиции, поражают не только непрофессионалов: опросы показывают, что 85–90 % работающих в области медицины также интерпретируют эти вероятности неверно.
Только без паники
Вам поставили диагноз: редкая болезнь, поражающая одного из 10 тысяч. Точность диагноза – 99 %. Надеяться или отчаиваться?
Если точность диагноза – всего 99 %, то 1 % от оставшегося (здорового) населения также даст положительный результат при тестировании:
А значит, если данные тестирования положительны, при прочих равных условиях вероятность того, что у вас нет этой болезни, превышает 99 %. Есть смысл надеяться.
4. Адвокатская ошибка
Не только прокуроры могут выворачивать в свою пользу представляемую в суде статистику. Защитников тоже не раз ловили на избирательном отношении к вероятностям.
В 1995 году О. Джей Симпсон, когда-то считавшийся звездой американского футбола, предстал перед судом по обвинению в убийстве своей жены Николь Браун и ее друга. За несколько лет до этого, во время другого процесса, Симпсон заявил, что не оспаривает обвинение в домашнем насилии против Браун. В попытке сыграть на этом факте Алан Дершовиц, консультант защиты Симпсона, заявил, что в среднем менее чем одна из 1000 женщин, подвергавшихся домашнему насилию со стороны своих мужей или бойфрендов, затем оказывалась убита ими.
Может, и так, но это не самый значимый факт в данном деле, как позже продемонстрировал Джон Аллен Паулос, математик из Темпльского университета (Филадельфия, штат Пенсильвания). Как показывает расчет по байесовскому методу, учитывающий все относящиеся к делу факты, сообщение Дершовица совершенно затмевается 80-процентной вероятностью того, что если женщина подверглась домашнему насилию и затем оказалась убитой, то виновный – ее партнер.
Но, возможно, и это еще не все, замечает криминолог Уильям Томпсон из Калифорнийского университета в Ирвайне. Если более 80 % всех убитых женщин (и подвергавшихся до этого домашнему насилию, и избежавших его) убиты своим партнером, «факты предшествующего домашнего насилия могут вообще не иметь никакой диагностической ценности».
5. Ошибка обусловленного доказательства
Иногда математическая логика покидает зал судебного заседания задолго до того, как можно было бы применить байесовский метод, потому что используются не те вероятности.
Взять хотя бы так называемую ошибку обусловленного доказательства, ставшую главной причиной одного из самых известных несправедливых приговоров в Великобритании последнего времени. В ноябре 1999 года Салли Кларк признали виновной в том, что она задушила двух своих детей, пока те спали. Педиатр Рой Мидоу свидетельствовал в суде, что вероятность одновременной естественной кончины двух младенцев от синдрома внезапной детской смерти (СВДС), или «смерти в колыбели», составляет 1 на 73 миллиона. Он получил эту величину, возведя в квадрат индивидуальную вероятность СВДС в семье, подобной семье Кларк (эта вероятность, по его мнению, составляла 1/8500), как если бы эти две смерти были событиями независимыми.
Но с чего им быть независимыми? «Вполне могут существовать неизвестные нам генетические или экологические факторы, вызывающие предрасположенность семьи к СВДС, так что второй случай в одной и той же семье становится гораздо более вероятным», – объяснял представитель Королевского статистического общества во время обжалования приговора.
«Даже три опытнейших судьи не увидели эту ошибку», – сожалеет Рэй Хилл, сотрудничавший с защитой. По его оценкам, если один из (двух) детей умирает от СВДС, вероятность того, что от этого же синдрома умрет его брат или сестра, составляет 1/60, что немало. Расчеты по байесовскому методу позволяют заключить, что вероятность двойной «смерти в колыбели» составляет примерно 1 к 130 000. Каждый год в Великобритании появляются на свет сотни тысяч детей, так что двойная «смерть в колыбели» должна происходить довольно часто.
В 2003 году приговор, вынесенный в отношении Кларк, наконец удалось обжаловать. Ее случай долго будоражил общество. Он заставил пересмотреть многие схожие дела. «За последние годы я не встречал ни одного дела о множественных смертях в колыбели, которое дошло бы до суда», – говорит Хилл. Салли Кларк так никогда и не оправилась после своих несчастий. В 2007 году ее нашли мертвой в собственном доме. Еще одна жертва статистической безграмотности.
Правосудие по Байесу
Можете ли вы стать байесовским присяжным? Как показывает пример ниже, это не так-то просто. Допустим, у вас имеется некая улика (E, evidence) с места преступления (пятно крови или, скажем, нитка из одежды), которая совпадает с данными подозреваемого.
Как она должна повлиять на ваше восприятие – на вашу гипотезу (H, hypothesis) касательно невиновности подозреваемого?
Теорема Байеса показывает, как с учетом Е вычислить вероятность гипотезы H.
P (H | E) = (P (H) × P (E | H))/P (E),
где P (H) – вероятность гипотезы H (т. е. насколько она вероятна вообще ),
P (E | H) – вероятность для улики Е с учетом гипотезы Н,
Р (Е) – полная вероятность для улики Е.
Допустим, вы заседаете в жюри присяжных на процессе по делу о нападении с применением насилия. Какое-то время вы на 60 % уверены, что подсудимый невиновен, т. е. для вас P (H) = 0,6. Затем вам сообщили, что и кровь подсудимого, и кровь, обнаруженная на месте преступления, относится к группе В, которая характеризует около 10 % жителей страны. Как это должно повлиять на ваше суждение? Увеличилась или уменьшались, на ваш взгляд, вероятность вины подсудимого?
Эксперт-криминалист, сообщивший эти данные, привел вероятность того, что характеристика улики соответствует кому-то из невиновных жителей страны: P (E | H) = 0,1. Чтобы применить формулу Байеса и найти P (H | E), вашу новую оценку невиновности подсудимого, нужно знать, чему равна Р (Е), вероятность того, что кровь обвиняемого – такая же, как и в образце, найденном на месте преступления.
Между тем эта вероятность как раз зависит от того, виновен ли подсудимый. Если он невиновен, она равна 0,1, как и для всякого невиновного (см. выше). Если же он виновен, она равна 1, т. к. кровь у него совершенно точно такая же, как и в образце с места преступления. Благодаря этому рассуждению можно рассчитать полную вероятность Р (Е), просуммировав вероятности совпадения характеристик крови в случае невиновности (H) или виновности (не Н):
P (E) = [P (E | H) × P (H)] + [P (E | не H) × P (не H)] = = (0,1 × 0,6) + (1 × 0,4) = 0,46.
А значит, согласно формуле Байеса, «исправленная» вероятность невиновности такова:
P (H | E) = (0,6 × 0,1) / 0,46 = 0,13.
Как и следовало ожидать, после сообщений эксперта вероятность невиновности подсудимого резко упала. Теперь он (возможно) в 4–5 раз виновнее, чем вы думали прежде.
Мирные переговоры в области вероятностей
Если нам все-таки удастся ввести в обиход статистическую идею XVIII века, каковы шансы, что она станет нашим излюбленным методом практического определения вероятностей? Зависит от того, сможем ли мы успешно сочетать два очень разных мира, подчеркивает Регина Нуццо .
Начнем со старого лозунга, который любили печатать на футболках: «Статистика – это когда можно не говорить, что вы уверены». Главная работа статистики – делать выводы, не зная всех фактов. Сколько жителей страны поддерживают легализацию марихуаны? Вы не можете опросить всех. Несколько раз подряд лето выдалось жарким: что это – отражение естественной изменчивости климата или же новая тенденция? Нельзя сказать определенно, мы ведь не можем заглянуть в будущее.
Ответы на такие вопросы обычно сопровождаются численной величиной – вероятностью. Но эта единичная величина зачастую маскирует собой ключевое различие между двумя несходными разновидностями неопределенности – между тем, чего мы не знаем, и тем, чего мы не можем узнать.
Неопределенность типа «не можем узнать» берет начало в процессах, которые протекают в реальном мире и результат которых кажется случайным для всех, кто их наблюдает: как ляжет игральная кость, где остановится колесо рулетки, в какой именно момент распадется конкретный атом в радиоактивном образце. Это мир «частотных» вероятностей: если достаточно долго бросать кости или пронаблюдать за достаточным количеством распадающихся атомов, можно получить неплохое представление об относительной частоте возможных исходов и выработать способ численной оценки их вероятности.
Неопределенность типа «не знаем» – штука более скользкая. Здесь играет роль личное неведение, а не простая универсальная случайность. Каков пол у еще не родившегося ребенка вашей беременной соседки? Это уже данность, так что случай сюда не вовлечен. Но вы пока не знаете, поэтому не уверены в ответе, для вас это – неопределенность. Если вы любите тотализатор, где разрешается делать ставки по ходу игры, вы можете задаться вопросом: кто победит в футбольном матче, который сейчас в самом разгаре? Его исход сейчас тоже определяется не одной лишь случайностью. И если вы внимательно следили за ходом игры, вы более уверены в ее исходе, чем ваш приятель, беспечно дремавший с начала матча. Добро пожаловать в царство байесовской статистики!
По подходу к этим двум различным типам неопределенности как раз и делятся фреквентисты (частотники) и байесианцы. Закоренелый фреквентист не желает заниматься неопределенностями типа «не знаем» и вообще какими бы то ни было вероятностными характеристиками, которые нельзя вывести из воспроизводимых экспериментов, генераторов случайных чисел, анализа случайных выборок населения и т. п. Напротив, байесианец без зазрения совести пользуется всякого рода априорной информацией – скажем, сведениями о характере голосования на предыдущих выборах – для того, чтобы заполнить пробелы. «Байесианцы с радостью приписывают ту или иную вероятность утверждениям о мире. Фреквентисты никогда так не делают, – объясняет Тони О’Хаган, специалист по статистике из британского Шеффилдского университета, занимающийся изучением байесовских методов. – Что такое байесовский подход? Мы пытаемся отвечать на вопросы, привлекая все данные, имеющие отношение к делу, даже если вклад каких-то из них зависит от субъективного суждения».
В конце XVIII – начале XIX века байесовские методы (и им подобные) помогли разобраться в широком спектре проблем, казавшихся неразрешимыми: от оценки массы Юпитера до расчета общемирового количества новорожденных мальчиков по отношению к новорожденным девочкам. Но эти методы постепенно вышли из моды, став жертвой начинавшейся эпохи Больших Данных. Все – от усовершенствованных технологий астрономических наблюдений до неслыханно подробных статистических таблиц смертности, заболеваемости и преступности – внушало успокоительное ощущение объективности. Байесовские методы разумных догадок казались безнадежно устаревшими и довольно-таки ненаучными по сравнению с новыми статистическими подходами. Учение фреквентистов, выдвигавшее на первый план бесстрастный обсчет количественных результатов рандомизированных экспериментов (т. е. проводящихся методом случайной выборки), стало пользоваться все большей популярностью.
Квантовая теория, зародившаяся в начале XX века, даже саму реальность выражала языком частотной вероятности, что дало дальнейший толчок развитию методов фреквентистов. Два направления статистической мысли постепенно все больше отдалялись друг от друга. Адепты того или иного учения в конце концов стали направлять статьи лишь в симпатизирующие им журналы, проводить собственные конференции, даже создавать отдельные факультеты. Эмоции часто зашкаливали. Шерон Берш Мак-Грейн, автор научно-популярных работ, вспоминает, что когда она начала готовить свою книгу «Теория, которая не желает умирать», посвященную истории байесианских идей, один статистик, предпочитавший учение фреквентистов, долго клеймил ее по телефону за «попытку легитимизировать байесианство». А у байесианцев в ответ развилось что-то вроде мании преследования, замечает Роберт Касс из Университета Карнеги – Меллона: «Некоторые байесианцы стали слишком уж уверенными в своей правоте и непогрешимости. Они отстаивают свои взгляды с каким-то религиозным рвением».
На самом-то деле и тот, и другой метод имеет свои преимущества и свои недостатки. Когда экспериментальных точек недостаточно (то есть когда у нас лишь скудное количество данных) и когда на повторение эксперимента надежды мало, байесианские методы позволяют неплохо выжимать информацию из тех немногих результатов, которые у нас все-таки имеются. Возьмем, к примеру, астрофизику. Зафиксированная в 1987 году вспышка сверхновой в одной из ближайших к нам галактик, Большом Магеллановом облаке, дала возможность проверить давно существующие теории о нейтринных всплесках, порождаемых такими явлениями. Но детекторы уловили только 24 из этих частиц, вечно ускользающих от земных наблюдателей. Без изобилия воспроизводимых результатов методы фреквентистов никуда не годились, но гибкий байесианский подход, тянувший информацию отовсюду, предоставил идеальный путь для оценки конкурирующих теорий астрономов.
Тут очень помогли хорошо обоснованные теории – они дали бесспорную, априорную, информацию для того, чтобы начать этот анализ. Когда такой информации нет, байесовский анализ нередко работает по принципу «мусор на входе – мусор и на выходе». Это одна из причин, по которым в суде с большой осторожностью применяют байесовские методы, хотя, на первый взгляд, они представляют идеальный путь для синтеза разного рода запутанных улик, поступающих из разных источников. В штате Нью-Джерси при разбирательстве в 1993 году дела об отцовстве применяли байесовскую статистику, но суд решил, что каждому из присяжных следует воспользоваться собственными априорными данными касательно вероятности того, является ли подсудимый отцом ребенка, хотя из-за этого каждый присяжный должен был вынести свою статистическую оценку виновности. «Не существует верного или неверного байесианского ответа, – замечает Ларри Вассерман из Университета Карнеги – Меллона. – Ну чистый постмодернизм».
Кроме того, чтобы найти хорошие априорные данные, может потребоваться непомерная и невозможная глубина знания. Допустим, ученые пытаются установить причины болезни Альцгеймера. Они могут проанализировать 5000 генов. Использование байесовских методов потребовало бы 5000 априорных параметров, касающихся возможного вклада каждого гена в развитие болезни, плюс еще 25 миллионов параметров – если мы хотим рассмотреть пары генов, работающих совместно. «Никто не в состоянии построить разумную систему априорных параметров для столь многомерной проблемы, – замечает Вассерман. – И даже если кто-нибудь ее построит, никто ей не поверит».
Откровенно говоря, без всякой дополнительной информации стандартные методы фреквентистов, предполагающие просеивание множества мелких генетических эффектов, не позволят с такой уж легкостью выявить по-настоящему важные гены и их комбинации. Но с этой проблемой, пожалуй, все-таки проще справиться, чем с добыванием 25 миллионов разумных байесианских догадок.
В целом частотный подход хорошо работает, когда у нас есть изобилие данных, представленных наиболее объективным из возможных способов. Громкий пример – поиски бозона Хиг гса, завершенные в 2012 году близ Женевы в лаборатории ЦЕРНа, занимающейся изучением физики элементарных частиц. Наблюдения дали довольно неожиданный результат. Группы исследователей сошлись во мнении, что если бы на самом деле никакого бозона Хиггса не существовало, то столь же неожиданный (или даже более неожиданный) характер данных наблюдался бы лишь в 1 из 3,5 миллиона гипотетических последовательных опытов. Вероятность так мала, что исследователи посчитали разумным отвергнуть идею Вселенной без бозона Хиггса.
Все эти формулировки могут показаться вам несколько путаными. Они отражают главную слабость частотного подхода: его сторонники подчас идут на всевозможные ухищрения, не желая иметь дело с неопределенностями типа «не знаем». Бозон Хиггса либо существует, либо нет, и невозможность дать определенный ответ объясняется исключительно нехваткой информации. Фреквентист строгих взглядов, по сути, даже не может вынести прямое суждение о вероятности его существования, вот почему специалисты ЦЕРНа так осторожничали (хотя некоторые журналисты и другие непосвященные выражали свои мнения на сей счет куда свободнее).
Непосредственное сравнение двух методов может показать нам, какую путаницу способны породить эти подходы. Возьмем, скажем, проведенные в 1990-х годах весьма противоречивые клинические испытания двух противоинфарктных средств – стрептокиназы и тканевого активатора плазминогена. Вначале частотный анализ приписал «вероятность ошибки» (p) 0,001 исследованию, которое как будто показывало, что после применения нового, более дорогостоящего метода лечения (с помощью тканевого активатора плазминогена) выживаемость больных выше. Иными словами, утверждалось, что если бы уровень смертности для двух препаратов был равным, то уровни смертности, подобные реально наблюдавшимся (или лучше), проявлялись бы лишь в каждом из тысячи последовательных испытаний.
Это не значит, что исследователи были на 99,9 % уверены в том, что новый препарат лучше, хотя подобные сообщения, опять же, часто интерпретируют именно так. Когда другие специалисты заново проанализировали эти испытания, но уже по Байесу, взяв при этом результаты предшествующих клинических тестов как априорные данные, они заключили: «Непосредственная» вероятность того, что новый препарат лучше, составляет лишь около 17 %. «При баейсианском подходе мы напрямую обращаемся к интересующему нас вопросу и говорим, насколько вероятно, что положительный ответ на него истинен, – объясняет Дэвид Шпигельхальтер из Кембриджского университета. – Да и кто не захочет говорить именно об этом?»
У всякого свой любимый конек. Но, может быть, преимущества и недостатки каждого из этих двух подходов как бы побуждают нас задуматься: а не лучше ли как-то скомбинировать элементы обоих? Касс принадлежит к новому племени статистиков, которое как раз этим и занимается. «Для меня статистика – своего рода язык, – говорит он. – Можно свободно владеть французским и английским, спокойно переключаясь с одного на другой в случае необходимости».
Стивен Сенн, специалист по фармацевтической статистике из Люксембургского института здоровья, с ним согласен: «Я использую, так сказать, „смешанную статистику“, в которой отовсюду надергано понемногу. Нередко я работаю как фреквентсит, но оставляю за собой право выполнять байесианский анализ и мыслить по-байесовски».
Касс приводит в пример одно исследование: вместе с коллегами он анализировал характер активации двух сотен нейронов в зрительно-двигательной зоне обезьяньего мозга. Исследования, проводившиеся ранее нейробиологами, дали Кассу и его коллегам предварительную информацию о том, насколько быстро должны активироваться эти нейроны и насколько быстро скорость их активации может изменяться со временем. Эти данные они учли при байесианском анализе, а затем стали оценивать свои результаты при помощи стандартных методов фреквентистов. Байесианские априорные данные позволили «запустить» анализ так, чтобы частотные методы сумели вычленить даже крошечные отличия в океане шумов. Эффективность совместного применения обоих подходов оказалась значительно выше, чем для каждого метода в отдельности.
Иногда байесовские методы и идеи фреквентистов сплетаются столь тесно, что получается нечто новое. В масштабных геномных исследованиях байесовский анализ может использовать тот факт, что эксперимент, где изучается эффект двух тысяч генов, почти эквивалентен двум тысячам параллельных экспериментов, так что этот опыт способен обеспечивать «перекрестное опыление» для разных сегментов анализа: результаты одних становятся априорными данными для других, благодаря чему постепенно улучшается точность выводов частотного анализа.
«Такой подход дает несколько лучшие результаты, – говорит Джефф Лик из Университета Джона Хопкинса (Балтимор, штат Мэриленд). – Он серьезно изменил наш способ анализа геномной информации».
Кроме того, такой подход ломает барьеры. «Каким его назвать – частотным или байесовским? – спрашивает в своем блоге Рифаэль Иризарри, гарвардский биостатистик. – Для прикладной статистики, которой я занимаюсь, это, в общем-то, неважно».
Впрочем, споры еще не совсем утихли. «По сути, статистика – это абстрактный язык, с помощью которого наука описывает результаты, рассказывая о том, как устроена природа и как она работает, – говорит Касс. – Но рассказывать можно по-разному. И я не исключаю, что лет через 200 в статистике произойдет революция и появится какой-нибудь блестящий синтез байесианства и частотного подхода. Но мне кажется, что здесь всегда будет идти борьба как минимум двух методов».
Известные неизвестные
Бросим последний (в этой книге) взгляд на математику случая. Мы отправляемся в мрачные глубины теории чисел. Осторожно, здесь таятся чудовища: совершенно непредсказуемые числа, не позволяющие нам доказать некоторые теоремы. Чудовищ открыл Грегори Чайтин . Он постарается объяснить, почему некоторых так встревожило это открытие.
Физики давно обсуждают вопрос предсказуемости. В начале XIX века классические детерминистические законы Исаака Ньютона заставили Пьера Симона де Лапласа решить, что будущее Вселенной, возможно, навсегда предопределено.
А потом появилась квантовая механика. Ее теории лежат в основе нашего теперешнего понимания природы вещества. Она описывает очень маленькие объекты – например, электроны и другие элементарные частицы. Одной из самых противоречивых особенностей квантовой механики стало то, что она ввела в физику вероятность и случайность как основополагающие факторы. Как известно, это очень расстроило Альберта Эйнштейна, который возмущенно заявил: мол, Бог не играет в кости.
А несколько десятилетий спустя научный мир был снова удивлен: исследования в области нелинейной динамики показали, что даже классическая ньютоновская физика зиждется на случайности и непредсказуемости. Так случайность и непредсказуемость начали казаться каким-то объединяющим физическим принципом.
Кажется, этот же принцип распространяется и на математику. Некоторые теоремы, связанные с теорией чисел, невозможно доказать, поскольку, задавая необходимые вопросы, мы получаем результаты, эквивалентные результатам случайного подбрасывания монетки.
Мои выкладки шокировали бы многих математиков XIX века, убежденных, что уж математические истины всегда можно доказать. Например, в 1900 году математик Дэвид Гильберт прочел ставшую знаменитой лекцию, где перечислил 23 нерешенные проблемы как вызов для математиков нового века. Шестая проблема касалась установления фундаментальных универсальных истин – аксиом – в физике. Один из ее аспектов затрагивал теорию вероятностей. Для Гильберта вероятность выступала просто как практический инструмент, берущий начало в физике и помогающий описывать реальный мир, где доступно лишь ограниченное количество информации.
Десятая проблема Гильберта касалась решения так называемых диофантовых уравнений (названных так в честь древнегреческого математика Диофанта). Это алгебраические уравнения, имеющие дело лишь с целыми числами. Гильберт спрашивает: «Существует ли способ определить, будет ли алгебраическое уравнение иметь целочисленное решение?»
Гильберт вряд ли догадывался, что между шестой и десятой проблемой существует тонкая взаимосвязь. В основе всех его рассуждений лежало настолько фундаментальное для него положение, что он даже не сформулировал его на своей лекции в виде проблемы или вопроса: Гильберт неизменно исходил из того, что у каждой математической задачи есть решение. Может быть, нам не хватает ума, трудолюбия или времени, чтобы его найти, но в принципе всякая математическая проблема должна быть разрешимой. Так полагал Гильберт. Для него это была абсолютная истина.
Однако сегодня математикам ясно: Гильберт стоял на зыбкой почве. Да, есть связь между шестой проблемой Гильберта, которая имеет отношение к теории вероятностей, и его десятой проблемой – касательно целочисленных решений для алгебраических уравнений. И эта связь приводит к неожиданному и даже в чем-то устрашающему результату. Оказывается, случайность таится в самом сердце традиционнейшей отрасли чистой математики – теории чисел.
Как выясняется, ответы на простые и ясные математические вопросы не всегда просты. Так, в элементарной теории чисел вопросы, затрагивающие диофантовы уравнения, способны порождать ответы совершенно случайного характера – с виду не черные и не белые, а серые. Ответы случайны, ибо единственный путь доказательства сводится к постулированию каждого ответа как добавочной независимой аксиомы. Эйнштейн ужаснулся бы, узнав, что Бог преспокойно играет в кости не только в квантовой и классической физике, но и в чистой математике.
Откуда столь неожиданный вывод? Вернемся к Гильберту. Он утверждал, что если вы построили формальную систему аксиом, должна существовать механическая процедура для определения того, является ли то или иное математическое доказательство верным, и эти аксиомы должны обладать полнотой и внутренней непротиворечивостью. Внутренняя непротиворечивость системы аксиом означает, что вы не можете доказать противоположные утверждения. Полнота системы означает, что вы можете доказать истинность или ложность любого утверждения, существующего в ее рамках. Из этого следует, что механическая процедура, о которой мы говорили, должна гарантировать: истинность всех математических утверждений можно доказать или опровергнуть механическим путем.
Есть красочное объяснение того, как работает эта механическая процедура. Речь идет о так называемом алгоритме Британского музея. В рамках мысленного эксперимента (неосуществимого на практике, т. к. он требует бесконечного времени) систему аксиом, выраженных формальным языком математики, прогоняют через все возможные доказательства, причем порядок их следования выстроен согласно их размерам и лексикографической структуре (просто для того, чтобы соблюдать какой-то порядок). Вы устанавливаете, какие из этих доказательств верны, т. е. какие из них отвечают определенным правилам и могут быть приняты как справедливые. В принципе, если набор аксиом обладает внутренней непротиворечивостью и полнотой, можно определить истинность/ложность любой соответствующей теоремы. От математиков больше не требуется изобретательность, талант или вдохновение для того, чтобы доказывать теоремы. Математика становится механической.
Конечно же, на самом деле математика совсем не такая. Курт Гёдель, австрийский логик, и Алан Тьюринг, отец компьютера, показали: невозможно получить и аксиоматическую математическую теорию (обладающую внутренней непротиворечивостью и полнотой), и механическую процедуру, призванную решать, каким является произвольное математическое утверждение – истинным или ложным, доказуемым или недоказуемым.
Гёдель первым вывел хитроумное доказательство так называемой теоремы о неполноте, основываясь на теории чисел. Но мне кажется, что вариант той же теоремы, предложенный Тьюрингом, более фундаментален и удобнее для понимания. Тьюринг воспользовался компьютерным языком (он говорил об инструкциях, т. е. о программе, необходимой компьютеру для решения задач), дабы показать: не существует механической процедуры, которая позволила бы определить, прекратит ли когда-нибудь произвольная программа свои расчеты, выдав некий конечный результат и остановив свою работу.
Чтобы показать, что эту так называемую проблему остановки (проблему останова) невозможно решить в принципе, запустим программу на машине Тьюринга, которая представляет собой математическую идеализацию цифрового компьютера, не ограниченную временем. (Программа должна быть самоподдерживающейся – все данные должны поступать из самой же программы.) Далее зададимся простым вопросом: будет ли программа работать вечно или же наступит момент, когда она скажет «я закончила» и остановит работу?
Тьюринг продемонстрировал: для того, чтобы заранее определить, остановится ли когда-нибудь та или иная конкретная программа, не существует никакого набора инструкций, которые можно ввести в компьютер, никакого алгоритма. Непосредственно отсюда как раз и вытекает гёделевская теорема о неполноте: если нет механической процедуры для разрешения проблемы остановки, то нет и набора соответствующих аксиом, обладающих полнотой. Если бы они существовали, они дали бы нам механическую процедуру перебора всех возможных доказательств того, остановятся ли программы (хотя это, разумеется, заняло бы долгое время).
Чтобы сделать свой вывод о случайности в математике, я просто взял результат Тьюринга и изменил его формулировку. Получился своего рода математический каламбур. Хотя проблема остановки нерешаема, можно рассмотреть вероятность того, остановится ли когда-нибудь случайно выбранная программа. Начнем с мысленного эксперимента, где используется обычный компьютер «общего назначения», который, если дать ему достаточно времени, способен проделать работу любого компьютера. Иными словами, это универсальная машина Тьюринга.
Не станем спрашивать, остановится ли конкретная программа. Лучше рассмотрим совокупность всех возможных компьютерных программ. Каждой из них придадим определенную вероятность того, что именно ее выберут. Каждый бит информации в случайно выбираемой программе определяется путем подбрасывания монетки, причем для каждого бита этот бросок – независимый. Тогда для программы, содержащей N бит информации, вероятность того, что ее выберут, равна 2-N. Теперь зададимся вопросом, какова общая вероятность того, что эти программы остановятся. Она, эта вероятность остановки, обозначаемая как «омега» (Ω), позволяет ответить на вопрос Тьюринга о том, остановится ли программа, одним-единственным числом от 0 до 1. Если программа никогда не останавливается, Ω = 0. Если же программа всегда останавливается, Ω = 1.
Точно так же, как компьютеры выражают числа двоичной записью, мы можем выразить «омегу» цепочкой нулей и единиц. Можно ли заранее определить, каким будет N-й бит в этой цепочке цифр – нулем или единицей? Иными словами, можно ли вычислить «омегу»? О нет. Более того, я даже могу показать, что эта последовательность нулей и единиц носит случайный характер. Это можно сделать, используя так называемую алгоритмическую теорию информации, которая приписывает ту или иную степень упорядоченности набору данных в зависимости от того, существует ли алгоритм, способный сжать эти данные, представив их в более краткой форме.
К примеру, цепочку регулярно чередующихся нулей и единиц, описывающую какие-то данные как 0101010101… и состоящую в общей сложности из тысячи знаков, можно сжать в более короткую инструкцию: «Повторить „01“ 500 раз». А вот совершенно случайную цепочку цифр нельзя свести к более короткому тексту-программе. Такие цепочки называют алгоритмически несжимаемыми.
Как показывает мой анализ, вероятность остановки является алгоритмически случайной. Ее нельзя сжать, представив как более короткую инструкцию. Чтобы получить на выходе N бит этого числа, необходимо ввести в компьютер программу длиной по меньшей мере N бит. Каждый из N бит «омеги» – несократимый независимый математический факт, такой же случайный, как и результат подбрасывания монетки. К примеру, в «омеге» столько же нулей, сколько и единиц. Но знание всех ее четных бит не поможет нам узнать никакие из ее нечетных бит.
Мой вывод, что вероятность остановки носит случайный характер, согласуется с утверждением Тьюринга о принципиальной неразрешимости проблемы остановки. Как выясняется, это неплохой пример проявления случайности в теории чисел – этом становом хребте математики.
Все это выросло из впечатляющих событий 1980-х, когда Джеймс Джонс из Университета Калгари и Юрий Матиясевич из ленинградского Математического института им. Стеклова обнаружили теорему, доказанную французским математиком Франсуа Эдуардом Люка столетием раньше. Теорема, по сути, дает целочисленный метод преобразования универсальной машины Тьюринга в универсальное диофантово уравнение, эквивалентное компьютеру «общего назначения».
Я решил: забавно будет это расписать. И при помощи большого компьютера записал такое вот уравнение универсальной машины Тьюринга. В нем оказалось 17 тысяч переменных, и оно растянулось на 200 страниц.
Эта штука принадлежит к разновидности так называемых экспоненциальных диофантовых уравнений. Все переменные и константы в нем – неотрицательные целые числа: 0, 1, 2, 3, 4, 5 и т. д. Оно называется экспоненциальным, поскольку в нем есть числа, возводимые в целочисленные степени. В нормальных диофантовых уравнениях показатель степени должен быть константой. Здесь же показатель степени может быть переменной. Иными словами, здесь имеется не только x³, но и xy.
Чтобы преобразовать утверждение о том, что вероятность остановки («омега») носит случайный характер, в утверждение о случайности решений в арифметике, мне требуется внести лишь некоторые небольшие изменения в это двухсотстраничное диофантово уравнение универсальной машины Тьюринга. В результате мое уравнение, носящее случайный характер, также окажется двухсотстраничным. В этом уравнении есть единственный параметр – переменная N. Для каждого конкретного значения этого параметра я задаю вопрос: «Конечное или бесконечное количество целочисленных решений имеет (при данном N) мое уравнение?» Ответ на этот вопрос, как выясняется, эквивалентен расчету вероятности остановки. Этот ответ сообщает на арифметическом языке, каков N-й бит «омеги» – ноль или единица. Если N-й бит «омеги» является нулем, то мое уравнение для данного конкретного значения N имеет конечное количество решений. Если же N-й бит вероятности остановки – единица, то это уравнение для данного значения параметра N имеет бесконечное количество решений. Подобно тому, как N-й бит «омеги» носит случайный характер (это независимый, несократимый факт вроде результата подбрасывания монетки), установление того, конечно или бесконечно количество решений моего уравнения, также носит случайный характер. Точный ответ мы в принципе никогда не сможем узнать.
Чтобы выяснить, конечным или бесконечным будет количество решений в определенных ситуациях, скажем, когда у нас есть К значений параметра N, придется постулировать существование К ответов как К дополнительных независимых аксиом. Нам придется ввести k бит информации в нашу систему аксиом, так что никакого продвижения нас не ждет. Иными словами, здесь k бит информации – несократимые математические факты.
Итак, я нашел крайнюю форму случайности (или несократимости) в области чистой математики – в элементарной теории чисел, которая зародилась еще две тысячи лет назад благодаря древнегреческим математикам. Гильберт полагал, что истины в математике либо черные, либо белые, что каждое утверждение в ней либо истинно, либо ложно. А вот моя работа, похоже, заставляет истины казаться серыми, так что математики в этом смысле присоединяются к специалистам по теоретической физике. Это плохо? Думаю, не обязательно. Мы уже увидели, что и в классической, и в квантовой физике случайность и непредсказуемость играют фундаментальную роль. Я убежден, что эти понятия таятся и в самом сердце чистой математики.