Сущности не следует умножать без необходимости.
У. Оккам
Поиск исходных «кирпичиков», из которых построен весь мир, — одна из характерных черт любой цивилизации (и, согласно И. Канту, одна из антиномий чистого разума). Не вдаваясь в седую древность, можно сказать, что к концу XIX в. цель, казалось, была достигнута: мир состоит из нескольких десятков видов неизменных атомов и электромагнитного излучения (такое количество исходных атомов выглядит как-то неубедительно, но что поделаешь?). Затем появились: электрон, фотоны, превращения атомов, а позже — структуры этих самых атомов. С открытием нейтрона можно было, как снова казалось, успокоиться: есть протоны, нейтроны, электроны (и их античастицы) и кванты — этих элементарных частиц достаточно для построения всего вещества. Потом добавились пи-мезоны, обеспечивающие связи в ядрах и нейтрино — уже не так мало видов частиц, но среди них как будто ни одной излишней, ненужной…
Ах да, мы забыли о мюоне — для чего он нужен, он же явно излишен в этой утилитарной схеме?
Но с конца 1940-х гг. новые частицы посыпались как из рога изобилия, к 1980-м их можно было считать чуть ли не сотнями. С нашей антропоцентрической (т. е. ставящей во главу угла существование человека) точки зрения, это явный перебор природы. И тут стали возникать разные идеи: рассматривать одни частицы как основные, а другие как составленные из них или их возбужденные состояния, придумать схемы их классификации и взаимозависимости — т. е. как-то упорядочить все это неожиданное обилие объектов и, если не целиком, сразу, то хоть по частям, свести их к определенным типам взаимодействия или к полям с соответствующими квантами взаимодействия.
Частицы, обнаруженные в таком количестве, стало даже как-то неудобно называть «элементарными» или «фундаментальными», поэтому эти названия постепенно вышли из употребления (иногда их называют субъядерными частицами). Остались только подразделения частиц на лептоны, мезоны, барионы, кванты калибровочных полей (в том числе фотон) и кварки, или по-иному: на частицы, участвующие в сильных, электромагнитных, слабых и гравитационных взаимодействиях (некоторые из этих типов можно еще подразделить).
Но четыре типа взаимодействия — это тоже слишком много: нельзя ли их как-нибудь объединить? Сумели же Эрстед и Ампер начать объединять электричество и магнетизм, а Максвелл успешно объединил электромагнетизм и оптику!
Но нужно сохранять последовательность изложения. Поэтому мы рассмотрим в этом разделе, как открывали частицы, а позже — типы их взаимодействий и возможности их объединения.
1. Бета-распад: появление нейтрино
Еще в 1914 г. Дж. Чедвик, измерявший энергии электронов, вылетающих во время превращения радиоактивного изотопа висмута в полоний, пришел к очень странному результату: энергии этих электронов принимали все значения — от очень малого до некоторого самого высшего, причем с почти одинаковой вероятностью. Вначале, конечно, подумалось, что после вылета электрона и превращения ядра излишняя энергия излучится как гамма-квант, но их не обнаружили. Но тогда эта произвольная энергия должна была оставаться в самом ядре, а ведь в нем существуют только определенные уровни, т. е. могут оставаться только определенные порции энергии?
Положение казалось столь безвыходным, что Н. Бор с соавторами предположили, что в элементарных актах взаимодействия энергия сохраняется только «в среднем». Но тогда этот самый бета-электрон должен был бы иметь то меньшую энергию, то большую, а все измерения, начиная с опытов Чедвика, показывали, что есть верхний порог, максимальная энергия электронов распада.
В 1930 г. В. Паули предлагает, в противовес своему учителю Бору, другое объяснение: при бета-распаде помимо электрона испускается еще одна частица, она нейтральная, имеет спин ½ и, вероятно, очень малую массу, поэтому ее не замечают. (Это весьма еретическое предположение Паули не опубликовал, а послал письмом в адрес семинара по физике, на который не смог приехать — готовился к балу в своем университете. Сам он настолько скептически относился к собственной гипотезе, что даже заключил пари, что нейтрино никогда не будет обнаружено — признать свой проигрыш ему пришлось только через 25 лет.)
Однако гипотеза Паули очень понравилась Энрико Ферми — она спасала закон сохранения энергии, и он стал после открытия нейтрона называть эту гипотетическую частицу «нейтрино» (итальянское уменьшительно-ласкательное от «нейтрон»). А через два года после открытия нейтрона Ферми построил первую теорию бета-распада, по которой нейтрон испускает одновременно электрон и нейтрино и превращается в протон (n → р + е - + ν, нейтрино обозначают греческой буквой ν — «ню»). Заметим, что только при этом все в порядке со спинами: в начальном состоянии спин равен ½. а в конечном три фермиона с таким же спином, которые в сумме снова могут дать ½. Теперь, конечно, хотелось как-нибудь это нейтрино зафиксировать, но задача оказалась весьма не простой. Первый, и то не полный, успех был достигнут только в 1942 г. Д. Алленом: он исследовал, как ядро бериллия захватывает электрон и превращается в литий — при этом должно испускаться нейтрино и уносить с собой энергию и импульс. Соотношения энергия-импульс ядра лития и углов разлета показали, что, действительно, должно вылетать нейтрино, а масса его должна равняться нулю.
Следовательно, нейтрино, как и фотон, может двигаться только со скоростью света, но у нейтрино спин равен ½, а у фотона он равен единице, поэтому у них ничего общего, кроме скорости, нет. Поскольку нейтрино является фермионом, то оно должно описываться уравнением Дирака (или каким-нибудь его аналогом), и тогда помимо нейтрино должно существовать еще и антинейтрино (его обозначают добавочной черточкой над буквой «ню»: ͞ν). Поэтому принято писать, что при распаде нейтрона вылетают электрон и антинейтрино (n → р + е - + ͞ν ), а при превращении протона в нейтрон внутри ядра из него должны вылетать позитрон и нейтрино (р → n + е + + ν ). Но чем еще антинейтрино может отличаться от нейтрино?
Трудности регистрации нейтрино связаны с тем, что оно очень слабо взаимодействует с веществом: нейтрино с характерной ядерной энергией в 3-10 МэВ (единицы энергии описаны в Приложении) «спокойно» пролетает Землю насквозь, а в веществе с плотностью воды его длина свободного пробега (до первого взаимодействия) составила бы 100 световых лет! (Трудности усугубляются тем, что, как будет рассказано ниже, существуют, по крайней мере, три разных типа нейтрино: обычное, мюонное и тау.)
Поэтому первая полная регистрация нейтрино произошла лишь через 23 года после выдвижения гипотезы Паули, когда появились мощные ядерные реакторы с их колоссальными потоками нейтрино. В 1953–1956 гг. Ф. Рейнес (1918–1998, Нобелевская премия 1995 г.) и К. Коуэн наблюдали такие реакции в огромном баке с водой, содержащей молекулы-сцинцилляторы.
Громадные потоки нейтрино должны, если справедлива теория термоядерного цикла реакций в звездах Г. Бете, вылетать из нашего Солнца — в этот цикл входят и реакции бета-распада. Для их поиска Реймонд Дэвис (1914–2006) создал принципиально новый детектор, огромный бак, заполненный 600 тоннами специальной жидкости и расположенный в глубокой шахте. В течение самого длинного в истории физики эксперимента, 30-летних (!) наблюдений, ему удалось, по реакциям превращения атомов хлора в атомы аргона, зарегистрировать около 2000 солнечных нейтрино. (Представьте себе задачу по вылавливанию атомов аргона в таком объеме: это почище поиска булавки в стоге сена величиной со всю Солнечную систему!) Наблюдения Дэвиса послужили прямым доказательством того, что в центре Солнца на самом деле идут термоядерные реакции. Однако количество нейтрино было меньше, чем требовали расчеты цикла Бете: проблема «солнечных нейтрино» надолго оставалась болезненной темой для теоретиков. Самый простой выход, возможность преобразования электронных типов нейтрино в мюонные или тау по пути через вещество звезды, требовал новых экспериментов.
Другой гигантский детектор нейтрино, названный «Камиоканде», был создан в Японии группой исследователей во главе с Масатоси Косиба (р. 1926), главным образом, для проверки результатов Дэвиса. Им, к счастью, не пришлось ждать 30 лет: вдруг, 23 февраля 1987 г., во время вспышки сверхновой звезды, обозначаемой как SN 1987А, этот детектор смог зарегистрировать поток нейтрино, пришедший к Земле из соседней галактики — Большого Магелланова Облака.
Детектор «поймал» 12 нейтрино из 1016 (десять миллионов миллиардов), прошедших сквозь него. (Взрыв сверхновой звезды сравним по мощности излучения с излучением триллионов нормальных звезд, поэтому поток его нейтрино и мог быть зарегистрирован на таком расстоянии. Взрывы эти, однако, абсолютно непредсказуемы, и потому их можно долго и очень долго ждать…)
Результаты группы Косибо подтвердили справедливость теории взрыва на втором, после Солнца, объекте. Их наблюдения показали также некоторую асимметрию потоков нейтрино, непосредственно попадающих на детектор и прошедших через толщу Земли. А это как раз и означает возможность преобразования одного типа нейтрино в другие, т. е. возможность нарушения законов сохранения лептонных зарядов по отдельности. (В 2001 г. в нейтринной обсерватории Садбери сумели измерить интенсивность солнечных нейтринных потоков всех трех типов: их соотношения оказались иными, чем в момент излучения. Таким образом была показана возможность их взаимных переходов.)
Работы Дэвиса и Косибо привели к неожиданным открытиям и создали новое поле деятельности для астрономов — нейтринную астрофизику, а они оба удостоены Нобелевской премии за 2002 год.
Но история нейтрино отнюдь не исчерпывается проблемой его регистрации.
2. Принципы симметрии и проблемы сохранения четности
Мы уже говорили о замечательной теореме Эмми Нётер, согласно которой неизменность системы при ее переносе как целого в пространстве, ее поворотах, сдвиге начала отсчета времени ведут к законам сохранения импульса, момента вращения и энергии. Но помимо таких непрерывных преобразований нужно рассмотреть и дискретные преобразования: отражение в зеркале (пространственная инверсия, обозначается символом Р), обращение времени (обозначается символом Т), зарядовое сопряжение, т. е. замена всех частиц на античастицы (обозначается символом С). Из очень общих соображений была установлена СРТ-теорема Людерса-Паули: если проделать все три операции над любой системой, то она должна вернуться в свое прежнее состояние.
Нарушение СРТ-инвариантности означало бы фактическое крушение основ современной физики, не менее значимое, чем, скажем, успешное построение вечного двигателя. Поэтому проверке этой теоремы всегда уделялось особое внимание.
Но еще раньше, до установления СРТ-теоремы в начале 1950-х гг. рассматривались по-отдельности симметрии относительности операций Р, С и Т. Например, симметрия относительно пространственной инверсии Р означает, что наряду с существованием некоторого образования может существовать и другое, получаемое при его зеркальном отображении. Так, еще Жан-Батист Био обнаружил в 1815 г., что существуют вещества, вращающие плоскость поляризации света только вправо или только влево. А Луи Пастер (1822–1895), основоположник современной микробиологии, открыл, что многие органические вещества могут существовать в двух зеркально противоположных конфигурациях — левой и правой. Эти разновидности он определил оптически — они вращают плоскость поляризации света в разные стороны (явление хиральности, от греческого «хир» — рука, как бы «разнорукость»), причем, например, наш организм усваивает только и только «левые» соединения.
Казалось естественным и соответствовало множеству наблюдений, что если из симметричной системы, например набора неорганических веществ, синтезировать органические молекулы, то в общем случае получится одинаковое количество левых и правых соединений: если первоначальное состояние было симметричным относительно зеркального отображения, оно таким и останется. И наоборот — для асимметричного синтеза нужно заранее заложить в процесс какую-то асимметрию.
Есть фантастический рассказ о том, как космонавты-земляне гибнут от голода на какой-то вновь открытой планете: она изобилует съедобными продуктами, но все они в правой конфигурации, не усваиваемой организмом. Причины такой хиральности органики на Земле до сих пор не выяснены.
При математическом описании процессов зеркальное отображение соответствует изменению знака пространственных координат. Поэтому симметричные состояния частиц называются четными — знак функции, которая их описывает, не меняется, а антисимметричные — нечетными. Отсюда Вигнер постулировал в 1932 г. закон сохранения четности: каждая частица имеет определенную четность, а четность их соединений определяется произведением четностей составных частей и моментом системы.
Обращение времени Т означает, что наряду с прямой реакцией может происходить и обратная: из перехода, например, А + В → С + D, следует возможность и обратного перехода: С + D→А + В (вероятности их различны, но связаны так называемой теоремой баланса).
Симметрия относительно зарядовой четности С означает, например, что если продукты распада частицы вылетают в одну сторону, то продукты распада античастицы вылетят в противоположную сторону.
Законы сохранения определенных четностей казались столь естественными, что как-то даже не поднимался вопрос о возможности их нарушения. И вдруг, в 1956 г. совершенно неожиданно появляется статья двух теоретиков, американцев китайского происхождения, Ли Чжендао (р. 1926) и Янг Чжэньнина (р. 1922): оказывается, ни один существующий эксперимент не доказывает, что в реакциях с участием нейтрино (они называются слабыми) пространственная четность сохраняется. А может быть, этот закон справедлив только для сильных и электромагнитных взаимодействий и не выполняется для слабых? И они предлагают ряд экспериментов для проверки такой гипотезы.
Статья эта вызвала в первый момент впечатление шутки или абсурда: под удар ставилась, казалось, самая основа физики. Но очень скоро, буквально через несколько месяцев, их компатриотка мадам Ву Цзин-сян (р. 1913) подтверждает гипотезу Ли и Янга: поставив эксперименты по бета-распаду строго ориентированных при низких температурах ядер кобальта и измеряя поляризацию электронов, она показала, что нейтрино бывают только лево-поляризоваными. Значит, их нельзя отразить в зеркале — поляризация должна при этом измениться на правую, но таких нейтрино не существует!
Сразу же и почти одновременно Янг и Ли, Л. Д. Ландау и Абдус Салам предположили, что должна сохраняться комбинированная СР-четность: при отражении в зеркале одновременно с изменением знака координат и поляризации нейтрино переходит в антинейтрино. (Ли и Янг очень быстро, уже в 1957 г. получили Нобелевскую премию.)
Позднее закон сохранения комбинированной четности (и несохранения Р- и С-инвариантности по отдельности в слабых и только в слабых взаимодействиях) был подтвержден во многих других экспериментах.
Но в 1964 г. Джеймс У. Кронин (р. 1931) и Вел Л. Фитч (р. 1923) обнаруживают, что при одном из типов распадов К-мезонов (или каонов, о них ниже) даже комбинированная четность не сохраняется. Нейтральные каоны существуют в двух формах: одна из них четная и поэтому может распадаться только на два пи-мезона (К0S → 2π), а вторая, нечетная и в 500 раз более долгоживущая, распадается на три пи-мезона (К0L → 3π) — именно такие типы распадов им строго предписывает сохранение СР-инвариантности.
Однако в эксперименте оказалось (в 45 случаях из 23 тыс. сфотографированных событий в искровой камере), что иногда каон К0L распадается на два пиона, а не на три — из-за редкости этого процесса его называют сверхслабым. Эти наблюдения были встречены с таким недоверием, что еще около полугода все эксперты их тщательно анализировали до того как отправить в печать.
Итак, вне подозрений осталась только полная СРТ-симметрия. Но тогда нарушение СР означает, что нарушается, для компенсации СРТ-сохранения, и Т-симметрия, т. е. из существования прямого процесса вовсе не следует, что должен существовать и обратный процесс. А это соображение ведет уже к грандиозным выводам. Так, мы дальше будем говорить, что вся наша Вселенная возникла 15–20 млрд лет тому назад в результате Большого взрыва, но в момент этого взрыва должно было возникнуть равное количество материи и антиматерии, почему же сейчас мы наблюдаем только материю и не видим антиматерию?
Если все процессы Т-инвариантны, то сейчас должно наблюдаться такое же соотношение материи и антиматерии, которое было в самом начале существования Вселенной. Но нарушение СР- или Т-инвариантности позволяет античастицам распадаться быстрее, чем частицам, и, следовательно, быстрее исчезать, оставляя избыток частиц в виде вещества Вселенной. (Аннигилировавшие частицы и античастицы пополняют запас электромагнитного излучения и нейтрино во Вселенной.)
Принципиально важно отметить, что здесь физика самых малых по времени жизни и по размерам образований смыкается с физикой самых грандиозных процессов в мире.
Кронин и Фитч были за свой эксперимент удостоены Нобелевской премии 1980 г., однако до сих пор остается все же непонятным, чем вызван этот факт несохранения — полной теории, как объяснения причин такого распада, так и оценок итогов этих процессов в эволюции Вселенной, все еще нет.
3. Типы нейтрино и лептонный заряд
Итак, существуют только левополяризованные нейтрино и правополяризованные антинейтрино. Но это означает, что к ним не подходит уравнение Дирака, описывающее остальные фермионы: оно дает для частицы и античастицы четыре решения, а здесь их только два. И тут вспомнили, что еще в 1929 г. знаменитый математик Герман Вейль предлагал двухкомпонентное уравнение для электрона, отброшенное как раз потому, что оно не сохраняло четность. Но согласно этому уравнению масса нейтрино должна строго равняться нулю, и хотя большинство теоретиков в этом уверены, поиски и определение его массы все еще продолжается. На сегодня (2010 г.) можно сказать, что масса нейтрино, вылетающих при бета-распаде ядер, не превышает в энергетических единицах 3 эВ, т. е. менее одной стотысячной от массы электрона (0,51 МэВ).
Но оказалось, что существует много разных нейтрино. И дело было так.
Со дня своего открытия в 1937 г. мюоны представляли особый предмет, вызывающий головную боль у теоретиков. Вначале думали, что они имеют отношение к ядерным силам, потом оказалось, что они очень слабо взаимодействуют с ядрами и столь схожи с электронами, только в 207 раз тяжелее, так что их хотелось принять за «возбужденные» электроны. Но если это возбужденные электроны, то они должны, испустив гамма-квант, превращаться в электроны или позитроны, т. е. обязательно должен наблюдаться такой распад: μ - → е - + γ. Этот распад искали все и… никто никогда его не наблюдал!
Нет, мюон распадался, и при этом энергия вылетающих электрона или позитрона менялась в очень широких пределах, а это означало, что он распадается, по крайней мере, на три частицы, две из которых — типа нейтрино: μ - → е - + ν + ͞ν. Но если бы они были действительно нейтрино и антинейтрино, они могли бы превратиться в гамма-квант, а раз этого не происходит — значит, они частицы разного типа!
Приходилось признать, что есть какие-то электронные нейтрино и мюонные нейтрино, а реакции распада мюонов должны записываться как
μ - → е - + ν μ + ͞ν e
μ + → е - + ν μ + ͞ν e
Р. Фейнман как-то рассказывал, что когда его что-то особенно интересует, то он пишет условия задачи на одной из досок в кабинете, чтобы они были всегда перед глазами, и потом вносит добавочные сведения. Так вот, на одной из досок он нарисовал в верхнем левом углу значки:« μ ?», — а за следующие 20 лет ничего к ним не добавил…
Непосредственно получить мюонные нейтрино смогли в 1960–1962 гг. Леон Ледерман (р. 1922), Мелвин Шварц (р. 1932) и Джек Штейнбергер (р. 1921). Чтобы оценить всю сложность подобных экспериментов, опишем их работу чуть подробнее.
По расчетам из каждых 10 миллиардов нейтрино, проходящих через Землю, только одна частица вступает во взаимодействие со своим окружением. Поэтому их эксперимент проводился таким образом. Мощный поток протонов из ускорителя направлялся на мишень из бериллия, так что поток образовавшихся на ней частиц включал в себя множество пионов. Их распад на лету порождал мюоны и мюонные нейтрино, и продукты распада направлялись на стальной барьер толщиной в 13,4 м, который заведомо должен был поглотить все частицы кроме нейтрино. Затем этот поток нейтрино вводился в большой алюминиевый детектор, в котором несколько нейтрино могли, наконец, провзаимодействовать с атомами алюминия. Анализируя эти взаимодействия, физики и обнаружили мюонные нейтрино и смогли определить некоторые их параметры (Нобелевская премия 1988 г.).
Таким образом, семейство слабо взаимодействующих частиц включало в себя пары (μ+, μ - ), (е+, е - ), (ν μ , ͞ν μ ), (ν е , ͞ν е ) — их всех назвали лептонами (от греческого и еврейского — мелкая монета, мелочь, ср. русскую идиому «внести свою лепту»). Название это прижилось, хотя оказалось не очень удачным.
В 1975 г. Мартин Перл (р. 1929, Нобелевская премия 1995 г.) открыл — при изучении на коллайдере столкновений высокоэнергичных пучков электронов и позитронов — еще один лептон, названный тритоном (от греческого — третий) или τ-лептоном. Как будто в насмешку над родовым именем «лептон», масса его оказалась примерно вдвое больше массы протона или нейтрона, но свойства были того же типа, как у электронов или мюонов: его рождение или распад всегда связаны с появлением специфического, только ему сопутствующего тау-нейтрино. Если среднее время жизни мюона — порядка двух миллионных секунды, то тау-лептон распадается в миллиард раз быстрее, но зато, так как у него большая масса, он может распадаться многими разными путями.
Неизвестно также, могут ли существовать и другие типы лептонов. Дело в том, что еще одно двухкомпонентное уравнение предлагал в 1937 г. Этторе Майорана (1906–1938, гениальный, по-видимому, физик, сотрудник Ферми, причины исчезновения которого остаются неизвестными). В его теории частицы и античастицы должны быть тождественными — эти майорановские лептоны тоже ищут, но пока безрезультатно. (Опять физики берут на вооружение старый принцип демократии: все, что не запрещено, — разрешено, а запретов на существование таких частиц тоже нет.)
А вот есть ли у этих нейтрино, мюоного и тау-лептонного, масса или нет — вопрос до сих пор нерешенный: из измерений следует пока только, что у ν μ масса не может превышать одной десятой массы электрона, а у ν τ она не больше, чем масса сорока электронов. Лептоны подразделяются, очевидно, на три семейства: электронное (е, ν е ), мюонное (μ, ν μ ) и тау (τ, ν τ ) — и для каждого из них есть свой закон сохранения, есть, иными словами, три вида лептонных «зарядов» (впервые, по-видимому, понятие лептонного заряда ввел Я. Б. Зельдович еще в 1952 г.). А вот являются эти законы сохранения абсолютными, или возможны переходы одного типа нейтрино в другой — это точно не известно, хотя астрономические данные говорят, как будто, в пользу возможности таких переходов.
4. Структура нуклонов: «шуба» частиц
Можно ли говорить о том, как устроены внутри элементарные частицы? Это, казалось бы, бессмысленно, потому что, если у них есть внутренняя структура, то их можно будет разбить на более простые части.
Но с другой стороны, представлять их точечными образованиями тоже не удается. И фактически, первый пример тому дало изучение свойств нейтрона. У нейтрона нет электрического заряда, но есть, однако, магнитный момент, а он, мы знаем, эквивалентен наличию электрического тока. Отсюда следует, что нейтрон должен какое-то время пребывать в виде двух заряженных частиц, вращающихся вокруг общего центра, а потому эквивалентных току. И Э. Ферми вскоре после открытия пионов подсчитал, что нейтрон должен примерно 20 % времени проводить в виде системы «протон + пи-минус-мезон» (п ↔ π-р) — возможность возникновения такой системы определяется принципом неопределенности Гейзенберга, по которому, напомним, частица может на какое-то время «одалживать» часть своей энергии (массы) другой, только бы произведение этой энергии на время отдачи не превышало величины постоянной Планка.
Но тогда и протон может часть своего времени проводить как «нейтрон + пи-плюс-мезон» (р ↔ π+n, возможны и переходы р ↔ π0р — «протон + пи-ноль-мезон»). А дальше естественно заключить, что на какую-то меньшую часть времени и, соответственно, на более близком к центру расстоянии нейтрон может породить не один, а два, три и т. д. пионов, а может, скажем, породить на еще меньшее время пару протон-антипротон и т. д. Все такие «временные» частицы называются виртуальными (от латинского «виртуалис» — скрытые, но могущие проявиться) и, как видим на примере магнитных моментов нейтрона, их свойства весьма ясно проявляются и могут быть, в принципе, измерены.
Все эти возникающие и снова исчезающие виртуальные частицы образуют вокруг своего «хозяина» некую виртуальную «шубу». Поэтому основную рассматриваемую частицу никак, с одной стороны, нельзя считать точечной, а с другой стороны, ей нельзя приписывать и строго определенные размеры: ее «шуба» все время дышит, меняется, является динамическим образованием. Приходится для описания свойств этой «шубы», т. е. самой частицы, вводить понятие формфактора, распределения вероятности найти заряды на таком-то расстоянии от ее центра.
Тут естественно было бы задать вопрос: почему мы говорим о виртуальных образованиях вокруг нуклонов, чем электрон хуже? И действительно, вокруг электрона тоже должна образовываться такая шуба, но поскольку его масса мала, то испускать и ловить обратно он скорее всего будет не мезоны, а фотоны, а на меньшие расстояния — и пары электрон-позитрон. О такой шубе электрона мы уже говорили — благодаря ее наличию и возникает черенковское излучение: шуба периодически отрывается от «сверхсветового» в данной среде электрона и превращается в реальный фотон.
Форму форм-факторов нуклонов экспериментально смог определить Роберт Хофштадтер (1915–1990, Нобелевская премия 1961 г.). Начал он с того, что еще в 1948 г. разработал сцинтилляционный детектор на основе кристалла соли иодида натрия, «легированного» небольшим количеством таллия. При столкновении с таким кристаллом частицы высокой энергии или фотона возникает вспышка света, интенсивность которой пропорциональна энергии частиц или фотона (сцинтилляторами пользовался некогда и Резерфорд, но они были гораздо менее чувствительными). На этой основе Хофштадтер построил сцинтилляционный спектрометр и приспособил его как регистратор углов рассеяния электронов от ускорителя, разгонявшего их до энергии в 500 МэВ, при которой длина волны электрона меньше характерных размеров атомных ядер. Следовательно, ускоритель можно было бы использовать как гигантский электронный микроскоп, позволяющий исследовать структуру ядер: при столкновении с ядром разогнанный электрон в некоторых случаях только отклоняется, как бильярдный шар (случаи, при которых ядро разрушалось, он отбрасывал).
Так Хофштадтеру удалось измерить величину и определить форму многих атомных ядер. Оказалось, что у них примерно одна и та же средняя плотность и объем ядра пропорционален полному числу протонов и нейтронов. Это означает, что в тяжелых ядрах частицы упакованы не более плотно, чем в легких, а почти постоянная плотность ядер оказалась порядка 150 млрд кг на куб. метр (капля воды такой плотности весила бы 2 млн тонн). Но при этом выяснилось, что у всех ядер есть что-то вроде более мягкой «шкуры», именно она и соответствует облаку виртуальных частиц, окружающих ядро.
Когда ускоритель, на котором он работал, был реконструирован и стал разгонять электроны до энергии в 1 ГэВ, Хофштадтер смог перейти к исследованию уже не только ядер, но и структуры протонов и нейтронов. Эту работу он со своей группой выполнил в 1956–1957 годах: были определены размеры такой «шубы» и распределение зарядов внутри обоих нуклонов.
Нуклоны действительно оказались распределенными динамическими образованиями с шубой из облаков виртуальных частиц.
Ну а что будет видно, если залезть в нуклоны еще глубже, т. е. рассмотреть рассеяние более энергичных частиц? В 1969 г. Р. Фейнман, и почти одновременно Дж. Бьеркен (р. 1934), выдвигают партонную (от латинского «партис» — часть) модель нуклона: при глубоконеупругих, т. е. высокоэнергичных и потому чрезвычайно коротких по времени актах рассеяния, нуклон можно рассматривать как совокупность точек-партонов, т. е. при таких энергиях и, соответственно, столь коротких длительностях взаимодействия уже не играет роли, виртуальные ли это образования или нет. Такие акты рассеяния на отдельных партонах (уже не на нуклонах в целом) порождают целые струи вторичных частиц, по составу которых, в принципе, и можно выявить природу самих этих партонов и их распределение по «объему» нуклона. Имеющиеся результаты как будто показывают, что таким партонами являются в основном кварки (о них немного ниже). За это открытие Джером И. Фридман (р. 1930), Генри У. Кендалл (1926–1999) и Ричард Е. Тэйлор (р. 1929) удостоены в 1990 г. Нобелевской премии.
5. Странные частицы
Открытие пионов в 1947 г. произошло таким образом: на экспонированной фотопластинке видно, что некий трек превращается в другой, в известный уже след мюона (тот переходил вследствие распада в видимый след электрона). Таким образом, важно было отметить точку перехода одной частицы в другую: след, во-первых, шел под углом к начальному, а во-вторых, оказывался, если у нее меньше энергии, более толстым. По толщине следа определялась скорость частицы, по длине — время жизни, а если наблюдения шли в магнитном поле, в камере Вильсона, то по радиусу закругления можно было найти отношение скорости и массы.
И вот в 1947 г. К. Ч. Батлер и Дж. Д. Рочестер заметили в камере Вильсона очень странные и слишком длинные следы частиц космических лучей: время жизни нестабильных частиц, согласно принципу неопределенности, должно быть обратно пропорционально энергии, высвобождающейся при распаде частицы, а тут оно было в сотни миллионов раз больше — это уже очень серьезный вызов всей квантовой теории.
Наблюдаемые частицы оказались двух типов: частицы первого типа распадались на два-три пиона, т. е. они сами были бозонами, а частицы второго типа (найденные позже) превращались после испускания пиона в протон или нейтрон, т. е. они были фермионами. Частицы эти, постепенно открываемые во все большем многообразии, но каждая с определенной массой, были названы, соответственно, К-мезонами и гиперонами (от греческого «гипер» — над, сверху).
При более детальном изучении оказалось, что существуют К+-и К--мезоны, а также К0 и К0 (частица и античастица, хотя они и не подчиняются уравнению Дирака). Эти самые две частицы, К0 и анти-͞͞К0, могут по пути следования переходить друг в друга, и именно на такой их странной смеси, их интерференции Кронин и Фитч, как мы писали выше, обнаружили сохранение СР- или Т-инвариантности.
Из гиперонов первоначально в 1951 г. был найден нейтральный лямбда-гиперон (Δ), затем в 1953–1954 гг. — несколько более тяжелое семейство сигма-гиперонов (Σ, плюс, минус и электрически нейтральный), и в 1956 г. — еще более тяжелые кси-минус- и кси-ноль-гипероны (Ξ- и Ξ0, отметим сразу же, что положительного кси-гиперона не существует, точнее, положительный электрический заряд имеет анти-кси-минус-частица). Гипероны и нуклоны вместе называются барионами (от греческого «барос» — тяжелый), и у всех них одинаковый барионный заряд.
Первый шаг к теории этих новых частиц сделали в 1951 г. Йосиро Намбу (р. 1921, Нобелевская премия 2008 г.) с соавторами и Абрахам Пайс (р. 1918): они предположили, что странные частицы рождаются обязательно попарно — это фактически означало, что существует какая-то характеристика, положительная у одной частицы пары и отрицательная у другой, которые друг друга уравновешивают, но при последующем распаде эти характеристики пропадают, так как у обычных, нестранных частиц их нет. Таким образом, предполагалось, что есть такая странная квантовая характеристика, которая сохраняется в сильных взаимодействиях и не сохраняется в слабых взаимодействиях.
В 1953 г. эту характеристику уточнили независимо М. Гёлл-Манн и К. Нишиджима (р. 1926) и назвали ее квантовым числом «странность».
Исходным пунктом для их теорий является понятие зарядовой независимости, впервые введенное Гейзенбергом еще в 1932 г.
Суть его состоит в такой группировке частиц, которая подчеркивает их сходство. Например, несмотря на то что протон и нейтрон отличаются электрическим зарядом (протон имеет заряд + 1, нейтрон — 0), во всех остальных отношениях они тождественны. Следовательно, их можно считать двумя разновидностями одного и того же типа частиц, дублетом нуклонов, имеющих средний заряд, или центр заряда, равный ½ Если таких частиц три (например, три пиона), то они образуют триплет со средним зарядом нуль, если одна частица — это синглет, а общее название группы, состоящей из любого числа частиц, — мультиплет.
Однако все попытки так же сгруппировать странные частицы не удавались. Пришлось предположить, что средний электрический заряд мультиплетов их барионов отличается от ½ (среднего заряда нуклонов), а средний заряд К-мезонов равен, в отличие от среднего заряда пионов, не нулю, а — ½, и эти отличия могут быть фундаментальным свойством странных частиц. Странностью как раз и назвали разность между средним зарядом мультиплета и средним зарядом нуклонов +½ (чтобы не возиться с дробями эту разность умножают на 2). Было показано, что странность сохраняется во всех реакциях с сильным и с электромагнитным взаимодействиями, поэтому странные частицы рождаются парами — странность одной частицы компенсирует странность другой (если одна частица в паре имеет странность +1, то странность другой равна -1). Таким образом, странные частицы, родившись, выживают вплоть до распада, определяемого слабым взаимодействием, которое не сохраняет странность.
В 1961 г. Мюррей Гелл-Манн и Ювал Неэман независимо обнаруживают, что эта система мультиплетов, предложенная для описания странных частиц, может быть включена в гораздо более общую теоретическую схему, позволяющую сгруппировать все сильно взаимодействующие частицы в «семейства». Эту схему Гелл-Манн, поклонник Востока, назвал восьмеричным путем (по аналогии с восемью атрибутами праведного жития в буддизме), так как некоторые частицы были сгруппированы в семейства из восьми членов (в науке она называется, по правилам алгебры, SU (З) — симметрией).
Схему Гелл-Манна-Неэмана можно сравнить с Периодической системой Менделеева, поскольку она не только упорядочила известные частицы, но и предсказала свойства неизвестных еще частиц. Теория эта была подтверждена в 1964 г. открытием синглета, предсказанной частицы — омега-минус-гиперона (Ω-).
Ювал Неэман (1926–2006) окончил инженерный факультет, с 15 лет в подпольных вооруженных формированиях, с начала Войны за независимость Израиля в 1948 г. в армии, непосредственно в боевых частях. Несмотря на блестящие перспективы службы (с 1952 г. начальник отдела стратегического планирования Генштаба), переходит на должность военного атташе посольства Израиля в Лондоне, параллельно в 1958 г. поступает на физический факультет Лондонского университета (самый старый студент!) и за три года, с военными перерывами, заканчивает его. Кроме теоретических исследований организовал ядерный центр Израиля, был также министром науки.
Согласно этой модели, у лямбда- и сигма-гиперонов странность S = -1, поэтому они рождаются в паре с одним К-мезоном (у которых странность S = 1). У кси-гиперонов (они образуют дублет) странность S = -2, и их рождение сопровождается появлением двух К-мезонов, а вот у омега-гиперона (синглет, хоть и заряженный) странность S = -3, поэтому он рождается только вместе с тремя К-мезонами. Очевидно также, что поскольку при распаде частиц странность должна меняться на единицу, то кси-гипероны распадаются на лямбда-или сигма-частицы и пионы, а затем те уже распадаются дальше. Ну а омега-гиперон должен претерпеть цепочку трех последовательных распадов с изменениями странности в каждом из них на единицу.
б. Модель Ферми — Янга
Мы уже не раз говорили о том, что масса связанной системы меньше суммы масс составляющих частиц в свободном состоянии, а возникающий дефект масс соответствует, согласно формуле Эйнштейна, энергии связи частиц. При образовании химических соединений или планетных систем дефекты масс столь малы, что практически не измеримы. В ядрах атомов энергия связи нуклонов уже составляет до полупроцента их массы, и именно поэтому изменение величины этого дефекта масс является источником получения атомной (точнее, ядерной) энергии.
Но, вообще говоря, нет никаких ограничений на величину дефекта масс — в принципе, он может составлять и большую часть массы. Вот такую идею и ввели в 1949 г. Ферми и Янг для представления пионов как составных систем.
Они предложили рассматривать пи-плюс-мезон как тесно связанную систему из протона и антинейтрона с противоположно направленными спинами: π+ = (p+͞n) и соответственно π_ = (n+͞p), при этом пи-ноль-мезон половину времени проводит как система протон-анти-протон, а вторую половину — как нейтрон-антинейтрон. Если такая система нечетная, то она соответствует π0, а если комбинация четная, то другой частице, также позже обнаруженной. Дефект масс при образовании пионов составляет 13/14 полной массы двух нуклонов, но ничего невозможного такой дефект масс собой не представляет — зато сразу становится на три частицы меньше!
К тому же нуклон-антинуклон могут составлять и другие системы, например, со спинами, направленными в одну сторону, — в этом случае они образуют семейство так называемых ро-мезонов; можно рассматривать системы нуклон-антинуклон с высшими моментами и т. д. Такого рода «частицы» имеют очень короткие времена жизни, и их обычно называют нуклонными или мезонными резонансами или резононами, в принципе, для них можно установить некое подобие системы возбужденных состояний атомов в модели Бора.
Модель Ферми-Янга выглядела очень заманчивой — существенно уменьшался список основных «кирпичиков» мироздания. Поэтому с открытием новых частиц естественным выглядело распространить на них схожие представления.
Первым в этом направлении был Сенти Саката (1911–1970): он показал, что если помимо нуклонов принять за основную частицу лямбда-гиперон, то можно построить все остальные странные частицы (1956). Так К+-мезон составляется из протона и анти-лямбда, К--мезон составляется из лямбда-гиперона и антипротона, сигма-гипероны — из лямбда и пионов. Было создано еще несколько подобных моделей, в которых к нуклонам добавлялась та или иная странная частица, и в конце концов стало ясно, что достаточно принять в качестве основной любую из них, — никаких особых преимуществ ни одна из частных моделей не имела — наступившее положение назвали «ядерной демократией» (автор также принимал участие в этих поисках).
7. Теория кварков
Казалось, что явление ядерной демократии полностью обесценило возможность выбора тех частиц, которые можно принять за основные. И тут возникла совершенна новая, поистине «сумасшедшая» идея: а почему этот поиск идет только среди уже найденных частиц, может быть, нужно придумать новые частицы, которые единственным, точнее, самым простейшим образом (это основное требование!) позволят построить составные модели всех остальных?
Именно по такому пути Джордж Цвейг (родился в 1937 г. в Москве) и Мюррей Гелл-Манн сумели в 1963–1964 гг. оптимизировать составную модель частиц: они нашли, независимо, простейший вариант основных частиц, кварков, из которых можно составить все остальные. Однако при этом им пришлось предположить совершенно, казалось бы, невероятные, противоречащие всему опыту физики параметры таких частиц: их электрические и барионные заряды должны были бы составлять, соответственно, одну или две трети от заряда электрона и по одной трети барионного заряда протона. (Напомним, что заряд электрона всегда считался наименьшим возможным, равно как и барионный заряд нуклона.)
Цвейг назвал эти придуманные частицы тузами, а Гелл-Манн — кварками и этим задал работу интерпретаторам: обычно принимается, что это слово, несколько искаженное, он заимствовал из романа Джеймса Джойса «Поминки по Финнегану», где официант почему-то выкрикивает: «Три кварка, три кварка для сэра Марка!».
Попробуем пояснить, как они могли конструировать эту модель. Хотя во многих моделях гипероны составлялись из трех частиц (двух барионов и одного антибариона, общая формула ВВВ), они приняли, что каждый барион (и нуклон, и гиперон) состоит из трех кварков, обозначаемых буквой q, поэтому барионный заряд каждого кварка равен одной трети обычного, и все барионы составлены по общей формуле В = qqq, а все антибарионы — из трех антикварков. Все мезоны состоят из кварка и антикварка, поэтому их общая формула имеет вид М = ͞qq. Ясно также, что все кварки должны иметь спин равный ½, т. е. быть фермионами.
Теперь нужно посмотреть, сколько, по минимуму, нужно типов кварков для конструирования всех барионов, и каковы необходимые для этого странность и электрические заряды. Поскольку барионный заряд составляет одну треть наблюдаемого, то естественно начать с такого же деления и электрического заряда, тогда элементарный перебор всех возможностей показывает, что достаточно ввести три кварка: u-кварк с зарядом в две трети элементарного заряда (2/3е), d-кварк с зарядом минус одна треть (-1/3е), оба с нулевой странностью, и s-кварк с зарядом -1/3е, но со странностью -1. (Обозначения соответствуют первым буквам английских слов up, down, strange — верхний, нижний, странный.)
В этой теории известные частицы представимы так: протон р=uud, нейтрон п = udd, лямбда-гиперон Λ = uds, пион π+ = ͞du, каон К+ = ͞sи и так далее вплоть до Ω- = sss. И естественно, что резононы могут теперь рассматриваться как возбужденные состояния системы кварков. Именно эти кварки играют роль партонов в составе частиц: они были обнаружены, как упоминалось выше, в экспериментах Дж. И. Фридмана, Г. У. Кендалла и Р. Е. Тэйлора — идейно этот эксперимент напоминает опыт Резерфорда, в котором была определена структура атома, только измерялось рассеяние электронов — их структура известна, и поэтому их можно использовать для выявления структуры других частиц.
Казалось бы, все хорошо, но, помимо проблем наблюдения, сразу же возникает противоречие: согласно принципу запрета Паули, никакие два фермиона не могут, имея одинаковыми все квантовые числа, находиться точно в одинаковом положении, а в этих моделях одинаковые кварки занимают одно и то же положение (в резононе Δ++, который был открыт еще Ферми в рассеянии π+-мезона на протоне и имеет двойной заряд и спин 3/2, оказалось три u-кварка в одинаковом состоянии!). Эту проблему пришлось разрешать привычным образом — вводить новое квантовое число: поскольку в частице не более трех кварков, то это число может принимать три значения, и его назвали «цвет» — Н. Н. Боголюбов, А. Н. Тавхелидзе и др. (по аналогии с синтезом любого видимого цвета из трех составляющих: красного, зеленого, синего). Таким образом, например, омега-минус-гиперон нужно писать как Ω- = sкsзsс — все кварки различны и поэтому могут иметь остальные квантовые числа одинаковыми. Наблюдаемые частицы должны быть бесцветными, т. е. барионы должны содержать кварки всех трех цветов, а мезоны — по кварку и антикварку одинакового цвета. После этого законы взаимодействия между «цветными» кварками были, естественно, названы квантовой хромодинамикой (о ней — в следующем разделе).
Но довольно скоро выяснилось, что тремя кварками ограничиться нельзя.
В ноябре 1974 г. двумя группами экспериментаторов под руководством Бартона Рихтера (р. 1931) и Сэмуэля С. С. Ткнга (р. 1936) при исследовании аннигиляции позитронов и электронов из встречных пучков коллайдера были обнаружены очень узкие и поэтому необычно долго живущие резонансы. Эти группы обнаружили их одновременно и дали им разные названия, они так и обозначаются двумя значками как J/ψ или J/пси, а само открытие долго называли «Ноябрьской революцией» — оно отмечено Нобелевской премией 1976 г.
Открытие вызвало поток гипотез и множество теорий. Для объяснения причин, которые мешают им распадаться с нормальной для частиц такой массы скоростью, пришлось ввести еще одно квантовое число, помимо странности, и соответствующий кварк, названный очарованным (обозначается как с — от английского charm, в русском языке превалирует французское произношение: шарм). Этот кварк имеет электрический заряд в 2/3е, как у u-кварка, но у него добавочно есть квантовое число с = +1. Частица J/ψ является связанным состоянием с-кварка и его антикварка со спином 1. Такое состояние может распасться только на три глюона, причем с большими энергиями — поэтому-то этот распад происходит медленно, а эти глюоны уже с обычной скоростью превращаются в кварк-антикварковые пары и т. д. Потом были обнаружены и барионы, в состав которых входит и очарованный (шармированный) кварк.
Ну а позже пришлось ввести еще два кварка: b-кварк (красивый, от английского beauty) в 1977 г. и t-кварк (верхний или истинный от top или truth) в 1994 г. — каждому из них соответствуют свои квантовые числа. Все эти новые квантовые числа уже как-то неудобно называть «зарядами», и поэтому для них ввели новый термин: «ароматы» (u-d или обычный, s, с, b, t).
Для исследований свойств кварков очень важны структуры кварк-антикварк, их называют кваркониями: можно рассматривать разные уровни энергии в этих образованиях в зависимости от их полного момента — это ведь некоторый аналог системы уровней Бора в атомах. А время их жизни и продукты аннигиляции кварка и антикварка — важнейший источник сведений о них.
Мы не выписывали величины масс кварков, они оцениваются пока что с очень большой неопределенностью: масса u-кварка в 2-10 раз больше массы электрона, d-кварк вдвое тяжелее, масса s-кварка в интервале 8-16 % массы протона, с-кварк несколько тяжелее протона, b-кварк в 4 раза тяжелее, а вот t-кварк может иметь колоссальную массу, чуть ли не порядка массы атома урана!
Измерения этих масс весьма приблизительны из-за того, что никто не видел и, возможно, никогда не увидит кварков в свободном состоянии: если в привычных нам ядерном, гравитационном или электромагнитном взаимодействиях их сила падает с расстоянием, то с кварками положение, видимо, иное — сила притяжения между ними растет с расстоянием (можно провести аналогию с нарастанием силы при растяжении пружины). Поэтому и возникает проблема не-вылета или удержания кварков — ее называют обычно «проблемой конфайнмента», без перевода с английского на русский.
Итак, сейчас экспериментально зафиксировано шесть кварков, каждый из которых может быть трех цветов, и шесть лептонов (мы пока не рассматривали кванты полей, переносящих взаимодействие между ними). Существующие теории не требуют наличия еще каких-либо кварков или лептонов, но ручаться головой, что их больше нет и что именно они представляют собой последние кирпичики мироздания, вряд ли стоит.
Раздел III
Изобретать, чтобы наблюдать: микроскопы, лазеры, коллайдеры
Глава 1
Эволюция микроскопа
Первыми специализированными научными приборами были микроскопы и телескопы. На примере их развития хорошо прослеживается ход научного и технического прогресса. Поэтому интересно рассмотреть, как эволюционировали эти приборы (мы остановимся только на истории микроскопов) и как менялось отношение к ним.
1. Оптический микроскоп
Микроскоп (от греческих «микрос» и «скопео» — малый и смотрю) — это, в принципе, любой прибор для создания увеличенных изображений малых объектов: наш глаз различает размеры только до 0,1 мм. Самым простым микроскопом является лупа — одиночная линза с сильным увеличением, которая использовалась уже в середине XV в. К 1673 г. голландский натуралист-любитель Антони ван Левенгук (1632–1723) научился создавать линзы почти с 300-кратным увеличением, что дало ему возможность наблюдать бактерии размером в 2–3 микрометра, открыть существование сперматозоидов и т. д. Микроскоп Левенгука — это просто круглый стеклянный шарик, через который надо было смотреть держа его вблизи глаза и располагая объект на миллиметровых расстояниях от линзы. Левенгук производил эти «микроскопы» десятками и с каждым скреплял какой-нибудь объект, но в своих наивных письмах Лондонскому королевскому обществу, переполненных рассуждениями о погоде, о своем здоровье и т. п., он описывает множество сделанных им открытий.
Еще в XVI в. конструируется составной микроскоп с дополнительной линзой: увеличенное изображение, даваемое объективом, рассматривается, для добавочного увеличения, через окуляр. Такой микроскоп собирали Галилей, еще более совершенный микроскоп с микрометрическим винтом построил Р. Гук (он написал книгу «Микрография», где описал свои многочисленные, хотя и не систематизированные наблюдения). Однако только в 1830 г. английский микроскопист Дж. Дж. Листер (1786–1869) установил теоретические принципы комбинации линз, после чего оказалось возможным создавать сложные составные линзы, не привносящие геометрические и цветовые искажения в изображения.
Дальнейшие успехи оптической микроскопии связаны, в основном, с работами Эрнста Карла Аббе (1840–1905) на предприятиях Карла Цейсса. Аббе сочетал в себе способности теоретика, инженера-конструктора и технолога. Его уникальная всесторонность и увлеченность работой позволили достичь того, что конструкции оптических приборов Цейсса стали не только лучшими в мире, но и почти не менялись в течение долгих десятилетий.
Аббе разработал теорию построения изображений в микроскопе (1872), перестроил технологию получения оптических стекол и сконструировал первый современный микроскоп (1878), который продолжал все время улучшать — можно сказать, что все дальнейшие микроскопы ничем, кроме деталей дизайна, от него не отличаются (Аббе изобрел и построил еще целый ряд оптических приборов).
Помимо того, Аббе определил пределы разрешимости оптического микроскопа — они оказываются порядка 1500 крат и определяются длиной волны света — не менее 0,35 мкм для фиолетового конца спектра (0,35 · 1500 = 525 мкм ~ 0,5 мм). Дело в том, что для наблюдения предмета необходимо, чтобы он искажал волновое поле, а предмет, размеры которого меньше длины волны, колеблется вместе с волною и на ее форму не влияет.
Оптические микроскопы имеют, помимо невозможности увеличить разрешение, и другие недостатки: прозрачные объекты нужно окрашивать, невозможно заглянуть внутрь непрозрачных объектов. В направлении преодоления этих ограничений и стали думать физики.
Но сперва расскажем о замечательном открытии, связанном как раз с одним из этих недостатков.
Пауль Эрлих (1854–1915, Нобелевская премия по физиологии 1908), врач, долго колебался между медициной и живописью. Точнее, его очаровывали картины, видимые под микроскопом при различном окрашивании препаратов: в бесцветных или прозрачных препаратах разные органы и микроорганизмы по-разному воспринимали вводимые краски и становились легче различимыми. И тут ему как-то сразу, в готовом виде, пришла в голову идея: а что если придумать такие краски, которые будут окрашивать только и только определенные органеллы или определенные микроорганизмы, а к ним присоединить ядовитые соединения, т. е. придумать такие «магические пули», которые избирательно, селективно будут убивать то, что надо, и поэтому лечить?
Так возникло новое направление в медицине — химиотерапия. И первым делом Эрлих решил испытать этот метод на самой сложной и неподдающейся тогда радикальному лечению болезни, на сифилисе. Было известно, что бледная спирохета, возбудитель сифилиса, погибает под действием ртутных препаратов, но они губят заодно и другие органы. Так что следовало изобрести такую краску, которая окрашивала бы только и только спирохеты, и прицепить к ней атомы ртути. Эрлиху удалось этого добиться на 606-м — по счету в лабораторном журнале — из исследованных красок-препаратов!
2. Фазово-контрастный микроскоп
Этот совершенно новый тип микроскопа придумал и создал, используя волновые особенности света, Фриц Цернике (1888–1966, Нобелевская премия 1953 г.).
Цернике занимался усовершенствованием дифракционных решеток для астрономических приборов. Дифракционная решетка — это прозрачное стекло или зеркало с нанесенным на поверхность множеством тонких параллельных и равноотстоящих бороздок (щелей). Каждая бороздка является как бы независимым источником света, и все излучаемые ими потоки света соединяются на экране, но складываются или вычитаются в зависимости от того, прибывают они в данную точку в одинаковых или противоположных фазах. (Фазой называется определенное положение в процессе колебания: когда луч света проходит расстояние, равное длине волны, то за это время колебание совершает полный цикл, возвращается к исходной фазе.) Поскольку лучи от разных щелей проходят различные расстояния до заданной точки на экране, они приходят туда в разных фазах. Если свет монохроматичен (имеется только одна длина волны), то в результате такого сложения возникает интерференционная картина, состоящая из узких полос или линий, попеременно светлых (когда лучи приходят в одинаковых фазах) и темных (когда лучи приходят в противофазе). Если свет представляет собой смесь разных длин волн (цветов для видимого света), каждая длина волны дает свою дифракционную картину, отличную от остальных, и в результате получается непрерывный спектр отдельных цветов, подобный разложению в призме.
Цернике учел, что свет, проходящий через прозрачные объекты, должен отличаться от света, прошедшего такой же путь мимо них, своей фазой (скорость света в этих объектах обычно ниже). Теперь нужно было как-то превратить эту разницу фаз в разницу амплитуд, т. е. в различие яркости. Принцип, предложенный им, состоял в том, чтобы наложить свет, проходящий сквозь прозрачный объект, на однородное фоновое освещение светом, прошедшим мимо объекта, но у которого изменили фазу на четверть длины волны (в этот поток вставляется специальная пластинка). В результате сложения потоков света, проходящего сквозь прозрачный объект с запаздыванием по фазе относительно прямого света, и фонового освещения, которое как бы опережает его по фазе, образуется деструктивная интерференция, т. е. понижение яркости. Для глаза наблюдателя картина выглядит так, как если бы объект поглощал свет.
В 1953 г. Цернике был награжден Нобелевской премией по физике «за обоснование фазово-контрастого метода, особенно за изобретение фазовоконтрастного микроскопа)». «Когда Нобелевская премия присуждается за вклад в классическую физику, — сказал Эрик Хюльтен, член Шведской королевской академии наук, представляя лауреата, — то сам этот факт столь уникален, что в поисках аналогов нам придется вернуться к самым первым Нобелевским премиям», поскольку, за малым исключением, все последующие премии были присуждены «за открытия в области атомной и ядерной физики».
Фазово-контрастный микроскоп Цернике (1938) позволил наблюдать бесцветные организмы, клетки или бактерии без красителей, которые зачастую убивали образцы или меняли их свойства. (Наследники Аббе не обладали его интуицией: когда Цернике предложил им разработку этой идеи, они отказались. Как вспоминал Цернике: «Они сказали, что если бы это имело практическое значение, они бы уже изобрели это сами».)
3. Ультразвуковой микроскоп
Область применения оптического микроскопа ограничена, но сам его принцип — расширение волнового поля, прошедшего или отраженного, применим, в принципе, и к волнам других типов. Отсюда следовала возможность использования звуковых волн вместо световых: такие идеи появились уже в 1940-х гг., но работающие устройства (звуковизоры) были построены только в 1970-х.
Первый такой микроскоп спроектировал в начале 1940-х гг. инженер С. Я. Соколов в Ленинграде: он рассчитал, что микроскоп, использующий звуковые волны с частотой 3 000 мегагерц (3-109 Гц), будет иметь такую же разрешающую силу, как оптический микроскоп. В этих расчетах он исходил из того, что ультразвук этой частоты обладает той же длиной волны, что и видимый свет, но, повышая частоту ультразвука, можно добиться и более высокого разрешения. (Длины волн звука и света отличаются при равной частоте примерно в 100 тыс. раз, в отношении скоростей света и звука.)
Интересно и другое применение идейно сходной техники: никто не станет рассматривать в микроскоп большие объекты, а ведь их тоже нужно бывает увидеть — в уменьшенном виде. Сюда, например, относятся детали строения отдельных участков Земли: их можно «просветить» акустическими волнами, только, конечно, большой длины волны, часто инфразвуком, а потом, уменьшив, рассматривать. (Такие методы называются визуализацией акустических полей.)
Основное затруднение заключалось в отсутствии источников высокочастотных ультразвуковых колебаний. Но когда в результате развития радиолокационной техники, а затем и микроэлектроники такие генераторы были созданы, акустические микроскопы были построены и с тех пор активно используются для просмотра непрозрачных объектов и т. д. в промышленности, в контрольных устройствах.
4. Электронный микроскоп
Гипотеза де Бройля и ее подтверждение показали, что всем частицам можно приписать волновые свойства, а это означало, что их можно использовать и в микроскопии. Фактическую базу для таких построений можно было найти в теории У. Гамильтона, который еще в середине XIX в. установил оптико-механическую аналогию, т. е. аналогию между распространением света и движением частиц — мы говорили, что ее использовал в своей работе Э. Шредингер.
В 1926 г. X. Буш рассчитал фокусирующие действия магнитных полей и предложил строить на этой основе магнитные линзы для потоков электронов. Осуществив такие линзы, Эрнст Руска (1906–1988, Нобелевская премия 1986 г.) смог построить электронный микроскоп: поскольку легко получить электронный пучок с длиной волны в 100 тыс. раз короче световой, то и разрешающая сила (увеличение) такого микроскопа должна быть в сто тысяч раз больше!
В 1931 г. он сконструировал подходящую электронную линзу, электромагнит, который мог бы сосредоточить поток электронов точно так, как обычная линза сосредотачивает лучи света. А затем, используя комбинации нескольких таких линз, он завершил изобретение первого электронного микроскопа (1933). В этом приборе поток электронов проходил через тонкую пластину объекта, равномерно расширялся в полях линз и попадал на фотопленку или на флюоресцентный экран, а изображение на них затем можно было добавочно увеличить. Первый коммерческий электронный микроскоп был выпущен фирмой Сименс в 1939 г.
Разрешающая сила современных электронных микроскопов достигает 250 000, разработано и выпускается множество их модификаций: наряду с электронно-лучевой трубкой они являются важнейшим достижением целой дисциплины — электронной оптики (существуют электронные аналоги практически всех оптических устройств). Точнее, нужно отметить, что наряду с электронами можно использовать и ионы, поэтому можно говорить об электронной и ионной оптике.
Микроскоп этого типа называется просвечивающим, позже был изобретен ряд электронных микроскопов других типов. Наиболее оригинальный из них — сканирующий электронный микроскоп: в нем на образец направляется остро сфокусированный пучок электронов и наблюдаются рассеянные на нем электроны. Магнитные катушки перемещают электронный луч по поверхности образца так же, как конденсаторы передвигают электронный луч по экрану телевизора, наблюдатель фиксирует изменения распределения рассеянных электронов и получает объемное изображение поверхности. (Разрешение на сканирующем электронном микроскопе ниже, чем разрешение у просвечивающего микроскопа, так что они дополняют друг друга.)
Однако электронные микроскопы отнюдь не лишены серьезных недостатков: во-первых, интенсивный поток электронов может разрушить исследуемые образцы, во-вторых, поверхность образцов должна сильно рассеивать налетающие электроны, а поэтому ее часто приходится декорировать — напылять на образцы тяжелые металлы, например платину, или же снимать с образцов реплики из металла и уже их, а не образец, снимать под увеличением.
5. Электронный и ионный проекторы
Еще большее увеличение дает безлинзовый автоэлектронный микроскоп, придуманный еще в 1936 г. Э. В. Мюллером (1911–1977). Он задумался над очень простым вопросом: для чего нужно облучать объект электронным пучком — ведь электроны имеются и в самом объекте, т. е. он решил объединить объект и излучатель.
Работа оказалась сложной и заняла много лет, хотя к концу работы идея стала очень простой, как во всех по-настоящему оригинальных изобретениях. Итак, в одном из вариантов, берется металлическая полусфера, к центру которой подведено металлическое острие, если теперь подать на эту систему высокое напряжение так, чтобы острие заряжалось отрицательно, то с острия начнут срываться электроны и устремляться к полусфере. Если эта полусфера идеальна, то вылетающие электроны имеют равную вероятность попасть в любую ее точку, но если на острие имеется, скажем, какая-нибудь молекула, то на экране появится ее тень — увеличение будет определяться отношением радиуса полусферы к радиусу кончика иглы. В таких устройствах Мюллер достиг увеличения в миллионы раз (после каждого снимка приходилось обрабатывать или даже менять полусферы, искаженные потоком электронов).
В 1951 г. Мюллер сконструировал на схожих принципах ионный проектор и смог, впервые, получить снимки биологических молекул, доменов ферромагнетиков, дефектов кристаллической структуры и т. д.
6. Использование туннельного эффекта
Нобелевскую премию 1986 г. с Эрнстом Руской разделили Герд Бинниг (р. 1947) и Гейнрих Рорер (р. 1933) за создание сканирующего туннельного (или туннелирующего) микроскопа.
Если со времен создания рентгеноструктурного анализа можно было с достоверностью установить положение атомов внутри кристаллической решетки, а более или менее точно и внутри некристаллических тел, то определить расположение частиц на поверхности во много раз сложнее. Исследования в этой области столь сложны, что Вольфганг Паули однажды воскликнул: «Поверхность, несомненно, была изобретением дьявола!»
В 1978 г. Рорер и Бинниг предложили исследовать поверхности с помощью квантово-механического эффекта туннелирования. Это явление, о котором мы говорили в главе о квантовой механике, является одним из проявлений принципа неопределенностей Гейзенберга и состоит в том, что частицы могут «туннелировать», проникать в такие узкие области, проход через которые запрещен классическими законами, в частности тогда, когда им для этого не хватает энергии, как, например, в явлении альфа-распада. Отметим, что этот эффект использовался и для получения множества данных о границах, разделяющих отдельные слои в «сэндвичах» из разных материалов.
Рорер и Бинниг избрали иной путь: они заставляли электроны туннелировать через вакуум. Основная идея их изобретения очень проста и состоит в том, чтобы сканировать поверхность твердого тела в вакууме с помощью кончика острой иглы: если между образцом и кончиком иглы приложено напряжение и расстояние между ними достаточно мало, то электроны туннелируют с острия иглы на образец. Сила туннельного тока зависит от расстояния между образцом и острием иглы и выражается вполне определенной формулой, зависящей от этого расстояния. Поэтому исследователи надеялись, водя иглой вдоль поверхности образца и измеряя ток, получить возможность «нанести на карту» расположение микроскопических (атомных размеров) холмов и долин на поверхности образца.
Как сказал позже Рорер: «Мы были совершенно уверены в успехе. С самого начала мы знали, что это будет важным продвижением вперед. Удивительно лишь то, что нам удалось так быстро достичь желаемого». Первое успешное испытание сканирующего микроскопа они провели уже весной 1981 г.: им удалось достичь разрешения «шероховатостей» на поверхности кристалла высотой всего лишь в один атом. (Понять важность и новизну чужого открытия, да еще принадлежащего незнакомым авторам, не всегда легко: рецензент журнала, куда Рорер и Бинниг послали первую статью, отверг ее как «недостаточно интересную».)
Самой большой трудностью в их работе была необходимость исключения всех источников колебаний и шумов: расстояние между острием и предметом должно контролироваться с точностью до доли диаметра атома. Поэтому даже шаги прохожих могут нарушить работу сканирующего микроскопа: его пришлось помещать на тяжелом каменном постаменте, изолированном от внешних шумов амортизаторами из сплющенных шин и т. п. Острие при этом перемещается пьезоэлектрическими устройствами, которые чутко реагируют на изменения управляющего напряжения.
Сканирующие микроскопы были затем усовершенствованы и миниатюризированы, сейчас это стандартный лабораторный прибор небольшого размера (десятки сантиметров). Он позволяет разрешать по вертикали детали размером в 0,1 ангстрема (1 ангстрем равен 10-10 м), т. е. в одну десятую диаметра атома водорода. Разрешающая способность сканирующего острия шириной всего в несколько атомов позволяет разрешать детали в горизонтальной плоскости размером не более 2 ангстремов, а в настоящее время удается изготовлять острия шириной всего лишь в 1 атом.
Отметим, что сканирующий туннельный микроскоп, помимо вакуума, работает и в других средах, в том числе в воздухе, воде и криогенных жидкостях. Он применяется для исследования не только неорганических, но и органических веществ, в том числе вирусов и дезоксирибонуклеиновой кислоты (ДНК).
7. Микроскопия ближнего поля
Критерий Аббе, о котором мы говорили выше, или соответствующие ему критерий Рэлея и принцип неопределенностей Гейзенберга — все они утверждают, что невозможно рассмотреть объект, размеры которого меньше длины волны.
Но вот в 1928 г. в старейшем английском физическом журнале Philosophical Magazine появляется статья некоего Синга, в которой приводятся его снимки — не очень высокого, правда, качества — деталей предметов с размерами, в 3–5 раз меньшими длины волны!
Нонсенс? — Но статью рекомендует к печати А. Эйнштейн!
Следующую статью с чуть лучшими снимками Синг помещает в том же журнале в 1932 г., но затем замолкает. И молчание по поводу возможности или невозможности такого разрешения продолжается примерно 65 лет — точнее, все эти годы никто не подвергает сомнению критерий Аббе и ему соответствующие.
И вдруг прорыв: в ряде журналов почти одновременно начинают появляться снимки, нарушающие, казалось бы, самые святые положения теории, проводятся конференции, даже издаются учебники и начинается промышленный выпуск оптических микроскопов, в которых можно фотографировать большие молекулы. Сейчас можно увидеть снимки деталей, в 300 раз меньших длины волны света…
Что же происходит, нарушаются ли этим законы физики?
Оказывается, в течение многих десятилетий ученые обращали очень мало внимания на факт, давно известный в радиотехнике: поле излучения антенны можно, весьма условно, подразделить на две части: дальнее поле и ближнее поле. Уравнения Максвелла описывают, в принципе, дальнее поле: на расстоянии одной или даже нескольких длин волн от источника — именно в этой области электрическое и магнитное поля взаимно перпендикулярны, именно оно убывает обратно пропорционально расстоянию от источника и т. д. Ближнее поле быстро затухает в отдалении от источника, оно, в принципе, аналогично, а быть может, и просто соответствует той «шубе» частиц (и антенн?), которые мы рассматриваем в главах о частицах и полях.
Поэтому можно думать, что если дальнее поле волны проквантовано, т. е. представлено в виде совокупности квантов с определенными свойствами, то ближнее поле не является квантовым, или же в нем нельзя выделить определенные наборы квантов, т. е. в нем присутствуют при данной частоте все длины волн — эта проблема еще не решена. Но если есть все длины волн, то они могут отражать свойства малых деталей предметов.
Снимки в ближнем поле производятся, например, так: световод с заостренным кончиком подводится к снимаемому объекту на расстояние меньшее длины волны, т. е. на такое, в котором выходящее из него поле не разделилось на ближнее и дальнее. Рассматривается интерференционная картина между потоками света, выходящими из световода и отраженными от поверхности, эта картина фотографируется и добавочно увеличивается. (Исследуются и другие схемы.)
Сейчас можно только сказать, что область ближнего поля и ее возможности в микроскопии пока еще недостаточно изучены. Подождем новых исследований и изобретений…
Глава 2
Изобретение транзистора
Зарождение радиотехники потребовало создания детектора, т. е. устройства, пропускающего электрический ток только в одном направлении. Дело в том, что обычная радиопередача идет на волнах высокой (несущей) частоты, амплитуда или фаза которых меняются (модулируются) гораздо более низкой звуковой частотой. Поэтому ток, генерируемый на антенне приемника, является высокочастотным, и нужно сперва выделить из него колебания одного направления, а затем уже можно будет по одной линии пустить колебания высокой частоты (несущей), а по другой — полезный сигнал.
В первых радиоприемниках, их называли детекторными, такое выделение осуществлял обычно кристалл галенита (свинцового блеска) — его припаивали к одному концу цепи, а ко второму присоединяли иголку («кошачий ус») и, двигая ею по кристаллу, искали «точку», то есть место, в котором электроны могли проходить только в одну сторону, и тогда в наушниках возникал долгожданный шум, а иногда даже речь и музыка.
Однако ламповые диоды, основанные на эффекте Эдисона, о которых мы говорили в главе «Электротехника и радиотехника», были надежнее, а звуковые колебания могли в таких приемниках усиливаться триодами. Казалось, что ламповая электроника одержала бесспорную и окончательную победу.
Но со временем стали ясны и ее недостатки: лампы были громоздкими, срок их службы — сравнительно коротким, а для подогрева катодов требовался дополнительный расход энергии, кроме того, стеклянные баллоны были хрупкими.
По-видимому, первыми взялись за создание нового типа электроники Уильям Шокли (1910–1989), Уолтер Браттейн (1902–1987) и Джон Бардин (1908–1991). Они и разделили Нобелевскую премию 1956 г. (Вторую Нобелевскую премию по физике Бардин получил в 1972 г. за теорию сверхпроводимости.)
Успех этой группы был обусловлен тем, что все трое начинали свою научную работу под руководством выдающихся ученых, т. е. прошли хорошую школу, и смотрели на исследуемые явления с разных, но, как оказалось, дополняющих друг друга точек зрения.
Шокли учился в знаменитом Массачусетском технологическом институте (МТИ) и начинал с расчетов поведения электронов в кристаллах, а затем стал работать в лаборатории телефонной компании «Белл» под руководством К. Дж. Дэвиссона, нобелевского лауреата, открывшего волновые свойства электронов. Первым заданием Шокли было проектирование электронного умножителя — особого рода электронной лампы, действующей как усилитель. Затем он возвращается к физике твердого тела и уже в 1939 г. выдвигает план разработки твердотельных усилителей, прообразов будущих транзисторов, для замены электронных ламп. Этот проект, правда, оказался в то время неосуществимым, но цель работы была ясна.
Бардин учился в Принстонском университете под руководством Ю. Вигнера, а диссертацию написал по силам притяжения, удерживающим электроны внутри металла. Затем в Гарварде он работал с Дж. Г. Ван Флеком и П. У. Бриджменом над проблемами атомной связи и электрической проводимости в металлах — его учителями были три будущих нобелевских лауреата.
В те же годы Браттейн изучает такие явления, как влияние адсорбционных пленок на эмиссию электронов горячими поверхностями, электронные столкновения в парах ртути, занимается магнитометрами, инфракрасными явлениями и эталонами частоты.
В годы войны все трое работали над проблемами радиолокации и радиосвязи, что также добавило им опыта в области, где они потом прославились. В 1945 г. они возвращаются в «Лаборатории Белл» на работу в программе научных исследований по физике твердого тела и возобновляют начатые перед войной исследования полупроводников. В этом содружестве Шокли определил первоначальное направление работ, Бардин разрабатывал теорию явлений, Браттейн экспериментально определял свойства и поведение исследуемых материалов и приборов.
Любопытно отметить, что если Шокли и Бардин были потомственными горожанами, то Браттейн был из села, и, хотя жизнь на ранчо на лоне природы ему нравилась, фермерский труд ом ненавидел. «Хождение в пыли за тремя лошадьми и бороной — вот что сделало из меня физика», — скажет он впоследствии.
Для всего дальнейшего нам нужно коротко рассказать о свойствах полупроводников. Их электропроводность является промежуточной между электропроводностью хороших проводников (к числу которых относится большинство металлов) и изоляторов и сильно изменяется в зависимости от характера и концентрации примесей в материале, а также от температуры. К этому времени уже появились квантовые расчеты полупроводников, но эти теории еще не были адекватно проверены экспериментами.
В совершенном кристалле, как принято говорить, связи между атомами «насыщены» или «заполнены». Электроны трудно оторвать, они с трудом перемещаются, что приводит к очень высокому электрическому сопротивлению — это изолятор. Однако вкрапления чужеродных атомов, которые не вполне подходят к данной структуре, приводят либо к появлению избыточных электронов, способных участвовать в электрическом токе, либо к дефициту электронов, известному как «дырки», — электропроводность возрастает.
Причина роста электропроводности заключается в следующем. Если в чистый кристалл ввести примеси в виде атомов, нарушающих регулярную кристаллическую структуру и могущих отдать на один электрон больше, то будет создан кристалл n-типа (от negative — отрицательный) с избытком электронов. Если же вводить атомы, отдающие связям на один электрон меньше, чем атомы решетки, создается кристалл р-типа (от positive — положительный). Так как электрон несет отрицательный заряд, то незаполненное электронное состояние ведет себя как положительный заряд такой же величины и при этом может двигаться: когда соседний электрон перемещается «вперед», чтобы заполнить дырку, он оставляет позади себя новую дырку, поэтому создается впечатление, будто дырка движется назад, хотя, в среднем, и не с такой скоростью, как электроны, и в противоположном направлении (до работ этой группы вклад дырочного тока в полный ток недооценивался).
Вначале Шокли намеревался моделировать основной принцип устройства электронной лампы: приложить электрическое поле поперек полупроводника и с его помощью управлять прохождением электрического тока вдоль образца. Но хотя расчеты показывали, что такое поле должно приводить к усилению тока, получить практические результаты не удавалось. (Заметим, что такое устройство удалось осуществить, пока в лабораторной модели, только в 2010 г. с развитием нанотехнологии.)
Тогда Бардин предположил, что электроны оказываются запертыми в поверхностном слое, и этот слой не пропускает поле внутрь полупроводника, экранирует его. Пришлось взяться за исследование поверхностных эффектов — это и помогло понять сложное поведение полупроводниковых устройств.
В 1947 г. Бардин и Браттейн достигли первого успеха, построив полупроводниковый усилитель, или транзистор (от английских слов transfer — перенос, плюс resistor, от лат. resisto — сопротивляюсь). Это был блок германия (полупроводника n-типа) с электродом на широкой грани (база), а на противоположной грани были два близко расположенных золотых точечных контакта («кошачьи усы»). К одному контакту (эмиттеру) прикладывалось небольшое положительное напряжение относительно базы и большое отрицательное напряжение относительно второго контакта (коллектора). Сигнал, подаваемый на эмиттер вместе с постоянным смещением, передавался со значительным усилением в цепь коллектора. В основе действия транзистора лежит внедрение дырок в германий через контакт-эмиттер и их движения к контакт-коллектору, где дырки усиливают коллекторный ток.
Шокли предложил заменить неустойчивые точечные контакты на выпрямляющие переходы между областями р- и n-типа в том же кристалле (1950). Такой плоскостный транзистор состоял из тонкой р-области, заключенной между двумя n-областями (все они с независимыми внешними контактами), работал он надежнее предшествующей модели и был проще в изготовлении. А дальнейшее усовершенствование методов выращивания, очистки и обработки кристаллов кремния позволило осуществить давнюю идею Шокли о создании транзистора на основе полевых эффектов.
Ныне этот тип транзисторов, которые легко сделать миниатюрными, наиболее широко используется в электронных устройствах. Оказалось, что их не нужно изготовлять и выпускать по-отдельности — можно производить непосредственно на кристаллах вместе с остальными деталями электронных схем, это и есть современные чипы.
Отметим, что Шокли проявил большую активность и после своих эпохальных успехов: ему принадлежат более 90 патентов в различных областях электроники (в том числе, в создании элементов магнитной памяти). Браттейн продолжал исследовать и улучшать параметры полевых транзисторов, которые очень чувствительны к поверхностным дефектам, и разрабатывать солнечные батареи. О работах Бардина по сверхпроводимости, принесших ему вторую нобелевскую премию, нужно рассказывать отдельно.
Заметим, что если переход от германия к кремнию позволил резко улучшить качество полупроводниковых приборов, то новый скачок может быть достигнут с переходом от кремния к углероду (взгляните на таблицу Менделеева — они в одном столбце!), но для этого нужно научиться получать дешевые промышленные алмазы, точнее — алмазные (не ювелирные!) пленки. Можно также усложнять вид полупроводниковых устройств — переходить к гетероструктурам, микроминиатюризовать их. Так что вся эта область остается предметом активных разработок.
Глава 3
Мазеры и лазеры
1. Изобретение мазера
Первые квантовые генераторы построили, одновременно и независимо, как мы уже говорили, Чарлз X. Таунс (р. 1915) в США и Александр Михайлович Прохоров (1916–2002) и Николай Геннадиевич Басов (1922–2000) в СССР. По-видимому, Прохоров и Басов сделали такое устройство чуть раньше, но из-за проволочек в редакции журнала их статья вышла несколько позже статьи Таунса (между собой они вопросы приоритета никогда не дискутировали). Поэтому мы постараемся параллельно рассмотреть пути, которые привели их к открытию.
Таунс в 1939–1947 гг. проводил исследования в знаменитых Лабораториях телефонной компании «Белл», где разрабатывал, главным образом, авиационный радар (радиолокатор) для прицельного бомбометания. Таким образом, он шел в физику от радиофизики, точнее, от радиотехники микроволн — электромагнитных волн сантиметрового и миллиметрового диапазонов.
Любопытно отметить, что Н.Г. Басов — по первому образованию ветеринар, так и прошел фронт в этой специальности, но после известий о ядерных взрывах решил стать физиком.
В то время в радиолокационных установках излучение генерировалось электронами, которые осциллировали (колебались) внутри металлических резонаторов и создавали стоячие волны между параллельными стенками резонатора. Поэтому длины волн излучения были кратны размерам резонатора и самая короткая достижимая длина волны была около 1 мм (частота —300000 МГц).
Еще занимаясь радарами, Таунс понял, что для них нельзя использовать все длины волн: молекулы воды в воздухе, например, интенсивно поглощают миллиметровые волны. Но отсюда следовало, что поглощение микроволн может служить основой для новой техники — микроволновой спектроскопии, позволяющей определять строение молекул.
А затем Таунсу пришла в голову идея: микроволны такого диапазона соответствуют разности энергий между некоторыми молекулярными уровнями. Значит, можно попробовать кардинально перестроить всю радарную технику — вместо того, чтобы возбуждать электроны в резонаторе, заставить молекулы прямо излучать нужные кванты.
Но ведь каждая молекула излучает, вообще говоря, сама по себе, а нужно получить мощный импульс. Как же заставить их излучать одновременно?
Давайте вспомним, как происходит процесс излучения. Электрон в атоме или молекуле может поглотить фотон, энергия которого равна разности между двумя уровнями, и подняться, в результате, на более высокий энергетический уровень — атом или молекула возбуждаются, т. е. приобретают избыточную энергию (правильнее, конечно, сказать, что в них на верхний уровень поднимается электрон). Через какое-то время после возбуждения (время высвечивания) они переходят на более низкий энергетический уровень спонтанным, случайным образом, выделяя энергию, равную разности между двумя уровнями, в виде фотона. В 1917 г. Альберт Эйнштейн, как мы уже говорили, доказал необходимость существования еще и индуцированного излучения, при котором возбужденные атомы или молекулы, под действием резонансных фотонов, немедленно возвращаются в основное состояние, испуская фотоны, неотличимые от тех, которые стимулировали этот возврат.
Но для того, чтобы получить мощный излучатель, надо собрать вместе много возбужденных молекул. Как сделать, чтобы они не начали излучать преждевременно? Таунс решает эту задачу и в декабре 1953 г. строит такую установку уже в Колумбийском университете. Этот прибор он называет «мазер» (аббревиатура английского выражения microwave amplification by stimulated emission of radiation — микроволновое усиление с помощью стимулированного излучения).
В первом мазере молекулы аммиака проходили через электрические поля специальной конфигурации, которые отталкивали молекулы находящиеся в основном состоянии и фокусировали возбужденные молекулы в резонансной полости. Когда в полости накапливалась достаточная концентрация возбужденных молекул, то небольшая порция излучения резонансной частоты (фотоны с энергией, равной разности между основным и возбужденным состояниями молекулы аммиака) вызывала лавинообразный рост индуцированного излучения, возбуждение еще большего числа молекул, находившихся в основном состоянии, и еще большее возрастание этого излучения. В результате получается мощный усилитель излучения на резонансной частоте (в случае аммиака — в микроволновом диапазоне).
Как при этом оказалось, частота мазеров настолько стабильна, что они могут служить высокоточными часами. С помощью двух мазеров Таунс и его коллеги проверили и подтвердили специальную теорию относительности Эйнштейна, причем эту проверку позже назвали наиболее точным физическим экспериментом в истории. А в радиоастрономии мазеры, усиливающие чрезвычайно слабые, ранее неизмеримые сигналы, позволили распознавать радиоисточники на огромных расстояниях от Земли.
Прохоров и Басов шли к построению молекулярного генератора (предложенное ими название, позже вытесненное словом мазер) несколько иным путем. Прохоров, до войны аспирант в Лаборатории колебаний Физического института АН СССР им. П. Н. Лебедева (ФИАН) в Москве, возвращается после двух ранений на фронте к работе с ламповыми генераторами. Но в 1947 г. его интересы перемещаются в микроволновую область, к так называемому синхротронному излучению вращающихся электронов, а затем к радиоспектроскопии. Он организует группу молодых исследователей, которые, используя радар и радиотехнику, разработанные главным образом в США и Англии во время и после Второй мировой войны, исследуют вращательные и колебательные спектры молекул.
Помимо чисто спектроскопических исследований, Прохоров проводит теоретический анализ применения микроволновых спектров поглощения для усовершенствования эталонов частоты и времени. Полученные выводы привели Прохорова и его молодого сотрудника Басова к идее использования индуцированного излучения.
Для своих опытов они избрали то же вещество, что и Таунс — аммиак, разница состояла лишь в деталях отделения возбужденных молекул от молекул, находящихся в основном состоянии. В 1964 г. Н. Г. Басов, А. М. Прохоров и У. Таунс разделили между собой Нобелевскую премию по физике.
2. Трехуровневая схема
Метод накопления возбужденных молекул, использованный в первых мазерах, был очень громоздок и мало эффективен. Нужно было придумать нечто иное. И новые схемы были, по-видимому, практически одновременно предложены несколькими исследователями.
В 1955 г. Прохоров и Басов предлагают новый «трехуровневый метод» создания мазера: атомы (или молекулы) с помощью «накачки», частота которой соответствует разности энергий между третьим и первым уровнями, загоняются на самый верхний уровень. Система уровней выбрана так, что электроны быстро сваливаются на второй, промежуточный энергетический уровень, который оказывается плотно заселенным.
Ну а далее мазер испускает излучение на частоте, соответствующей разности энергий между промежуточными и нижним уровнями. (Разделение частоты накачки и рабочей частоты сыграло большую роль в эволюции всех квантовых приборов.)
В 1956 г. Николас Бломберген (р. 1920, Нобелевская премия 1981 г.) предлагает отойти от использования только газовых сред как рабочего вещества и взять за основу при разработке мазеров принцип трех уровней в кристаллах.
В том же 1956 г. Таунс показывает, что такие трехуровневые системы можно найти в некоторых твердых кристаллах, содержащих примеси. Эти атомы, будучи возбуждены высокой частотой накачки, могут затем достаточно долго сохранять возбуждение на промежуточном, рабочем уровне, чтобы потом, когда их количество достигнет критического значения, разом под действием фотона резонансной частоты излучить накопленную энергию.
В 1958 г. Таунс и его шурин, муж младшей сестры, Артур Л. Шавлов (р. 1921, Нобелевская премия 1981 г.) сформулировали условия построения мазера, излучающего в инфракрасной, видимой и даже ультрафиолетовой областях спектра.
А в 1960 г. Теодор Г. Мейман (р. 1927) запустил первый твердотельный лазер (от английского выражения light amplification by stimulated emission оf radiation — световое усиление с помощью стимулированного излучения), излучавший красный свет, со стержнем из искусственного рубина с зеркальными концами. Рубин химически представляет собой прозрачный окисел алюминия (Al2O3), матрицу с примесями в виде атомов хрома, которые и создают его окраску, а в лазерах являются «работающими» трехуровневыми системами.
В дальнейшем были предложены и осуществлены различные схемы построения лазеров. Одной из самых популярных стало стекло с атомами неодима, работающее по четырехуровневой схеме — рабочим переходом является переход между третьим и вторым уровнями, что обеспечивает возможность получения больших мощностей и т. д. Дальнейшее развитие лазеров носило лавинообразный характер, приведя к образованию новой области — квантовой электроники. Накачка лазеров может производиться током, светом, излучением других типов лазеров, а также в ходе химических реакций. Ныне лазеры — газовые, жидкостные, полупроводниковые, твердотельные — используются в связи, машиностроении, медицине, инструментальных и измерительных приборах, в искусстве и в военных областях.
Особую роль, включая сейчас уже даже домашнюю электронику, играют миниатюрные лазеры на так называемых гетеропереходах, созданные группой Жореса Ивановича Алферова (р. 1930). Он разделил Нобелевскую премию 2000 г. с Хербертом Кроемером за «работы по получению полупроводниковых структур, которые могут быть использованы для сверхбыстрых компьютеров», и с Джеком Килби за работы в области интегральных схем.
Нередко в ходе исследовании приходится придумывать какие-то необычные приспособления их подручных материалов. Так, поскольку измерить интенсивность излучения лазера было в начале работ не очень просто, в лабораториях стали использовать такую «единицу»: число лезвий безопасных бритв (выбирали стандартные), прожигаемых одиночным импульсом. И вот в серьезных докладах зазвучали слова типа: «Использовали лазер в три бритвы…»
Развитие физики лазеров привело к выделению такой области исследований как лазерная химия, возможно лазерное разделение изотопов, исследуются возможности лазерного индуцирования термоядерных реакций (А. Д. Сахаров, 1962) и т. д. Рассматриваются возможности объяснения ряда наблюдаемых небесных явлений с учетом мазерных эффектов в их излучениях.
Уже очень давно высказывались предположения, что, в принципе, можно было бы осуществить эффект индуцированного излучения не на атомных, а на ядерных уровнях — это позволило бы строить лазеры в рентгеновском и даже гамма-диапазонах (их заранее назвали разерами и газерами), однако до сих пор реальных результатов в этом направлении получено не было.
Важнейшими особенностями лазерного излучения являются его высокая монохроматичность, т. е. строгая одинаковость частоты всего излучения, когерентность, т. е. равенство фаз по всему излученному импульсу (напомним, что только когерентные волны могут интерферировать), краткость импульсов и их мощность, острая направленность луча, выходящего из резонатора. Так, еще 9 мая 1962 г. луч лазера, направленный на Луну, создал на ее поверхности освещенное пятно диаметром около 6,4 км, видное с Земли. Современные лазеры могли бы послать «зайчик» меньшего размера, но гораздо большей яркости.
В 1985 г. Чу и его коллеги создали такое пересечение лазерных лучей (его назвали «оптической патокой»), в котором скорость атомов газа уменьшалась в несколько тысяч раз, а это соответствует уменьшению температуры в сотни раз. Разработанная ими же атомная ловушка, использующая лазеры и магнитные катушки, могла фиксировать охлажденные атомы и давала возможность их исследования. Между 1988 и 1995 гг. Коэн-Тануджи и его коллеги добились охлаждения атомов до температуры в 1 микрокельвин, что со о тв е тствует скорости их колебаний всего в 2 см/с. Среди других прикладных программ методы, которые они разработали, позволяют создать атомные часы чрезвычайно высокой степени точности, порядка одной секунды за три миллиарда лет.
Стоит упомянуть еще одно направление лазерных исследований.
Представляется естественным, попытаться использовать лазеры для ускорения частиц, например электронов. И такие попытки, конечно, делались и продолжают делаться. Но вот совсем не тривиальной представляется постановка обратной задачи: использовать лазерное излучение для охлаждения вещества — так послать лучи, чтобы они тормозили тепловое движение атомов.
Эту задачу поставили и решили Стивен Чу и Уильям Дэниел Филлипс (оба род. 1948) в США и Клод Нессим Коэн-Тануджи (р. 1933) во Франции, удостоенные Нобелевской премии 1997.
3, Нелинейная оптика
В 1962 г. Н. Бломберген опубликовал, вместе с коллегами, общую теорию нелинейной оптики, которую впоследствии он и многие другие исследователи существенно расширили (работы по нелинейным эффектам в оптике, которые вели до того — например, С. И. Вавилов — упирались в малую мощность существовавших источников излучения).
Бломберген показал, что в лазере или в среде, через которую проходит его излучение, могут появиться гармоники, кратные основной частоте и подобные обертонам в звуке, в результате чего можно получить излучение более высоких частот. Описав предполагаемое взаимодействие трех лазерных пучков, в результате которого образуется четвертый пучок, частотой которого можно управлять с высокой точностью, Бломберген заложил теоретические основы для создания лазера с перестраиваемой частотой. А это позволило Шавлову развивать лазерную спектроскопию, получить новые, весьма подробные сведения о строении атомов и молекул: отмечая, какие именно частоты предпочтительно поглощаются или испускаются, спектроскопист может определить характеристические энергетические уровни, т. е. строение исследуемого материала. Точное знание частоты пучка, что обеспечивается монохроматической (одночастотной) природой лазерного света, а также возможность точно настраивать частоту на различные энергетические уровни позволяют проводить более глубокий анализ веществ.
Нелинейные оптические процессы можно попытаться разделить на две группы: первая — это те, которые определяются взаимодействием света со многими атомами и через это — самих атомов друг с другом, а вторая группа определяется взаимодействием многих фотонов с одним атомом, когда влиянием соседей можно пренебречь, эту группу явлений называют многофотонными процессами.
Один из самых красивых эффектов первого типа — это явление самофокусировки (Г.А. Аскарян, 1967): сходящийся пучок света в веществе так увеличивает показатель преломления на своем пути, что в среде возникает «световод» — луч далее не расходится, а распространяется в виде трубки или пучка нитей.
Среди многофотонных процессов особенно примечательны два: образование высших гармоник и многофотонная ионизация. Дело в том, что как уже отмечалось, прямым путем не удается построить лазер, генерирующий достаточно мощное излучение в ультрафиолете, не говоря уж о более высокочастотных частях спектра. Поэтому основные надежды возлагаются на получение гармоник достаточно высокого порядка — к настоящему времени получены уже более чем сотые гармоники, но с малыми КПД. В этой области остается еще очень много неясного, и поэтому она интенсивно исследуется.
Глава 4
Приборы для физики ядра и частиц
1. Для чего они нужны?
Аппаратура, используемая исследованиях ядра и частиц, состоит из детекторов частиц (приборов для их регистрации) и устройств для их создания и ускорения. Но помимо того, разработка таких приборов ведет к созданию энергетических установок (ядерных реакторов), а в будущем, возможно, к термоядерным реакторам и, не исключено, — к новым типам двигателей, новому оружию и т. д.
Простейшим способом регистрации является, конечно, метод фотоэмульсий. Он был в значительной степени инициирован С.Ф. Пауэллом, настаивавшим на разработке более чувствительных фотоматериалов — именно такие фотопластинки позволили ему открыть пионы в космических лучах, прорыв здесь был технологическим, и потому мы его не рассматриваем. Однако метод фотоэмульсий является безальтернативным: на пленке фиксируется все, что через нее проходит, и хотя вам, быть может, интересен всего один случай из многих-многих миллионов, его следы могут затеряться на фоне бесполезных треков.
Еще раньше были придуманы счетчики Гейгера, а затем камера Вильсона. Позже были созданы и другие камеры, которые мы постараемся чуть подробнее рассмотреть.
Сейчас к каждому эксперименту на ускорителях приходится конструировать новые типы детекторов: нередки статьи, в которых тексту в четыре страницы (стандарт для журнала «Фиэикл Ревью Леттерс», самого авторитетного в этой области) предшествует список из трехсот-четырехсот авторов и нескольких десятков научных учреждений из многих стран!
С развитием техники ускорителей, с ростом энергии частиц пришлось переходить на новые типы детекторов, «калориметры». Нужно замерить полную энергию частицы, а она такова, что порождается целый ливень вторичных частиц — их улавливает, например, сверхпроводящий цилиндр, в котором можно измерить повышение температуры на миллиардные доли градуса.
Детекторы должны отбирать интересные для данного исследования случаи (примерно, один на сто миллионов) и только при их появлении включать регистрирующее устройство (сложнее всего переключать магнитные поля). Если раньше, когда исследования шли на низких энергиях, достаточно было, например, поместить над и под камерой Вильсона счетчики Гейгера и включать ее при совпадении (или несовпадении) сигналов от обоих счетчиков, то сейчас устройство и программы детекторов много сложнее, а их электроника должна быть несравнимо более быстродействующей — нас интересуют частицы со все более коротким периодом распада.
Ускорение заряженных частиц происходит в электрическом поле. При этом возможны два типа ускорителей: линейные, в которых частицы все время ускорения движутся по прямой, и круговые, в которых магнитное поле заворачивает их траектории в окружности (или спирали). Оба типа имеют свои преимущества и свои недостатки, но конструирование их, как и детекторов, и регистрирующих устройств, требует такой изобретательности и такого таланта, что нередко увенчивается Нобелевскими премиями. (Мы коротко говорили об ускорителях в главе о теории относительности и потому здесь продолжим рассказ без повторений.)
2. Камера Вильсона
Мы уже писали о двух методах регистрации быстрых частиц: сцинтилляторах и счетчиках Гейгера. Но последующие успехи ядерной физики и затем физики элементарных частиц обусловлены изобретением туманной, или конденсационной, камеры Чарльзом Томсоном Рисом Вильсоном (1869–1959, Нобелевская премия 1927 г.). Вильсон, которого все называли Ч.Т.Р., собирался стать медиком, изучал философию, латынь и греческий, но потом увлекся физикой. Семья очень нуждалась, и он какое-то время работал школьным учителем, но затем все же начал эксперименты в Кавендишской лаборатории, зарабатывая на жизнь как лаборант при студентах-медиках.
Ч.Т.Р. происходил из горной Шотландии и любил бродить по горам. Особое впечатление на него произвели оптические атмосферные явления, кольца вокруг Солнца, видимые сквозь туман. Поэтому он строит камеру, в которой можно имитировать туман и дождь при расширении и охлаждении водяного пара. Много позже он писал: «Почти немедленно я натолкнулся на нечто, представляющее гораздо больший интерес, чем оптические феномены, которые я намеревался изучать». Дело вот в чем: давно было известно, что пары воды начинают конденсироваться на пылинках в атмосфере, но Ч.Т.Р. удалял их всех, очищая воздух многократной конденсацией и испарением, а туман при большой влажности воздуха все равно образовывался.
В поисках источника зародышей пара возникла идея, что ими могут быть ионы воздуха. Тут как раз подоспело открытие рентгеновских лучей, и Вильсон начал ионизовать воздух в камере с помощью примитивной рентгеновской трубки. А так как ему в 1896 г. присудили стипендию Максвелла, он мог уже спокойно, не отвлекаясь на приработки, продолжать работу по изучению атмосферного электричества.
В 1911 г., когда камера была усовершенствована, Вильсон решил использовать ее для регистрации пролетающих атомных частиц: своим зарядом альфа- и бета-частицы должны ведь ионизовать молекулы газа по линии пролета, а водяной пар, конденсирующийся вокруг ионов в капельки, должен образовывать следы, которые можно будет фотографировать. Эти надежды оправдались, и он смог сообщить, что видел впервые «восхитительные облачные следы», сконденсировавшиеся вдоль треков альфа- и бета-частиц, причем треки эти можно было отличить друг от друга с невероятной четкостью: чем быстрее частица, тем меньше она успевает создать ионов на своем пути, поэтому по толщине следа можно оценить скорость и энергию пролетевшей частицы. Фотографии треков произвели глубокое впечатление в научном мире — они послужили первым зримым свидетельством существования этих частиц.
Как писал Дж. Дж. Томсон, прибор, подобный камере Вильсона, «трудно сыскать; она служит примером изобретательности, проницательности, умения работать руками, неизменного терпения и несгибаемой целеустремленности)». Именно на такой камере проводили свои исследования П. М. С. Блэкетт, П. Л. Капица, В. Боте, супруги Жолио-Кюри и многие-многие другие. С ее помощью были открыты позитрон и другие частицы.
В 1924 г. Дмитрий Владимирович Скобельцын (1892–1986) первым догадался, что если поместить такую камеру в магнитное поле, то по отклонению следа частицы влево или вправо можно определить ее заряд. Работы у него шли весьма успешно: электроны из космических лучей отклонялись, как частицы с отрицательным зарядом, в одну сторону, а положительные протоны и альфа-частицы — в другую.
Но вдруг в 1929 г. он получает снимки, на которых явно запечатлен след электрона, но отклоняется он в противоположную сторону. Скобельцын решил, что это электроны, но они влетели в камеру не с той стороны, т. е. не сверху, как все нормальные космические частицы, а снизу, прошли, понимаете ли, всю Землю насквозь. Он не знал, по-видимому, созданной к тому времени, но еще, правда, не общепринятой и не совсем понятой теории Дирака, по которой каждой частице должна сопутствовать античастица с такой же массой, но с противоположным зарядом. Позитрон был открыт только через три года на точно таком же снимке…
3. Пузырьковая камера
Многочисленные усовершенствования камеры Вильсона сделали ее основным рабочим инструментом ядерной физики и зарождавшейся физики элементарных частиц, однако она не лишена недостатков. Главнейшие из них такие: во-первых, чем быстрее частица, т. е. чем выше ее энергия, тем меньше ионов она успевает создать на своем пути — поэтому для частиц высоких энергий нужно увеличивать размеры камеры, что технически очень сложно, а то и невозможно. Во-вторых, после каждого снимка нужно заново ожижать пар в ней и снова его испарять, а это требует немало времени. Следовательно, нужен поиск новых способов регистрации частиц.
Новый тип камер, пузырьковых, был изобретен и осуществлен Дональдом А. Глэзером (р. 1926, Нобелевская премия 1960 г.), учеником и сотрудником Карла Андерсона.
Талантливый музыкант, Глэзер думал о карьере скрипача и даже в возрасте шестнадцати лет выступал с Кливлендским симфоническим оркестром, но затем победила физика, и после университета его увлекли космические лучи. Работа с камерой Вильсона, длительные простои при ее очищении и наладке, сложности исследования при больших энергиях частиц — все это возвращало его к мыслям о новых приборах.
Рассказывают, что основная идея новой камеры зародилась тогда, когда Глэзер сидел в кафе и меланхолически попивал из кружки пиво. По восточноевропейской привычке (его семья родом из России), он сыпал понемножку соль в пиво и вдруг заметил, что от каждой крупинки в кружке поднимается след из пузырьков. Но ведь то же самое произойдет, если через доведенную почти до кипения жидкость пропустить заряженную частицу: она образует ионы, а на них возникнут пузырьки пара. Вот и быстродействующая замена камере Вильсона!
Глэзер попытался установить, могут ли частицы высоких энергий быть «пусковыми механизмами» кипения перегретой жидкости под давлением. Первые опыты он проводил с бутылками подогретого пива и газированных напитков, чтобы определить, что влияет на пенообразование. После более тонких экспериментов и расчетов он обнаружил, что при соответствующих условиях пролетающие заряженные частицы могут «запускать» кипение перегретой, находящейся под давлением жидкости.
Начал он со стеклянных камер разной формы с объемом в несколько кубических сантиметров и с перегретым эфиром внутри. Уже в них ему со временем (в 1952 г.) удалось создать очень неустойчивое состояние и зафиксировать четкие треки частиц с помощью высокоскоростной киносъемки прежде, чем жидкость закипала. Фактически метод Глэзера был как бы зеркальным отражением метода Вильсона: в камере Вильсона трек образуют капельки жидкости в газе, а в пузырьковой камере трек создавался из газовых пузырьков в жидкости.
Большую камеру Глэзер построил на жидком водороде при температуре -246 °C в 1953 г. На ней были зафиксированы новые типы реакций, не поддававшихся ранее наблюдению, и удалось получить о них в тысячи раз большую информацию.
Отметим, что после получения Нобелевской премии Глэзер заинтересовался приложением физики к молекулярной биологии и начал изучать микробиологию. Он исследовал эволюцию бактерий, регуляцию клеточного роста, канцерогенные вещества и генетические мутации. При этом он разработал компьютеризованную сканирующую систему, которая автоматически идентифицирует виды бактерий с помощью тех методов анализа фотографий, которые используются при работе на пузырьковых камерах.
* * *
В следующем типе приборов используются другие физические принципы — это искровые камеры: между двух горизонтальных пластин, на которые подается напряжение, близкое к пробойному, находится газ. Когда через эту систему проходит заряженная частица, то по ее следу, иногда даже закрученному в спираль, происходит пробой, пробегает как бы микромолния, которая сама включает фотокамеру и себя снимает.
В такой камере можно поместить много пластин, а еще лучше поместить в нее систему проволочек и рассматривать далее разряды и возникающие электрические поля. Такая система, если сигналы передаются прямо на компьютер, может анализировать трехмерную и быстроменяющуюся картину взаимодействий и вспышек, всего до миллиона событий в секунду — множество резонансов и частиц, о которых мы будем потом говорить, — а для этого нужно было придумать и осуществить системы световодов, счетчиков фотонов и т. д. и т. п. Для сравнения заметим, что в пузырьковой камере можно было зафиксировать и визуализировать (от латинского «визуз» — зрение) не более двух событий в секунду.
4. Ускоритель Кокрофта — Уолтона
Джон Кокрофт (1897–1967) и Эрнест Уолтон (р. 1903) работали в лаборатории Резерфорда. Кокрофт вместе с П. Л. Капицей разрабатывал мощные магниты и решил применить их для ускорения альфа-частиц, любимого им и в то время единственного оружия для проникновения в атомное ядро — именно при бомбардировке ими удалось ранее превратить атомы азота в атомы кислорода.
Но поскольку альфа-частицы, как и ядра, положительно заряжены, т. е. взаимно отталкиваются, то для их столкновения нужно увеличить энергию альфа-частиц или же увеличить интенсивность их потока (вероятность столкновения будет очень мала, но не равна нулю при любой энергии).
Для преодоления ядерного барьера требуется энергия альфа-частиц в несколько миллионов эВ, что в то время было абсолютно недостижимо. Но тут Кокрофт прочитал в 1928 г. статью Г. Гамова о том, что, поскольку альфа-частицы обладают волновыми свойствами, некоторые из них могут покинуть ядра, туннелировать сквозь барьер, хотя, согласно классической теории, это невозможно.
Вероятно, полагал Гамов, некоторые альфа-частицы даже малой энергии могут покинуть ядра, но для их обнаружения нужно исследовать очень большое число ядер. Когда Гамов посетил Кавендишскую лабораторию, Кокрофт расспросил его о возможности обратного процесса, о том, могут ли альфа-частицы малой энергии проникнуть в ядро, несмотря на силы отталкивания. Гамов подсчитал, что такие случаи можно обнаружить, если направить на ядро достаточно большое число альфа-частиц.
И тогда Кокрофт и Уолтон разработали установку, способную подавать напряжение всего лишь в 600 киловольт к трубке, содержащей водород. С помощью этой установки они в апреле 1932 г. бомбардировали литий ядрами водорода, протонами. «Почти сразу же, — вспоминал потом Кокрофт, — при энергии в 125 киловольт доктор Уолтон увидел ядерную сцинтилляцию, характерную для альфа-частиц». На этой установке они превратили литий и водород в два атома гелия, став, тем самым, первыми учеными, которым удалось искусственно расщепить атом.
Поскольку число высокоэнергичных альфа-частиц в пучке было мало, то только одна из каждых десяти миллионов частиц, направленных на легкие атомы вроде лития и бора, расщепляла ядро и высвобождала энергию. Однако именно их достижения послужили экспериментальным подтверждением теории туннелирования Гамова и показали, что количество энергии, освобождающейся при превращениях атомов, точно соответствует основному уравнению теории относительности Эйнштейна: Е = mс2.
Создание ускорителя и полученные результаты были увенчаны Нобелевской премией по физике 1951 г.
5. Эрнест Лоуренс
Первой значительной работой Эрнеста О. Лоуренса (1901–1958, Нобелевская премия 1939 г.), о которой нужно рассказать, является экспериментальная демонстрация принципа неопределенности Гейзенберга. Согласно этому принципу, измерение энергии, например, фотона, становится тем неопределеннее, чем короче время измерения. Так как энергия фотонов, согласно М. Планку, пропорциональна частоте света, то неопределенность в энергии сводится к неопределенности в частоте. Линия в оптическом спектре в действительности представляет собой узкую, но четкую и хорошо определенную полосу световых частот. Включая и очень быстро выключая свет во время измерения частоты спектральной линии, Лоуренс показал, что линия расширяется. Источник света не претерпевал никаких изменений, хотя его частота становилась менее определенной, как и следовало из принципа неопределенности Гейзенберга.
Но затем Лоуренс обратился к ядерной физике. Ему было ясно, что для дальнейших исследований нужны ускорители: радий, излучением которого пользовался Резерфорд, был дорогим и редким элементом, альфа-частицы вылетали из источника по всем направлениям, число наблюдаемых столкновений было чрезвычайно мало, а наблюдения трудоемкими. В линейных ускорителях из-за высокого напряжения должна была часто пробиваться изоляция…
И тут помог случай. В 1929 г. Лоуренсу попалась на глаза статья Рольфа Видерое, в которой рассматривалась схема ускорителя частиц, предложенная ранее Густавом А. Изингом (1883–1960). Изинг в 1925 г. предложил использовать синхронное (от греческого — совпадение во времени) включение относительно небольшого разгоняющего напряжения при появлении частиц в нужном месте, а Видерое построил первый вариант такого линейного ускорителя. Кроме того, он рассмотрел некоторые возможности циклического ускорителя с заворотом электронов на круговые орбиты магнитным полем (поскольку сила Лорентца всегда перпендикулярна к скорости заряда, она может быть только центростремительной).
Статья эта была на немецком, которого Лоуренс практически не знал, но в ней были вполне ясные картинки! Он понял по ним, что траекторию частиц можно изогнуть в окружность и ускорять их отдельными «толчками», а для этого вовсе не нужно громадное напряжение. И при этом очень существенно то, что частицы всегда описывают полную окружность за одно и то же время — независимо от скорости.
В 1930 г. он приступил к расчетам и постройке первого циклотрона (от греческого «циклос» — круговой). Именно с его созданием обычно связывают имя Лоуренса.
Циклотрон представляет собой круглый полый диск — как бы плоскую консервную банку, разделенную по диаметру на две половины в форме латинской буквы В (они называются дуантами, от латинского «дуо» — два). Диск помещен между плоскими полюсами большого магнита, в зазоре между дуантами создается переменное напряжение. Когда заряженная частица, например протон, попадает в зазор, она притягивается к дуанту с отрицательным напряжением и набирает скорость при проходе через зазор. Внутри дуанта частица описывает в магнитном поле полуокружность с постоянной по величине скоростью и выходит из него в точке, диаметрально противоположной входу. К этому времени знак напряжения изменяется, и протон устремляется к другому дуанту, ставшему теперь отрицательным, притягивается им и добавочно ускоряется напряжением, приложенным к зазору. Поэтому во втором дуанте он движется по дуге окружности большего радиуса, чем прежде.
Так протон как бы «подталкивается» при каждом проходе через зазор и движется со все возрастающей скоростью по дугам окружностей все большего радиуса (с ростом скорости растет его масса движения) пока не достигнет наружной стенки диска. Тогда протон вылетает из циклотрона на выбранную мишень. Дуанты изготовляются из немагнитного материала, в камере должен быть глубокий вакуум, чем больше размер дуантов и чем крупнее и мощнее магниты, тем выше будет энергия разгоняемых частиц.
Создание циклотрона открыло перед физиками обширное новое поле исследований. Бомбардировка атомов многих элементов позволила расщепить их ядра на фрагменты, которые оказались изотопами, часто радиоактивными. Циклотрон использовался и для измерения энергий связи многих ядер, и (путем сравнения величин разности масс до и после ядерной реакции) для проверки соотношения Эйнштейна между массой и энергией.
На основе циклотрона Лоуренс построил еще и масс-спектрометр, прибор для разделения изотопов: так как массы изотопов несколько отличаются, изотопы движутся по близким, хотя и не совпадающим траекториям, поэтому могут быть разделены. Хотя этот способ их разделения не слишком эффективен, именно им был получен уран-235 для первых атомных бомб. После войны Лоуренс продолжал строительство ускорителей, способных разгонять частицы до энергий в миллиарды электронвольт. На одном из таких ускорителей, получившем название бэватрона — от БэВ, старого названия миллиарда эВ, ныне ГэВ — группа Эмилио Сегре открыла антипротон, а вскоре и антинейтрон.
6. Коллайдеры
Циклотрон был значительно усовершенствован введением методов автофазировки Владимира Иосифовича Векслера (1907–1966) и Эдвина М. Мак-Миллана (р. 1907, Нобелевская премия по химии за открытие трансурановых элементов 1951 г.) и др.
Дальнейшее развитие ускорительной техники привело к созданию коллайдеров (от английского «коллайд» — сталкиваться) — это ускорители, в которых два пучка частиц направляются друг на друга. При этом, во-первых, энергии частиц обоих встречных пучков складываются, а во-вторых, не мешают посторонние частицы, всегда имеющиеся в составе мишени.
Первый такой аппарат для исследования взаимодействий электронов с электронами был запущен в Новосибирске в 1967 г. Самый большой линейный ускоритель электронов находится в Пало-Альто (США) и называется SLAC (сокращенно от «Стенфордский линейный ускоритель»), а его модификация — SLC. В нем ускоряют электроны и позитроны до энергий в 50 ГэВ, а затем сталкивают их друг с другом по схеме коллайдера, в SLC после его отладки были достигнуты еще большие энергии.
Один из самых больших к настоящему времени коллайдеров с 1982 г. работает в Женеве в Европейском центре ядерных исследований (ЦЕРН). Называется он LEP и в нем исследуются столкновения протонов и антипротонов, совершающих 50 000 оборотов в секунду по кольцу с длиной окружности более 20 км.
Наиболее ярким событием, с которого началась работа этой машины, было открытие так называемых промежуточных мезонов, о них будем говорить ниже. Сейчас только заметим, что, поскольку массы этих W- и Z-частиц велики, для их наблюдения требуется выделение огромного количества энергии. О сложности оборудования, используемого в этих экспериментах, говорит уже то, что больший из двух детекторов весит 1200 тонн.
Идея такого эксперимента была разработана физиком Карло Руббиа (р. 1934) и другими, а основной вклад в перестройку ускорителя внес Симон ван дер Мер (р. 1925), они и разделили Нобелевскую премию 1984 г. Ван дер Мер изобрел устройства, которые позволяли — при таких скоростях! — впрыскивать в уже существующие и вращающиеся сгустки частиц и античастиц добавочные частицы и уравнивать «на лету» их параметры.
Самый большой ускоритель диаметром 83,6 км, называемый SSC (сверхпроводящий суперколлайдер), должен разгонять протоны и антипротоны до энергии в 20 ТэВ (двадцать триллионов эВ). Стоимость его, утвержденная еще в 1983 г., должна была составить 6 млрд долларов, а строительство должно было закончиться к 1995 г., но затем его финансирование было прекращено [51] В начале 1990-х гг. американские физики полушутя упрекали советских коллег: не могли разве несколько задержать начало перестройки? Ведь с распадом СССР исчезли проблемы соревнования мировых систем, и Сенат США сразу сократил финансирование амбициозных научных программ…
. О Большом адроном коллайдере мы уже говорили.