Неневидимое

Физик Александр Львовский — о том, как заглянуть за предел дифракции

Для нашего зрения нет никакой разницы между очень далекой звездой и очень маленькой инфузорией — это просто очень-очень маленькие объекты. Мы видим, собирая глазами свет, а чтобы разглядеть какой-нибудь плохо различимый предмет получше, используем линзы микроскопов и телескопов: они направляют лучи света от интересующих нас источников таким образом, что видимая нами картинка становится крупнее и на ней можно отчетливо разглядеть детали. Увеличивать ее до бесконечности, однако, нельзя — потому что у волн в оптическом спектре тоже есть размер, из-за чего различить объекты меньше дифракционного предела в принципе нельзя. О том, как обмануть этот физический барьер, мы поговорили с физиком Александром Львовским из Российского квантового центра и Оксфордского университета, чья научная группа смогла заглянуть в невидимое, догадавшись внимательнее посмотреть на сам свет, который мы видим.

Дифракционный предел — это фундаментальное физическое свойство света. Из-за него оптические микроскопы в принципе не могут разглядеть объекты меньше 200 нанометров, а телескопы — различить две звезды, находящиеся ближе сотых долей угловой секунды друг от друга (эта величина, правда, сильно отличается для телескопов разного диаметра). Известны технические трюки, которые позволяют сдвинуть этот порог для микроскопии: например, можно управлять флуоресценцией объекта, подавляя или возбуждая ее в отдельных областях, или исследовать электромагнитное поле непосредственно вблизи объекта — еще ближе, чем длина волны видимого спектра. Но со звездами ничего подобного сделать, естественно, нельзя.

Пять лет назад, однако, стало ясно, что есть еще один путь, который подойдет и микробиологам, и астрономам — для этого придется разложить этот пучок света на отдельные компоненты и посмотреть, как они коррелируют между собой. Этой информации будет достаточно, чтобы построить изображение сверхвысокого разрешения, даже если объект находится на очень большом расстоянии от источника света. В этом году идею удалось подтвердить на практике и в два раза преодолеть дифракционный предел в реальном эксперименте. Для этого ученым потребовались лазер, пространственный модулятор света, гетеродинный детектор — и немного машинного обучения.

Концепция

N + 1: В апреле [30 апреля 2021 года] у вас на arXiv вышел препринт статьи про реализацию микроскопического метода сверхвысокого разрешения в дальнем поле. Вы не могли бы для начала кратко рассказать, в чем суть вашего подхода? Каким образом вам удается преодолеть дифракционный предел?

Александр Львовский: Вообще, методы преодоления дифракционного предела можно разделить на два больших класса. Первый класс — это использование ближнего поля, то есть некоего щупа-иголки, который почти касается объекта. На таком расстоянии никакой дифракции нет. И, соответственно, можно измерять точно. Или нелинейная оптика: наводятся какие-то нелинейные взаимодействия, которые по очереди «высвечивают» узкие регионы поверхности объекта, таким образом тоже позволяя добиваться более высокого разрешения.

Это замечательные методы (за один из них Нобелевскую премию дали в 14-ом году), но у них есть один общий недостаток: они требуют активного взаимодействия с объектом. То есть надо иметь к нему реальный физический доступ. А здорово было бы изобрести такой метод, который преодолевает дифракционный предел, просто пассивно анализируя свет, приходящий от объекта.

Но ведь Рэлей еще двести лет назад доказал, что это невозможно.

Дифракционный предел доказан для случая, когда мы измеряем интенсивность поля в каждой точке плоскости изображения. Это стандартный метод, никто никогда даже особо и не задумывался, что можно мерить как-то по-другому. Но пять лет назад молодой теоретик Манькэй Цан (Mankei Tsang) предложил идею, что, оказывается, можно извлечь дополнительную информацию об объекте, если измерять пространственные корреляции электромагнитных волн, то есть смотреть не только на модули напряженностей, но еще и на фазы разных точек друг относительно друга. То есть мы говорим: давайте измерять не интенсивность, а какую-то совершенно другую вещь. Может быть, тогда дифракционный предел окажется неприменим.

И он действительно оказывается неприменим?

На самом деле пока неясно. Манькэй Цан показал, что это так для каких-то простых случаев. Допустим, у нас есть две далекие звезды внутри дифракционного предела, то есть неразличимые обычным телескопом. Оказывается, этим методом расстояние между ними можно измерить гораздо более точно. А как это работает для каких-то более сложных объектов, то есть при реальном получении изображения — это пока науке неизвестно, она пока разбирается в этом. А мы решили теоретически не разбираться, а просто сделать эксперимент.

В эксперименте, который провела группа Александра Львовского, единственный источник света — лазер с длиной волны 785 нанометров. Сгенерированный пучок света разделяется надвое: одна половина идет на исследуемый объект, а вторая — на пространственный модулятор света, в котором создается нужная поперечная мода местного осциллятора. После этого два сигнала интерферируют на гетеродинном детекторе.

А как в эксперименте можно измерить корреляцию напряженности между разными точками?

Измерить фазу электромагнитной волны действительно непросто, ведь волна осциллирует с частотой в сотни терагерц — никакая электроника за этим не угонится. Поэтому мы используем

. То есть мы смотрим на интерференцию света, приходящего от объекта, со специально приготовленным лазерным лучом, который называется опорным пучком, или местным осциллятором. Интерференция — явление, чувствительное к фазе, поэтому позволяет «отлавливать» нужные нам корреляции. В нашем эксперименте опорные пучки — это эрмит-гауссовы моды, а выходной фототок балансного гетеродинного детектора пропорционален видности интерференционной картины, то есть тому сигналу, который нам нужен.

Поперечное распределение интенсивности электромагнитного поля в пучке света можно описать какой-то функцией: например, в гауссовом пучке это будет гауссиана. Но иногда, чтобы описать распределение, используют не одну функцию, а представляют его в виде комбинации нескольких функций — поперечных мод. Для когерентного лазерного пучка, например, удобно раскладывать функцию двумерного распределения интенсивности по ортогональному базису Эрмита-Гаусса. На эрмит-гауссовы моды можно разложить любое изображение, оценить вклад каждой из них и при необходимости собрать потом обратно.

А как это помогает повысить разрешение?

Допустим, наш местный осциллятор — в эрмит-гауссовой моде (1,0). Это самая первая нетривиальная мода, состоящая из двух лучей с противоположной фазой. То есть интенсивность одинаковая, а напряженность противоположная.

Если звезда находится на оптической оси, то мода, которая приходит от звезды, симметричная. А мода (1,0) — антисимметричная. Тогда моды сигнала и местного осциллятора ортогональны, поэтому видность интерференции между ними (а значит, и выходной фототок гетеродинного детектора) равна нулю.

А если мы эту звезду с оптической оси чуть-чуть сдвинем, тогда уже мода будет оптически несимметричной, и, соответственно, мы увидим какой-то сигнал. Точно так же с двумя звездами: даже если они рядом, одна из них все равно будет не на оси, и они в любом случае будут давать какой-то сигнал. Измерив его, можно узнать расстояние между звездами, даже если оно меньше дифракционного предела.

Манькэй Цан показал это в 2016 году теоретически, и следом за этим сразу несколько научных групп, в том числе и наша, подтвердили это экспериментально. Мы измерили расстояние между двумя щелями с точностью в пятьдесят раз выше дифракционного предела.

Но ведь измерить расстояние — это не то же самое, что получить изображение.

Вы правы. Мы тоже над этим задумались. И в той же статье 2016 года показали теоретически, что изображения таким способом тоже можно получать. Но для этого нам надо измерять с местным осциллятором не только в моде (1,0), а в большем количестве мод. У нас сложный объект, нужно получить много информации о нем. Сигнал в каждой из мод приблизительно равен соответствующему моменту распределения поля источника.

Момент распределения поля интенсивности n-го порядка — фактически математическое ожидание величины интенсивности в степени n. В данном случае момент распределения порядка (m,n) соответствует моде (m,n), и эти значения можно использовать для получения полного изображения.

Если мы знаем все моменты, то из них мы можем восстановить само распределение. В реальности, конечно, все-все моменты мы измерить не можем, потому что число измерений конечно. Но чем больше мод используем, тем выше разрешение. Например, если у нас двадцать мод в каждом из измерений, то разрешение можно улучшить где-то в три раза.

И сейчас вы эту идею реализовали экспериментально?

Да. Теоретическая идея была опубликована в 2016 году, а сейчас, благодаря самоотверженному труду Насти Пушкиной (выпускницы Физтеха, кстати) и еще ряда молодых ребят, мы получили экспериментальное подтверждение.

И на этом, в общем-то, все?

Концептуально — все. А экспериментально... Во-первых, мы экспериментально еще никакой микроскоп не сделали. У нас такой игрушечный микроскоп с макроскопическим объектом, чтобы продемонстрировать, что концепция работает в принципе. Мы искусственно сужаем нашу апертуру, чтобы создать дифракционное препятствие. Чтобы даже этот макроскопический объект было трудно восстановить обычным методом.

А каковы реальные размеры самого объекта, который вы исследуете, и апертуры?

Размер объекта — миллиметры. А апертура меньше, чем одна тысячная. Для сравнения, апертура хорошего объектива микроскопа — где-то единица, а размер объекта — микроны.

Наш объект — это логотип нашего университета. Мы его изображали по секциям с помощью прибора, который называется DMD, digital micromirror device. Знаете, в старину на вокзалах и в аэропортах расписание рейсов показывали на таких табло, состоящих из кружочков, которые механически переворачивались: одна сторона светлая, другая темная. Вот DMD — похожий прибор, только пиксели у него гораздо меньше: несколько микрон.

Для каждой секции объекта мы делали гетеродинные измерения. Моды местного осциллятора приготавливались с помощью другого оптического модулятора, который называется SLM, spatial light modulator. Четыреста мод: двадцать в одном измерении и двадцать в другом.

И вы их просто перебирали одну за другой?

Да, перебирали моды и мерили фототок. Этот эксперимент длится довольно долго. Точнее, само измерение длится несколько минут. Но перед ним нам еще нужна обучающая выборка.

Машинное обучение вместо формул

И тут мы переходим к машинному обучению, которое вы еще не упоминали. Зачем оно здесь?

В нашей теоретической работе мы вывели формулу, которая позволяет реконструировать объект из множества измеренных фототоков. Но этот вывод сделан в предположении, что нет никаких аберраций, пыли, диафрагма — гауссова, моды местного осциллятора тоже идеальные, все идеально. А на практике этим, конечно, даже и не пахнет.

И насколько сильно реальная ситуация отличается от идеального случая? Насколько далеко мы от того, чтобы использовать эту формулу?

Точность (fidelity) приготовления мод местного осциллятора у нас не ниже 95 процентов. Но для применения нашего оригинального метода этого мало, потому что моды низких порядков дают сигнал на несколько порядков величины выше, чем моды высоких порядков. То есть если сигнал от моды (0,0) будет отличаться на 5 процентов от теоретического, то сигнал от моды (20,20) окажется совершенно бесполезен.

Чтобы не заморачиваться с достижением идеальной ситуации, мы используем нейронную сеть. На вход сети подаются фототоки для каждой из мод, а на выходе должно быть восстановленное изображение объекта. Для того, чтобы обучить наш «микроскоп», мы показываем ему десятки тысяч образцов известной формы и измеряем фототоки в четырехстах модах. В обученную таким образом сеть можно ввести фототоки от неизвестного объекта, и она восстановит изображение этого объекта.

Результаты говорят сами за себя. Разрешение удалось увеличить примерно в два раза.

То есть мы и дифракционный предел преодолеваем в два раза?

Как я говорил, в нашей установке мы его нарочно ухудшили. Но этот искусственно ухудшенный дифракционный предел мы действительно превосходим в два раза.

Границы применимости метода

Пока вы показали на одном примере, что разложение на поперечные моды можно использовать для конкретного макроскопического случая с конкретным источником света. Можно ли как-то оценить, насколько хорошо этот метод будет работать для других объектов, других длин волн или другой интенсивности излучения?

Наша цель на ближайшие несколько лет — добиться применимости этого метода в практической микроскопии. Понятно, что та игрушка, которую мы сейчас построили, для этого не годится. На практике нужно, во-первых, научиться работать с реальными микроскопическими объектами и объективами. То есть никакой DMD уже не подойдет. Понадобится микроскопический образец со сложной, но заранее известной формой. Двигая и поворачивая образец перед нашим объективом, мы получим множество наборов фототоков, которые можно использовать в качестве обучающей выборки.

Вторая проблема в том, что наш эксперимент сделан с когерентным светом. А реальные микроскопические образцы, как правило, некогерентны. Но с этой проблемой мы вроде бы уже разобрались, и в ближайшее время эти результаты опубликуем.

А каким образом вам удалось решить проблему некогерентности?

В том эксперименте, который опубликован, мы демонстрировали на экране DMD сразу всю секцию объекта. А в той работе, которую мы делаем сейчас, мы ее показываем пиксель за пикселем и суммируем квадраты модулей фототоков — это получается эквивалентно некогерентному объекту.

И самая противная задача — это следующая. Как я говорил, мы используем гетеродинирование для измерения сигнала в каждой моде. А гетеродиннный детектор работает, только когда сигнал и местный осциллятор очень близки по частоте — в пределах единиц гигагерц. На практике же сигнал во флуоресцентной микроскопии гораздо более широкополосный — десятки нанометров. Поэтому нам потребуется принципиально другой способ измерения сигнала в каждой эрмит-гауссовой моде.

У вас есть идеи, как этого добиться?

Да, есть методы «сортировки» приходящего оптического сигнала на каналы, каждый из которых содержит свою эрмит-гауссову моду. Есть даже фирмы-стартапы, которые продают соответствующие приборы. Но эта технология пока в процессе зарождения, и нам нужно будет ее улучшить. Плюс приспособить к нашему микроскопу, к нашим нейронным сетям.

Там наверняка будет много подводных камней — потребуется пара лет. Еще одна диссертация. Кстати, мы сейчас как раз ищем аспиранта для этой работы — пишите нам, если интересно.

Ну хорошо, допустим, вы сделаете микроскоп. Чем он будет лучше по сравнению с ближнепольными микроскопами или какими-нибудь нелинейными методами?

Мы не должны дотрагиваться до объекта для того, чтобы увеличить разрешение. В этом смысле наш метод гораздо более универсален.

То есть основное преимущество — именно в том, что вы можете это делать на расстоянии из-за того, что работаете в дальнем поле?

Вообще без взаимодействия с объектом. Наш метод может оказаться полезен, например, для исследования звезд, для дистанционных измерений (remote sensing), в военном деле, для фотографии. В принципе, он может произвести революцию вообще во всей науке и технологии получения оптических изображений.

Получается, с точки зрения науки такой подход перспективен скорее для астрономических наблюдений? Или для микроскопии — тоже?

Я думаю, что и для того, и для другого. В микроскопии тоже есть много «хрупких» объектов, которые не приспособлены ни для ближнего поля, ни для нелинейной микроскопии, но к которым может подойти наш метод.

А от длины волны применимость метода как-то зависит? Теоретически ведь такой подход работает не только для видимого света?

Длина волны вообще нерелевантна.

То есть можно собрать такую же схему, например, на рентгеновском излучении?

Фундаментальных ограничений нет, но понятно, что сортировать моды на рентгене никакого удовольствия не доставит: для рентгена нет пространственных модуляторов света.

В начале разговора я спросил, преодолевает ли метод Манькэя Цана дифракционный предел. Вы ответили, что пока непонятно, но разве ваш эксперимент не говорит, что преодолевает?

Нет, тут дело тонкое. Теория Манькэя Цана учитывает интенсивность приходящего сигнала: чем больше фотонов, тем более точно можно восстановить объект. В наших же работах — и теоретической, и экспериментальной, — интенсивность света настолько высока, что можно пренебречь дробовым шумом, возникающим из-за дискретной природы света.

А какое вообще минимальное число фотонов требуется, чтобы получить изображение таким методом? И не наткнемся ли мы в какой-то момент на новый дифракционный предел, уже квантовый?

Это не качественный вопрос, а количественный. То есть нет такого, что при 100 фотонах картинка получится, а при 99 — нет. Чем больше фотонов — тем лучше картинка, причем это верно и для нашей эрмит-гауссовой микроскопии, и для стандартного метода.

Квантовый дифракционный предел существует, то есть можно предсказать точно, какого разрешения в принципе можно добиться при заданном числе фотонов. И для каждого конкретного метода измерения можно рассчитать, насколько он близок к этому пределу. Наш метод, основанный на идее Манькэя Цана, оказывается ближе к квантово-оптимальному, чем классический.

Насколько ближе?

Это зависит от конкретной задачи, от тех параметров изображения, которые нам нужно получить. Тут как раз начинаются те теоретические трудности, о которых я говорил в начале. К счастью, мы экспериментаторы — чтобы сделать интересную работу, нам не обязательно знать ответы на все вопросы.

Беседовал Александр Дубов

Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.
Физики впервые увидели распад бозона Хиггса на Z-бозон и фотон

Редкий процесс рассмотрели в совместном массиве данных экспериментов CMS и ATLAS