Физики из США и Швейцарии научили нейросеть считать функциональные интегралы и проверили ее работу на 1+1-мерной модели Тирринга. Таким образом им удалось добиться ускорения расчетов почти на порядок по сравнению со стандартными методами. Препринт работы опубликован на сайте arXiv.org.
Функциональный интеграл был популяризован Ричардом Фейнманом в 40-х годах прошлого века. Грубо говоря, для вычисления интеграла от некоторого функционала нужно просуммировать значения этого функционала на всех возможных траекториях. Например, это можно сделать, переходя к решеточному приближению, сводя функциональный интеграл к обычному N-кратному и вычисляя предел при N, стремящемся к бесконечности. Математически корректное определение фейнмановского интеграла до сих пор не было дано, и в некоторых случаях разные приближения приводят к разным результатам. Тем не менее, формализм функционального интеграла активно используется в квантовой теории поля, например, для вычисления корреляторов (функций Грина) и сечений рассеяния при столкновениях частиц.
К сожалению, во многих системах, представляющих большой интерес (например, модель Хаббарда), возникают такие интегралы по траекториям, в которых подынтегральное выражение быстро колеблется, что сильно мешает их прямому вычислению. Эта ситуация называется «проблемой знака» (sign problem). Существуют разные способы обойти проблему. Например, в последнее время приобрел популярность наперсточный подход (thimble approach). Его суть заключается в том, чтобы свести интеграл от действительных полей к интегралу на некотором многообразии, вложенном в пространство комплексных полей, так чтобы значение интеграла не изменялось, а вычисления упрощались. Наперстками называются циклы, по которым в результате производится интегрирование в комплексном пространстве.
В своей работе физики разработали следующий подход к вычислению функциональных интегралов. Сначала они построили некое вспомогательное многообразие (Learnifold), на котором проще производить вычисления, но которое в то же время хорошо приближает исходное многообразие. Хорошо в том смысле, что значения функциональных интегралов совпадают в обоих случаях. Затем ученые сгенерировали обучающую выборку с помощью потокового алгоритма (flow-based algorythm), и тренировали на ней нейросеть, заставляя ее минимизировать расстояние между рассчитанными и известными значениями. Всего в сети было три уровня и десять узлов, а все связи были направлены строго от входных нейронов к выходным (сеть прямого распространения). Наконец, прогоняя через обученную сеть нужные данные и используя алгоритм Метрополиса-Гастингса, физики находили значения эффективного действия и определенных корреляторов.
Обучение и работу нейросети ученые проводили для 1+1-мерной модели Тирринга. В этой модели возникает «проблема знака», но ее можно избежать, конструируя вспомогательное многообразие специальным образом. Чтобы проверить работу нового метода, физики повторили результаты другой своей статьи и вычислили определенный коррелятор (average sign) и значения фермионной плотности на сетках размером 10 на 10, 20 на 10 и 40 на 10. Обезразмеривание производилось домножением массы на характерный параметр длины решетки. В целом результаты, полученные в старой и новой статье, совпали, это можно увидеть на графиках.
Также физики сравнили скорость вычислений на сетке 20 на 10 с помощью нейросети и метода, который они использовали в более ранней работе. Всего на расчеты с нейросетью ушло 254 часа машинного времени: 90 на создание обучающей выборки, 24 на обучение и 140 на собственно расчеты. Те же самые расчеты, выполненные напрямую, по словам авторов, заняли бы 4100 часов машинного времени. Таким образом, ученые получили выигрыш во времени больше, чем на порядок.
Нейросети все более активно используются в различных сферах жизни. Например, мы писали о сетях, которые сочиняют песни и пишут книги. Также совсем недавно ученые разработали нейросеть, определяющую сексуальную ориентацию человека по его фотографии.
Дмитрий Трунин