Зачем нужны космологические симуляции и что они могут рассказать о Вселенной
Главной задачей астрофизики, по большому счету, является попытка описать мир вокруг нас на языке математики. Иметь такое описание — значит уметь предсказать его состояние в любой момент времени. Кеплер, описавший движения планет с помощью своих трех законов, дал нам возможность в любую секунду узнать, где сейчас находится Юпитер, Земля или любая планета во Вселенной, если нам известны некие исходные данные. Ту же самую задачу, но уже в масштабах всей Вселенной, ставят перед собой создатели космологических симуляций.
У этого подхода (до сих пор единственного, доступного человечеству) есть два недостатка: во-первых, каждый закон работает только в каком-то приближении. Так, законы Кеплера являются частным случаем закона тяготения Ньютона, который является частным случаем Общей теории относительности Эйнштейна, которая обобщается еще более всеобъемлющей, но пока неоткрытой теорией. А во-вторых, все физические законы работают одновременно, поэтому даже применяя ОТО мы не получим точную траекторию Земли, если не будем учитывать давление солнечного света, влияния магнитных полей, влияние метеоритов, пыли, темной материи и так далее.
Таким образом, полностью описать состояние какого-либо тела или явления математически можно, но это будет набор уравнений из всех областей физики, которые еще надо свести друг с другом. А если таких тел много и они все взаимодействуют друг с другом? И это еще мы не учитываем тот факт, что мы понимаем физику только 4 процентов материи Вселенной, в то время как оставшиеся 96 процентов (темная материя и темная энергия) влияют на нас, но до конца не изучены и их состав мы не понимаем.
Как же в таком случае понять, как изначально однородная и довольно однообразная по составу Вселенная превратилось в такое интересное место для жизни? Наблюдения в телескопы помогают проникать в тайны Вселенной, но ограничения тут такие же как и в стриптиз-баре: «смотреть можно, трогать нельзя», мы видим звезды и галактики только так, как они позволяют нам рассмотреть их. Ни повернуть, ни приблизить, ни искусственно столкнуть их мы не можем. Работы астрофизиков-теоретиков, конечно, помогают добавить несколько кусочков в очень фрагментированный паззл под названием «что мы знаем о Вселенной», но их предсказания бывает трудно проверить. Особенно это касается космологов, разбирающихся с первыми мгновениями жизни Вселенной. А зачастую одновременно сосуществуют несколько теорий, по разному объясняющих одни и те же наблюдательные явления, так что ситуация становиться только более запутанной.
Насколько же удобнее было бы иметь всю Вселенную на компьютере, чтобы ее можно было повернуть удобным нам боком, рассмотреть в деталях, остановить время или отмотать его на несколько миллиардов лет назад и заново посмотреть этот захватывающий ролик! Именно тут нам нужны симуляции.
Космологическая симуляция — это программа, которой задается начальное состояние некоторого количества частиц и законы их поведения. После этого она предоставляется сама себе и рассчитывает свойства и взаимодействие этих частиц во времени (каждая частица может быть звездой, галактикой, участком темной материи конкретной массы или просто неким объемом Вселенной ограниченного размера). Космологические симуляции сейчас — это не просто способ получения красивых роликов. Это еще один из способов познания Вселенной. По результатам подобных вычислений пишутся научные статьи и защищаются диссертации. И если предсказания симуляций вдруг не сходятся с результатами наблюдений, то, — как это ни парадоксально на первый взгляд, — это не всегда указывает на ошибки в программе. Зачастую это становится веской причиной пересмотреть существующую интерпретацию наблюдений.
Попытки моделировать физические системы на компьютере начались практически одновременно с появлением компьютеров (расчет прочности моста или подъемной силы крыла самолете, например, это тоже своего рода симуляция). Да и все мы, кто на уроках информатики писали простую программу по движению упругих тел в замкнутой системе, фактически, делали простейшую космологическую симуляцию. Однако, качественный скачок в сложности подобных программ случился в конце XX века, когда вычислительные мощности компьютеров позволили одновременно просчитывать свойства (положение, импульс и массу) частиц, описываемых более сложными законами, чем просто упругое соударение.
Одним из первых подобных кодов стал GADGET, который запустили в 2000 году. Суть физической модели GADGET, которая сейчас de facto является стандартом — это представление Вселенной в виде участков темной материи, которая ведет себя как нерелятивистская жидкость. Это означает, что ее частицы не сталкиваются, а проходят сквозь друг друга. И описывается Вселенная в этой модели, соответственно, уравнениями гидродинамики.
Сейчас GADGET-2, обновленная версия кода, находится в свободном доступе и его может скачать и установить любой желающий. При достаточной производительности машины можно получить вот такую реализацию крупномасштабной структуры Вселенной.
Большим событием стала публикация в 2005 году результатов проекта Millennium, который использует модифицированную версию кода GADGET. Признанием успеха симуляции можно назвать более 2400 научных статей, которые опираются на ее данные. Однако, для исходной физической модели проекта использовались предварительные данные космической миссии WMAP, которая изучала реликтовое излучение Большого взрыва. И несмотря на огромный масштаб проделанной работы (10 миллиардов частиц взаимодействовали в кубе с ребром порядка двух миллиардов лет) после уточнения основных космологических параметров миссией «Планка» часть результатов Millenium'а сразу устарели. Так что по мере совершенствования кода симуляцию запускали несколько раз, в 2005, 2009 и 2010 годах. А каждый запуск — это месяц непрерывной работы суперкомпьютера, установленного в вычислительном центре Общества Макса Планка в городе Гершинг, Германия.
Одним из наиболее значимых результатов проекта можно назвать воспроизведение сверхмассивных черных дыр в очень ярких квазарах на больших красных смещениях. Подобные массивные объекты были обнаружены Слоановским обзором неба незадолго до запуска симуляции и вызвали большие споры у астрофизиков. Космологические модели того времени не предусматривали у сверхмассивных черных дар такого быстрого набора масса. Может, это неправильная обработка изображений? Может, мы ошибочно определяем расстояния до объектов и эти квазары намного ближе? Завершившаяся симуляция доказала, что такие объекты действительно могут образоваться очень быстро, а значит мощные квазары на красных смещениях z=6, 7, 8 — это реальность.
Почему так важны результаты WMAP и его преемника, космической обсерватории «Планк»? Дело в том, что симуляции нового поколения учитывают эволюцию галактик не в вакууме, а в расширяющейся Вселенной, где такие величины как постоянная Хаббла, соотношение барионной и темной материи, плотность нейтрино, геометрия Вселенной играют определяющую роль. И именно WMAP, который измерил распределение температуры реликтового фона Вселенной, уточнил эти фундаментальные величины.
Новые данные WMAP, полученные по результатам семи лет работы космического аппарата, легли в основу другого проекта, Bolshoi Cosmological Simulation. Именно «Большой», название, наверняка, подсказал Анатолий Клюпин, известный астрофизик, один из участников проекта. Физическая модель проекта Bolshoi предполагает расчет статистического ансамбля 8,6 миллиардов частиц темной материи, каждая эквивалентна 200 миллионам масс Солнца. Объем пространства, в котором эти частицы взаимодействуют друг с другом, равен кубу с длиной ребра в один миллиард световых лет.
Проект, фактически, воспроизводит эволюцию части Вселенной. Первые несколько миллионов лет после Большого взрыва можно рассчитать аналитически и именно эти данные являются входными параметрами для начала симуляции. Bolshoi начинает симуляцию с красного смещения z=80, что соответствует всего 20 миллионам лет после Большого взрыва, и дальше без вмешательства ученых самостоятельно творит историю Вселенной.
Каждая космологическая симуляция это программный код, который теоретически может быть запущен на любом компьютере. Часть симуляций выложена в открытый доступ, но такие как Millenium или Illustris все еще находятся в собственности их авторов и они сами решают, на каких машинах их запускать. Для получения научно-значимых результатов симуляцию надо запускать на суперкопьютере, поэтому еще во время написания программы научные группы договариваются, где она будет работать. Так, например, для симуляции Bolshoi выделили суперкомпьютер Плеяды, принадлежащий NASA. А симуляцию Illustris запускали несколько раз на суперкомпьютерах Франции, Германии и США, и при наибольшей производительности 8192 ядра суммарно обрабатывали код 19 миллионов часов. То есть обычному компьютеру потребовалось бы больше 2000 лет для этого.
Необходимо добавить, что с математической точки зрения подобные проекты — это передний край численного моделирования в астрономии. Вообще, любое компьютерное моделирование предполагает перевод физических законов из непрерывной формы дифференциальных уравнений в разностную форму, подходящую для вычислений. При этом даже визуально симуляция начинает сильно отличаться от того простого примера с шариками, что мы привели вначале. В современных моделях каждая частица — это уже не шарик, а ячейка (mesh) определенной плотности, которая в зависимости от условий может делиться или объединяться с соседями. Подобный подход называется адаптивным измельчением расчетной сетки и позволяет менять детализацию вычислений в зависимости от плотности вещества. То есть если в процессе работы симуляции в какой-то области вещества почти нет (пространство между скоплениями галактик, называемое пустотами или войдами), то размеры ячейки увеличиваются и компьютер тратит мало времени на ее расчет. В то время как в центре галактики, где происходят самые интересные процессы, ячейки делятся на несколько ячеек поменьше, позволяя более точно рассчитать температуру, плотность и динамику частиц.
Все симуляции, описанные выше, в основе своей имеют принцип Dark Matter only, то есть Вселенная в их представлении состоит только из участков темной матери большей или меньшей плотности, но нет ни протонов, ни нейтронов, ни электронов. На первый взгляд, это кажется слишком нереалистичным допущением, но на самом деле оно вполне оправдано. Дело в том, что темной материи во Вселенной в пять раз больше, чем всей барионной (привычных нам звезд, планет, черных дыр, людей и комаров), и именно темная материя определяла развитие нашей Вселенной во время формирования большинства галактик.
Современная космология выделяет три основных эпохи Вселенной:
Эпоха доминирования излучения в первые 47 тысяч лет после Большого взрыва, когда температура была настолько высока, что именно электромагнитное излучение, а не гравитация или что-либо еще определяло, с какой скоростью расширяется Вселенная и как именно ведут себя частицы.
Эпоха доминирования вещества — самая длительная по времени, началась сразу после эпохи радиации и закончилась через 9.8 миллиарда лет. В это время Вселенная остыла и гравитационное влияние материи (в основном темной) начало основной вклад в процессы, происходящие во Вселенной (и да, ее расширение в это время замедлялось!)
Последней эпохой, в которую довелось жить нам и которая по современным моделям космологов никогда не кончится, называется эпохой доминирования темной энергии. Именно эта загадочная энергия, котоую можно охарактеризовать как нечто, имеющее отрицательное давление, привело к тому, что расширение Вселенной снова стало ускоренным, и скопления галактик стали удаляться друг от друга.
Обычно в подобных симуляциях галактики и их скопления добавляют в получившуюся модель Вселенной уже после окончания расчетов — для этого используют известные из наблюдений соотношения между массой гало темной материи и массой галактики, которая должна там находиться. Но такой подход, конечно, способен вносить дополнительные ошибки и не может, конечно, полностью удовлетворить астрофизиков. Поэтому довольно долго ученые пытались создать космологическую симуляцию, в которой одновременно просчитывались бы не только темная материя, но и барионная. А если в такую модель добавить еще и химические процессы в галактиках, и магнитные поля, и распределение газа и вообще все на свете, было бы совсем хорошо.
Важнейшим шагом в этом направлении стала симуляция Illustris. Физическая модель, заложенная в нее, позволяет воспроизводить такие астрофизические процессы, которые не были реализованы нигде раньше:
Симуляция начинается с момента, когда прошло всего 11 миллионов лет после Большого взрыва. Использование модернизированного метода адаптивного измельчения сетки с помощью диаграмм Вороного позволило смоделировать поведение 6 миллиардов гидродинамических ячеек, занимающих куб с ребром порядка 347 миллионов световых лет.
Отдельно надо добавить, что проект Illustris стал первым, в котором реализована возможность получить результат вычислений в таком же виде, в каком астрономы-наблюдатели получают свои снимки ночного неба. Это большой шаг вперед, потому что попытки сравнить результаты предыдущих симуляций с наблюдениями неизбежно порождали новые ошибки и допущения. Теперь с этим покончено: Illustris может выдавать снимки, которые астрофизики будут обрабатывать стандартными инструментами, как будто файлы только что получены, например, космическим телескопом «Хаббл».
И к результатам Illustris.
Во-первых, плотность звездообразования в галактиках практически полностью совпадает с данными наблюдений на временном отрезке в 13 миллиардов лет;
Во-вторых, соотношение нейтрального водорода, молекулярных газов и тяжелых элементов в галактиках также совпадает с наблюдательными данными полученными для галактик, удаленных от нас на 8-10 миллиардов световых лет.
В-третьих, распределение галактик по морфологическим признакам (эллиптические, дисковые, лентикулярные и т.д.) не просто совпадает современным состоянием нашего скопления галактика, но и по данными наблюдений на инфракрасных телескопах правдоподобно описывает переход из неправильных в спиральные, затем в эллиптические. Подобная эволюция галактик позволяет объяснить, почему мы видим больше голубых спиральных галактик в прошлом, в то время как сейчас большинство составляют красные эллиптические галактики.
В-четвертых, очень важный результат симуляции Illustris состоит в правильном воспроизведении галактик-спутников. Эти небольшие галактики вращаются вокруг своих более массивных соседей и еще недавно астрономам были почти неизвестны. Скорее всего ряд карликовых галактик-спутников нашего Млечного Пути еще даже не открыт. Тем не менее, эти галактики очень важны для понимания многих процессов: в них другое распределение темной материи, они могут влиять на скорость образования звезд в галактике-матке, они могут (и должны) сталкиваться с ней, приводя к образованию турбулентных потоков газа. Это новая и очень «горячая» тема в астрофизике. И тот факт, что симуляция воспроизвела эти спутники в достаточном количестве, еще раз указывает на достоверность общей физической модели.
В то же время руководители проекта заявляют о некотором несоответствии между результатами Illustris и наблюдательными данными в том, что касается плотности внутренних областей галактик, находящихся далее чем в 8 миллиардах лет от нас, а также в количестве холодного газа в галактиках в современной Вселенной. Это может быть следствием как отдельных огрехов модели, так и того, что детализация расчетов для центральных областей галактик (где активные ядра галактик значимо влияют на распределение газа) оказалось недостаточной.
Тем не менее, в целом современные космологические симуляции стали достаточно совершенными, и они могут самостоятельно воспроизводить в своей виртуальной вселенной структуры, о которых мы пока имеем мало представления (те же галактики-спутники). И результаты этих симуляций могут подтолкнуть астрофизиков к новым неожиданным открытиям. Участники проекта выложили визуализированные результаты симуляции у себя на сайте и там легко можно сравнить, например, распределение темной материи или рентгеновского излучения во Вселенной.
В заключении стоит сказать, что использование компьютерных симуляций не ограничено только космологическими масштабами. Есть программы, которые рассчитывают поведение менее масштабных структур. Одна из них — проект Eris. Это совместная разработка астрофизиков университетов Цюриха и Калифорнии, который может воспроизводить эволюцию галактики наподобие нашей. Это первая симуляция, которая продемонстрировала правдоподобное строение сформировавшейся галактики. В частности, размер балджа у этой галактики был значительно меньше диска (что мы и наблюдаем у Млечного Пути). Результаты симуляции были опубликованы в 2011-м году и программа к удивлению ученых смогла правильно рассчитать распределение темной материи и плотных областей холодного водорода, где рождаются новые звезды. Кроме того, общее количество звезд, скорости их вращения и распределения по всему объему галактики также хорошо совпадали с нашими знаниями о Млечном Пути.
Марат Мусин