Яндекс представил и опубликовал языковую модель YaLM со 100 миллиардами параметров — крупнейшую среди русскоязычных и вообще крупнейшую в мире среди публично доступных. Подробнее о том, как работают такие модели и как обучали YaLM, мы рассказали в заметке. В прошлый раз компания опубликовала демо-версию, в которой любой желающий мог поговорить с алгоритмом (но гораздо меньшим по количеству параметров). В этот раз Яндекс решил обойтись без демо-версии, но мы все же смогли проверить работу нейросети, задав ей свои вопросы.
Мы общались с алгоритмом не напрямую, а через пресс-службу Яндекса. Полученные ответы не проходили отбор, утверждает представитель компании.
Для начала мы поговорили с YaLM о классических парадоксах и просто о вещах, требующих здравого смысла:
Также мы проверили, как алгоритм разбирается в массовой (и не очень) культуре и считывает ли отсылки к ней:
Оказалось, что хоть YaLM и «росла» в Москве, «Жадина-говядина» у нее такая же, как и у большинства россиян за пределами столицы — подробнее об этом можно прочитать в нашем большом диалектологическом исследовании.
И, конечно, как научно-популярное издание мы не могли не поговорить с нейросетью о науке и научпопе: