Исследователи из лаборатории Google Brain в ходе обучения системы искусственного интеллекта пониманию человеческой речи научили ее создавать подобие поэзии. Работа была представлена на конференции International Conference on Learning Representations.
Сотрудники компании Google пытались научить искусственный интеллект понимать и адаптироваться к живой человеческой речи, используемой в повседневной жизни. Лингвисты и программисты использовали для обучения нейросети 11 тысяч еще не опубликованных книг, включая 3 тысячи любовных и 1,5 тысячи фантастических романов. Затем исследователи давали программе два предложения из книги и она должна была сгенерировать предложения, которые могли бы выступать в качестве смысловой связи между ними.
Например, ученые могли попросить систему создать 13 предложений, которые помогли бы осмысленно перейти от предложения «я в порядке» до «вы должны поговорить со мной сейчас». Каждое предложение должно было быть связано с предыдущим и последующим предложением по смыслу, чтобы осуществлять плавный переход, а также быть корректным с точки зрения грамматики и синтаксиса.
Смысл такого подхода заключается в том, чтобы научить искусственный интеллект имитировать разнообразие человеческой речи. Например, вместо того, чтобы учить его идеальному произношению одного предложения, специалисты пытаются сделать речь компьютера максимально естественной.
Главная цель проекта заключается в том, чтобы создать систему, которая может самостоятельно генерировать разнообразные предложения. Однако побочный продукт процесса обучения чем-то напоминает отрывки из стихотворений или тексты песен.
Стоит ли доверить языковым моделям рецензирование научных статей?
Мнение редакции может не совпадать с мнением автора
Большие языковые модели (LLM) все чаще используют, чтобы писать статьи и рецензии. Это тревожит ученых. Например, в марте 2025 года материал, посвященный этой теме, вышел в журнале Nature. Казалось бы, кто как не ученые должны ратовать за прогресс. Однако у них есть весомые поводы для беспокойства: LLM склонны к галлюцинациям и пока не способны понимать заложенные в них знания, а повальное делегирование академической работы искусственному интеллекту создает риски для всей системы научного знания.