Оксана Мороз

Культуролог

Убей в себе SkyNet

Нейросети ворвались в нашу жизнь относительно недавно и наряду с новыми возможностями породили немало новых проблем. В частности, оказалось, что нейросети могут быть мощным оружием в руках злоумышлеников или просто интернет-троллей. С вопросом о том, что с этим делать, как к этому относиться и какие новые этические вопросы это перед нами ставит, мы обратились к культурологу, доценту РАНХиГС и МВШСЭН Оксане Мороз.

Новости про нейросети выглядят как фиксация победы искусственного интеллекта. Эти сообщения можно расценивать как свидетельства успеха науки в вопросе искусственного моделирования процессов и действий, характерных для существ человеческой природы. Более того, математические модели и соответствующее программное обеспечение уже могут совершать действия, превосходящие возможности среднестатистического человека: рисовать, создавать электронную музыку, писать сценарии и т.д.

Однако одновременно функционирование нейросетей рассматривается как целая совокупность угроз: поскольку нейронные сети не программируются, а обучаются, контролировать их «креативные способности» довольно сложно. И, не всегда отчетливо видя, как система проводит приоритизацию задач и принимает решения, люди нередко всерьез опасаются результатов подобного конструктивного отношения машинного разума к человеку и его миру.

Пока кибероптимисты дискутируют со скептиками и пессимистами, так ли уж утилитарно полезна и безопасна работа над искусственным интеллектом и нейросетями, стоит задуматься: а насколько этот спор феноменологически нов? Наверняка каждое новое инженерное решение, совершавшееся в процессе цифровой революции, вызывало дискуссии между своего рода луддитами и поборниками технического прогресса. Так почему сегодня появление самосовершенствующихся нейросетей, наследующих кибернетическим моделям мозга, провоцирует жаркие дебаты? И что так пугает и восхищает разработчиков, готовых публично расписываться в собственной некомпетентности и рассказывать чуть ли не о восстании машин?

Кажется, этому можно найти несколько объяснений.

Во-первых, оглядываясь на активность собственных изобретений, человечество как будто в кривом зеркале видит себя, свою сущность. Мы научаем алгоритмы выполнять простейшие задания, помогать нам в управлении средой и взаимодействии с другими людьми, а на выходе получаем кибернетических расистов, садистов и троллей — и скорее всего именно потому, что машины повторяют за своими создателями.

Вроде бы искусственный интеллект должен наследовать «человеческое, слишком человеческое», то есть специфичную для людей систему взглядов и поведенческих паттернов, сценариев разрешения этических дилемм. А она в современном — по-прежнему во многом европоцентричном мире — кажется выстроенной на принципах инклюзивной культуры уважения, борьбы за права и достоинство. Однако нейросети — эти то ли имитации, то ли относительно примитивные слепки человеческого мышления — ведут себя часто весьма негуманно: оказываются склонны к насилию разного рода, не гнушаются издевательствами.

Видимо, это значит, что и хваленый человеческий гуманизм — выдумка, тонкая амальгама культурных значений, придуманных человечеством для самоуспокоения. Мало того, что «гуманность» и «этичность» как работающие категории и предпосылки принятия решений не могут быть рационально описаны и представлены нейросети. Они, судя по результатам машинного обучения, еще и статистическая редкость.

Во-вторых, нейросети выглядят ожившим пророчеством научной фантастики. Машины, которые могут думать, выносить собственные решения по ряду вопросов, даже «диагностировать» какие-то потенциально опасные для абстрактного мира качества человека — абсолютное воплощение известных фантастических историй. Их сюжеты обычно апокалиптичны, поэтому заканчиваются тотальной войной между несовершенными людьми и железками. Или, кстати, порабощением человечества холодным искусственным интеллектом.

Очевидно, что многие из инженерных решений современные дизайнеры и разработчики действительно почерпнули в любимых ими книгах и фильмах в духе киберпанка (а те, в свою очередь, из философии), так что типологическое сходство некоторых современных систем и SkyNet — не такой уж сюрприз. И даже забавно, что sci-fi о цифровых технологиях не превратился в палеофутурологию — морально устаревшие повествования о будущем, безответственно порождаемые ничего о нем не знающим прошлым. А даже наоборот — судя по всему, надолго запрограммировал развитие технологий.

В общем, люди любят рассказывать друг другу страшные истории. Просто теперь этот жанр несколько перерос границы художественного повествования, поэтому его можно встретить на серьезных профессиональных конференциях. И угадывать знакомые интонационные нотки в комментариях разработчиков, которые вовсе не хотели создавать нейросети-злодеев, но с ужасом наблюдают, как математическая логика оказывается тождественна жестокости. И нелояльна к отклонениям от системы — в коих во многом и заключается суть человеческого существования.

Нейросети пугают и восхищают, потому что люди склонны переоценивать свои достижения и, соответственно, видеть в существующих алгоритмах действительные и действенные аналоги собственного сознания. Конечно, нейросети умеют всякое, но их антропологизация, заявление о том, что они осознанно совершают некие действия деструктивного характера, — большое преувеличение. Гораздо важнее задаться вопросом, а что такое вообще этика, этичность поступка в мире, где все большую субъектность обретают машины, а люди все чаще отстаивают право на свободное от всяческих ограничений и предустановленных культурных норм поведение.

Возможно, мы оказались в точке бифуркации, и нам надо сделать выбор — либо в пользу долгих обсуждений этических парадоксов, которое смогут породить гибкую систему социальных компромиссов, либо в пользу торжества строгой математической логики. И на первый взгляд кажется, что современное состояние Буриданова осла мы все-таки сможем сменить на симбиотическую систему взаимно полезного пользования разными системами принятия решений и их оценки.

Ранее в этом блоге

Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.