Словарь нового веба

Как сегодня говорят про нейросети, мемы и жизнь в интернете

Культура меняется быстро. Позавчера мы смотрели демотиваторы на сайтах, сегодня ждем, когда любимый канал с мемами выложит новую порцию. Вчера мы перестали звонить без разрешения («Наберу?»), сегодня оправдываемся за голосовые сообщения. Рисовали в фотошопе — а теперь скармливаем Midjorney содержание сна. За этой сменой правил, законов и обычаев интернета следят антропологи, культурологи, искусствоведы и социологи. Мы составили краткий словарь новых терминов — и очертили круг вопросов, которые обозначаемые явления вызывают у исследователей. Просто чтобы вы были в курсе и могли без переводчика послушать выступления гостей междисциплинарной конференции о вебе, цифровой среде и интернет-культуре Screenshot_2023, которую провел Музей криптографии. Записи выступлений спикеров и публичных дискуссий, а также видеоролик по итогам конференции можно посмотреть здесь.

Новые явления

Вокруг только и разговоров, что о нейросетях, генерирующих то, что раньше умели создавать только люди: речь, текст, картинки. Какие слова появились для описания явлений, порожденных пришествием новых инструментов на основе нейросетей?

Дипфейк

Дипфейк — это, например, когда Арнольд Шварценеггер играет в комедии Гайдая или Олаф Шольц цитирует Данилу Багрова. Ни губернатор Калифорнии, ни немецкий канцлер никогда ничего подобного не делали, но видео есть, и вполне убедительные. Только наметанный глаз — а в некоторых случаях только разработанные с этой целью программы — отличит настоящие кадры от сгенерированных с помощью нейросетей.

Технология замены фрагментов видео или голоса, в отличие от многих других прорывов, напугала всех и сразу. Дурные последствия ее нерегулируемого использования очевидны. Люди доверяют видео гораздо больше, чем текстам, и не склонны проверять их, поэтому даже опровергнутый дипфейк может сломать репутацию или заставить людей делать то, что они в противном случае делать бы не стали.

Подрывая позиции видео как доказательства, дипфейк лишает человечество одного из важнейших оснований для справедливости. И просвещение здесь не помощник, заметили в 2018 году двое американских юристов Даниэль Ситрон и Роберт Чесни. Чем больше люди знают о возможностях дипфейков, тем менее они склонны доверять любым видео, в том числе и настоящим. Такое недоверие на руку недобросовестным акторам: правда кажется публике недостижимой, а тем, кто нарушает общественные нормы, становится легче уйти от ответственности, просто объявив доказательства своей вины фейками. Эту ситуацию юристы назвали «выгода обманщика» (от англ. liar’s dividend). Всеобщее недоверие к любой информации, которое можно описать ставшей мемом фразой «всей правды мы никогда не узнаем», в итоге выгодно тем, кто распространяет ложь.

AI-изображение

Сгенерированная компьютером картинка, генеративное изображение и просто «нейросеть нарисовала» — мы еще не до конца определились с тем, как называть такие изображения.

Сначала были стилизаторы — программы, способные превратить любое изображение в «картину в стиле Ван Гога». В 2015 году Google представила DeepDream, которая умела в любой горстке пикселей увидеть глаза и почему-то собак. Время от времени появлялись отдельные сервисы, рисующие простенькие дудлы по текстовому описанию (системы Text2Image).

Но настоящий бум случился два года назад, когда Open AI — кстати, название этой компании тоже стоит внести в список важных слов — выпустила DALL-E, нейронную сеть, способную по текстовым описаниям на естественном языке генерировать высококачественные изображения. Открытая для публики на год позже нейросеть Midjourney продолжила тренд на повышение качества картинки, задрав его до небывалых высот.

В связи с развитием генеративных нейросетей принято задавать несколько вопросов. Кого считать автором этих изображений? Искусство ли это? Насколько законно обучать такие нейросети на картинках из интернета? Заменят ли нейросети дизайнеров и художников? И как будет выглядеть следующее поколение таких инструментов? Ответов на эти вопросы пока не знает, кажется, никто.

Промпт

Текстовое описание, по которому AI-инструменты генерируют изображения, называется промптом. И это очень важное слово, потому что скоро написание качественных промптов может стать если не новой профессией, то очень востребованным навыком. Уже сейчас есть люди, которые научились добиваться от нейросетей именно тех картинок, каких требует заказчик. Подробнее о том, как профессионалы работают с генеративными нейросетями, читайте в материале «Совместный сновидческий процесс».

С языковыми моделями тоже нужно уметь говорить так, чтобы с наибольшей вероятностью получать наилучший результат. Это искусство чем-то сродни написанию поисковых запросов лет десять назад, когда поисковики еще не были усилены с помощью машинного обучения. Тогда, чтобы добиться правильных результатов, нужно было написать не «как продать гараж в Балашихе», а «гараж Балашиха продать». Сегодня мощные языковые модели понимают естественный язык и поймут даже «как мне лучше всего продать гараж в Балашихе». Но для наилучших результатов с ними тоже нужно уметь разговаривать. Крупные IT-компании уже размещают объявления о наборе на новые вакансии; кроме промпт-инженера новая должность иногда называется AI-whisperer — буквально «заклинатель ИИ».

Новые виды пользовательского поведения

Люди чего только не делают в интернете. Мы выбрали несколько новых или получивших новую жизнь форм поведения. Первому добавила популярности пандемия, другие два — не самые красивые и этически сомнительные порождения интернет-культуры, которые усиливают позиции по мере развития технологий. А последнее — само по себе не новое — заново обрело популярность с появлением формата коротких видео во всех старых и новых соцсетях.

Думскроллинг

Раньше это называлось «синдромом злого мира»: человек смотрит телевизор, и ему начинает казаться, что мир — гораздо более опасное и ужасное место, чем есть на самом деле. Термин придумал в 1970-е годы американский журналист и активист венгерского происхождения Джордж Гербнер. Психологи справедливо критиковали и сам термин, и стоящую за ним теорию культивации.

Эта теория описывает воздействие телевидения на зрителя и предполагает, что люди, которые смотрят телевизор подолгу, конструируют свою реальность на основе телепередач. Гербнер утверждал, в частности, что просмотр телевидения увеличивает недоверие к людям и страх стать жертвой преступления. И синдром злого мира, и теорию культивации широко критиковали в психологической литературе — в первую очередь за отсутствие причинно-следственных связей, низкую значимость наблюдаемых статистических отклонений и, наконец, за сильную привязку к медиапространству США 1970-х, из-за которой выводы Гербнера очень быстро устарели.

Но одно из проявлений «синдрома злого мира» ни у кого вопросов не вызывало: люди, смотрящие много (плохих) новостей по телевизору, совсем не склонны прерывать это занятие, и даже наоборот.

Спустя полвека человечество реализует сходную модель поведения через новые технологии. Ленты новостей стали по-настоящему бесконечными, породив феномен думскроллинга (или, реже, думсерфинга). Помните, как в начале пандемии бесконечно листали новостные каналы с сообщениями о заболевших, умерших, излечившихся и новых странах, объятых эпидемией? Так вот это оно и было.

Научных статей про думскроллинг написано уже много. Их выводы в основном интуитивно понятные: с одной стороны, думскроллинг создает ощущение, что вы в курсе и вас сложно застать врасплох. С другой стороны, он может создавать или усиливать тревогу, подрывать вашу способность предпринимать разумные действия и просто продляет сам себя и съедает ваше время, не принося никакой пользы и даже удовольствия.

Доксинг

В Рунете его чаще называют деаноном, или деанонимизацией. Это раскрытие личности, до тех пор анонимной, и публикация данных о человеке, от номера паспорта и адреса до частной переписки.

Доксингом редко занимаются из желания сделать человеку приятно. Как правило, настоящее имя, адрес, телефон, номер банковской карты человека появляются в сетевых обсуждениях вместе с призывами этому человеку навредить: поймать, избить, напугать, оборвать телефон звонками с тысяч новых номеров, добиться блокировки счетов.

Не существует принципа права, который защищал бы желание человека оставаться анонимом в интернете, поэтому законодатели отталкиваются то от способа сбора персональных данных, то от намерений: причинение вреда, угрозы, харассмент.

В России Федеральный закон № 152 защищает персональные данные как таковые, и для того, чтобы потребовать их удаления из публичного доступа, человеку не нужно доказывать, что они были получены незаконно. Однако от доксинга это не очень-то спасает, а для того, чтобы привлечь виновного по статье 137 УК РФ «Нарушение неприкосновенности частной жизни», преступный умысел все-таки нужно доказать. Но дискуссия о том, какими законодательными методами лучше всего ограничить злонамеренных Шерлоков из интернета, далеко не закончена.

Деплатформинг

Это означает лишение платформы, то есть возможности выступать. Сначала платформы лишали буквально, запрещая читать лекции. Эту практику в 1950-е годы освоили американские университеты. Тогда выступать не давали тем, кого подозревали в симпатиях к коммунистам и социалистам, а инициатива запрета исходила сверху, от руководства.

Известны и примеры низового деплатформинга, как, например, выступление дипломата из ЮАР времен апартеида Гленна Бабба. В 1980-е он был назначен послом в Канаду и развернул там бурную деятельность: ходил на телевидение и радио, выступал на конференциях и университетах, защищая апартеид и призывая к снятию с ЮАР санкций. Деплатформингом Бабба занималось множество канадских активистов, журналистов и студентов. Его выступления отменяли, бойкотировали, срывали, а однажды активист Леннокс Фаррелл даже запустил в него церемониальной булавой.

Как и сорок лет назад, между сторонниками и противниками деплатформинга продолжается дискуссия. Одни говорят о том, что давать слово некоторым людям недопустимо и опасно, их оппоненты настаивают на том, что деплатформинг — ограничение свободы слова. В эпоху социальных сетей речь идет уже не об актовых залах университетов, а об аккаунтах в соцсетях. Первые широко обсуждаемые случаи деплатформинга произошли в 2015 году на имиджборде Reddit: тогда были запрещены несколько сабреддитов (сообществ), нарушающих правила поведения площадки, — за расизм и оскорбления полных людей.

После этого международная группа ученых изучила эффект деплатформинга на Reddit и пришла к выводу о том, что члены ликвидированных сообществ, хоть и мигрировали в другие сабреддиты, вели себя в них гораздо более скромно, и высказываний на почве ненависти на платформе в целом стало меньше.

Другие случаи деплатформинга — в частности, нашумевшая блокировка аккаунта Дональда Трампа в Twitter (социальная сеть Twitter заблокирована на территории РФ с 4 марта 2022 года на основании решения Генпрокуратуры от 24 февраля 2022 года) — вызывают, в общем, те же дискуссии. Свобода слова для всех — или не совсем? Кто будет ограничивать ее, для кого, на каких основаниях и как произвол владельцев платформ скажется на состоянии общества?

Мемджекинг

Допустим, вы продаете в интернете кастрюли. Рунет захватывает мем про рыбов: «Продаете?» — «Нет, просто показываю...» И вы создаете вариант мема со своими кастрюлями и отправляете его в ленты в надежде, что, «показывая рыбов», вы увеличите свою популярность. Вы занимаетесь мемджекингом.

Этот прием стар как мир, но в последнее время рекомендательные алгоритмы, формирующие ленты, будь то «ВКонтакте» или ныне недоступные из России социальные сети, вдохнули в него новую жизнь. Эти алгоритмы питают слабость к свежим мемам и показывают их пользователям чаще, чем старые.

Особенно хорошо это работает с сервисами коротких видео, такими как TikTok, Instagram Reels (принадлежит компании Meta, признанной в России экстремистской организацией), YouTube Shorts или «VK Клипы». В их бесконечных лентах рождаются и умирают тренды: танцы, старые и новые песни, шутки, наложенные на видео звуковые дорожки из фильмов и совсем простые формы коллективного поведения вроде формул «покажи, сколько чипсов поместится на голове у кота».

Тренды живут недолго — по разным оценкам, от 5–7 дней до полугода, но ярко: любое видео, созданное с использованием актуального тренда, имеет шанс получить очень много просмотров. Этим пользуются как маркетологи, так и просто люди, которые хотят чем-нибудь поделиться: ваша история наверняка получит гораздо более широкие охваты, если «заедет» в интернет верхом на свежем тренде.

Новые напасти

Не только пользователи изобретают новые способы вести себя в интернете — этим заняты и создатели онлайн-среды. UX-дизайнеры изобрели кучу способов удержать внимание человека, и не все из них выглядят этически безупречными. Те UX-уловки, которые больше похожи на обман, чем на выстраивание взаимодействия с пользователем, получили название «темные паттерны». Сейчас мы расскажем о некоторых из них.

Privacy zuckering (цукеринг конфиденциальности) — это набор тактик, который позволяет приложению собирать о пользователе больше данных, чем он отдал бы, если бы его спросили напрямую. Название эти тактики получили в честь Марка Цукерберга после скандала с Cambridge Analytica. В 2018 году обнаружилось, что Facebook (принадлежит компании Meta, признанной в России экстремистской организацией) собирает с пользователей данные, на сбор которых они не давали согласия, и передает их компании Cambridge Analytica, которая занимается таргетингом рекламы.

Для того чтобы заставить людей без колебаний отдавать данные и о себе, и о своих друзьях в Facebook, использовались веселые приложения: игры, викторины и тесты типа «Кто ты из сериала „Друзья“?» и «Какая вы булочка?». Люди не обращали внимания на то, доступ к каким данным запрашивали эти приложения, и начинали делиться теми сведениями о себе, которые обычно недоступны извне. Сторона обвинения настаивала на том, что собранные данные могли использоваться для манипуляции общественным мнением, а именно для таргетирования рекламы во время выборов в Конгресс.

Способ защитится от цукеринга один: внимательно читать условия пользования разными приложениями и вручную контролировать их доступ к вашим личным данным. А вот как защитить от цукеринга целое общество? Вероятно, нужны новые законы, обязывающие компании более явно спрашивать согласие на сбор данных.

Roach motel (на русский можно перевести как «клоповник») — это совсем простой прием, который делает подписку на сервис очень легкой и простой, но максимально затрудняет отказ от нее. Кнопку «отписаться» делают маленькой и малозаметной, иногда и вовсе убирают, добавляют в процесс отказа дополнительные шаги, забрасывают пользователя лишними вопросами, этапами подтверждения или заставляют писать письма, на которые потом подолгу не отвечают. Идея этого паттерна гораздо старше, чем интернет: наши прадедушки точно так же мучительно пытались избавиться от подписки на ненужную газету.

Friend Spam (спам, замаскированный под поиск друзей) — это стратегия, при которой сервис или приложение запрашивает личные данные пользователя (обычно адрес электронной почты, телефон или профиль в соцсетях) якобы для того, чтобы оказывать персонализированные услуги или связать пользователя со знакомыми ему людьми. На самом деле этого не происходит, зато указанные пользователем контакты начинают получать рекламные рассылки.

Скрытые покупки — стратегия, которую используют онлайн-магазины. Она может реализовываться по-разному, но итог один: счет, который вам выставляют, оказывается больше общей стоимости товаров и услуг, которые вы выбрали. Это может выглядеть как сервисный сбор, дополнительные услуги, платные опции, без которых вы не можете совершить покупку — или можете, но для этого нужно совершить дополнительные действия: например, вернуться на несколько шагов назад и снять неприметную галочку.

Этот список темных паттернов далеко не полный. Иногда они выглядят как совершенный обман — скажем, кнопки, отправляющие вас совсем не на те страницы, на которые вы предполагали. Но прямой обман — не обязательное свойство темных паттернов, иногда это тонкие нюансы интерфейса, которые эксплуатируют автоматизм действий пользователя. Главное их отличие от просто плохого UX-дизайна — преднамеренность.

Новые условия

Наша жизнь в сети давно и сильно запуталась. Сначала акторами в интернете выступали только люди. Но алгоритмы соцсетей и контекстной рекламы создали ситуацию, в которой и интернет — действующее лицо: во многих случаях не мы сами, а его алгоритмы определяют, что именно мы посетим, посмотрим, прочитаем, что полюбим и чем возмутимся.

В результате мы обнаружили себя в плотном коконе из новостей, мнений, развлечений, тем и сюжетов, круг которых в теории безграничен — это же весь интернет! — но на самом деле крайне узок. Наше нынешнее положение лучше всего описывает триада «пузырь — фильтр — эхо-камера». Давайте разбираться.

Эхо-камера и пузырь фильтров — интуитивно понятные, но лишенные четких определений слова. С их помощью описывают свойства рекомендательных алгоритмов соцсетей (эхо-камера) и поисковиков (пузырь фильтров), которые анализируют данные о предпочтениях пользователя, — а потом подбирают посты, рекламу, поисковую выдачу или рекомендации в соответствии с этими предпочтениями.

В результате люди видят в интернете больше того, что соответствует их пристрастиям, и меньше того, что им не нравится. С самого появления рекомендательных алгоритмов высказываются опасения о том, что этот механизм может привести к катастрофическому дроблению общества — просто в силу отсутствия диалога между людьми с разными убеждениями.

Разрыв связей между общественными группами появился не одновременно с алгоритмами фильтрации и рекомендаций и даже не одновременно с интернетом — он существовал всегда. Современную ситуацию отличает ее нечеловеческая природа: это не люди строят барьеры между собой, а компьютеры. И принципы, по которым они это делают, совершенно неизвестны. IT-гиганты не раскрывают механизмы формирования своих лент и работы фильтров. Почему мы видим одни посты друзей и не видим другие? Почему разные люди видят разное на странице выдачи поисковика при совершенно одинаковых запросах? Непрозрачность алгоритмов и невозможность влиять на них вызывают вопросы.

Социальные последствия пузырей фильтров и эхо-камер сейчас разбирают на примерах больших политических событий, таких как Brexit, парламентские и президентские выборы в США, разлив нефти на платформе Deepwater Horizon и другие. Эта работа требует большой аккуратности. Аксель Брунс, автор книги «Реальна ли стена фильтров?», предостерегает от алармизма и моральной паники: эти явления совсем новые и очень сложные, и изучать их нужно, не впадая в крайности.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.
Открыты к переменам

Какое будущее ожидает российский опенсорс