Мнение редакции может не совпадать с мнением автора
Откуда в интернете берутся фейковые новости — и главное, почему мы им верим? Как в соцсетях формируются информационные пузыри и кто больше виноват в их создании — мы сами или программные алгоритмы? Почему ни образование, ни интеллект не служат гарантией от распространения и потребления слухов? На эти и другие вопросы отвечает книга научного журналиста Борислава Козловского
Данное исследование подтверждает также, что, вопреки прежним предположениям, взаимодействие лицом к лицу и невербальные сигналы для заражения эмоциями не требуются.
Адам Крамер, сотрудник Facebook,
научная публикация в журнале Proceedings of the National Academy of Sciences
Застенчивый юноша-очкарик в кепке, подвернутых джинсах и гавайской рубахе позирует фотографу, облокотившись на ярко-красную пожарную лестницу. Юношу зовут Адам Крамер, он только что получил в Орегонском университете степень PhD по социальной психологии (аналог степени кандидата наук в России) и теперь устроился работать в Facebook. Этим снимком соцсеть решила проиллюстрировать интервью с новым перспективным сотрудником, меньше всего на свете похожим на Доктора Зло, каким Крамера начнут считать через два года.
«Самые интересные вопросы, на которые тебе удалось ответить за время работы здесь?» — «Распространяются ли эмоции, как заразная болезнь». — «Что ты посоветуешь выпускникам психфаков?» — «Учитесь программировать».
Больше всего оскорбительных комментариев под этим интервью появилось в июле 2014-го. В них Крамера сравнивали, например, с нацистскими врачами, которые во время Второй мировой испытывали на узниках концлагерей возбудители мучительных болезней и вскрывали людей живьем. «Вы сами поставили себя на одну доску с доктором Менгеле», — пишет один. «Я желаю знать, была ли я среди подопытных», — возмущается другая. «Как насчет того, чтобы посклонять 700 млн пользователей к суициду?» — интересуется третий.
Дело в том, что Крамер и в самом деле решил проверить, заразны ли эмоции, — и объектом его эксперимента стали, сами того не зная, 689 003 пользователя соцсети. В начале 2010 года Крамер и двое его коллег подвергли френдленты этих пользователей выборочной цензуре: одни подопытные переставали видеть у себя в ленте до 90% записей с «негативным» содержанием, другие — до 90% «позитивных» записей.
Что в этом плохого? Представьте, что вы уехали на неделю в командировку в другой город (эксперимент длился как раз неделю, с 11 по 18 января). За это время вашего хорошего друга избивают в питерском метро и отбирают у него любимую зеркалку со всеми объективами. В такой ситуации каждое слово поддержки не лишнее. Но если вдруг вы оказались в первой группе подопытных, вы просто ничего не прочтете о неприятностях друга. А если вы, наоборот, в группе, изолированной от «позитива», то мимо вас пройдет запись однокурсника, который давным-давно эмигрировал в Австралию и тут, наконец, собрался прилететь на пару дней в Москву. В итоге вы с ним так и не встретитесь.
Словом, если вы привыкли все самое важное о жизни небезразличных вам людей узнавать из Facebook, и при этом вам не повезло попасть в число 689 003 подопытных, то Facebook неделю держал вас в дураках. Возможно, не без последствий — как в случае с избитым другом и однокурсником из Австралии.
С технической точки зрения ничего особенно ужасного ученые не сделали: Facebook и так постоянно скрывает от нас 80% всего написанного друзьями. Два года назад администраторы соцсети на официальной странице «Facebook для бизнеса» рассказали с цифрами, как это работает: всякий раз, когда среднестатистический пользователь заходит в соцсеть, его поджидают 1500 новых непрочитанных постов, в которых он рискует утонуть с головой. Умный алгоритм, зная наши предпочтения, выбирает из них 300 — только они отобразятся в ленте, остальные 1200 будут забракованы. Когда алгоритму предстоит тяжелый выбор — показать нам свежее фото со страницы лучшего друга, где помечены вы и ваша девушка, или пост про футбол у человека, с которым вы случайно познакомились в долгой очереди к стоматологу и с тех пор не общались, — алгоритм обычно знает, как поступить.
Но направленное вмешательство — все-таки особый случай, и его постарались сделать как можно безболезненнее: если в разгар эксперимента вы заходили напрямую на страницу друга, там все его спрятанные записи были доступны. И, разумеется, цензура не коснулась личных сообщений.
«Негатив» от «позитива» специальная программа-фильтр пыталась отличить по ключевым словам-маркерам, которые как-то соотносятся с положительными и отрицательными эмоциями. Реагировать на отдельные слова — это, конечно, не идеальный способ вникать в смысл написанного. Например, сразу понятно, что от программы ускользают ирония и сарказм. Скажем, фразу «радость-то какая» она просто из-за наличия слова «радость» классифицирует как «позитивную» вне зависимости от контекста. Зато если пожертвовать такими тонкостями, получается быстрее обрабатывать гигантские объемы данных: сквозь фильтр ученые пропустили 3 млн записей, содержащие 122 млн слов; 3,6% слов отнесли к «позитивным» и 1,8% — к «негативным».
Команду Facebook интересовало, как зачистка ленты отразится на поведении подопытных. Для этого ученые снова воспользовались своим излюбленным методом — подсчетом слов. Оказалось, что те, у кого из френдленты поудаляли «позитивные» записи, сами начали писать более мрачные тексты: частота соответствующих слов- маркеров выросла настолько, что с вероятностью 99,3% это нельзя было назвать случайным совпадением.
В научной статье с описанием результатов, которую два года спустя, в марте 2014-го, опубликовал авторитетный журнал Proceedings of the National Academy of Sciences («Вестник Национальной академии наук США»), авторы говорят про «массовое заражение эмоциями через соцсети». Упомянутый в интервью с неформально одетым очкариком эффект целых два года широкую публику не интересовал — пока не стало ясно, что это мощный рычаг манипуляции нашим поведением.
В каком смысле эмоции заразны? Счастье и одиночество, идея закурить или идея бросить курить распространяются как вирус Эбола или палочка Коха. Эта идея старше работы Крамера: ее вывели из наблюдений за соцсетями реального мира, где людей связывают отношения дружбы или родства.
В 2009 году врач и социолог Николас Кристакис из Гарварда вместе с социологом Джеймсом Фаулером из Калифорнийского университета в Сан-Диего опубликовали книгу «Связанные одной сетью» про не-медицинские выводы из одного рекордно долгого медицинского проекта. Фремингемское кардиологическое исследование началось в 1948 году и продолжается до сих пор. Чтобы разобраться с причинами сердечных болезней, медики сформировали «когорту» из 5209 жителей небольшого городка Фремингем в американском штате Массачусетс и все эти годы собирали избыточно подробную статистику обо всей жизни участников исследования, а потом их детей и внуков. Кто на ком женился, кто развелся, кто умер от инфаркта, кто бросил курить, кто впал в депрессию — все это фиксировалось в журналах исследователей.
Разбирая эти журналы, Кристакис и Фаулер сделали главное наблюдение: перемены идут волнами — и волны эти бегут по сети дружеских и родственных связей. Ваше волевое решение бросить курить неожиданно подталкивает к тому же коллег бойфренда вашей двоюродной сестры или мужа подруги тещи, с которыми вы лично не знакомы и вряд ли познакомитесь. Люди, страдающие от одиночества, заводят дружбу с такими же одиночками — как Чебурашка с крокодилом Геной. Менее очевидно, что они укрепляют намерение оставаться одинокими и у тех, кого от них в сети дружеских связей отделяет дистанция в дватри рукопожатия.
Уравновесить этот грустный факт должно то, что и чувством счастья тоже можно заразить — через несколько промежуточных звеньев — незнакомцев, которых вы сами в глаза не видели.
В эксперименте с Facebook оценить мощность «заражения» было трудно: замеряли только ту часть эмоций, которая вернулась в эту соцсеть обратно. Неизвестно, сколько пользователей лишний раз стукнули кулаком по столу (и ни словом не обмолвились про это в Facebook), а сколько, наоборот, подарили хризантему лифтерше.
Или сходили проголосовать. В 2010 году группа ученых во главе с Робертом Бондом из Калифорнийского университета в Сан-Диего попробовала ради чистого интереса поэкспериментировать с явкой на выборы в конгресс США, используя соцсеть как инструмент. Два года спустя об исследовании рассказал Nature — еще один научный журнал из первой пятерки.
Вот как это было. 2 ноября 2010 года 61 млн американцев проснулся и увидел у себя в Facebook призыв пойти и опустить бюллетень в урну. Одним показывали сообщение «Сегодня день выборов», кнопку «Я проголосовал» и счетчик пользователей, которые по кнопке уже кликнули. Другие вдобавок к этому видели юзерпики шестерых проголосовавших друзей. По сравнению с простым сообщением (эффект от которого был, судя по всему, примерно таким же, как воздействие надписи «Минздрав предупреждает» на курильщика со стажем) вариант с друзьями («социальное сообщение», как называют это сами авторы) был запредельно успешным. Сравнивая число нажатий на кнопку в одной группе и в другой, исследователи сосчитали, что им удалось мобилизовать на выборы в конгресс лишние 340 тысяч человек.
Мы уверены на все сто, что проголосовать или эмоционально высказаться нас заставляют объективные причины (про которые мы, собственно, и желаем сообщить прямым текстом миру, когда пишем пост в Facebook). Особенно это касается поступков в реальном мире. И тут внезапно оказывается, что нам навязывают свои эмоции и мысли какие-то малознакомые люди из интернета. В конце концов, Facebook — это просто страничка в браузере, где случайные знакомые и знакомые знакомых рассказывают о том, весело им или грустно, и делятся своими личными соображениями про кино и выставки. В массе своей они не эксперты и не авторитеты, к мнению которых есть хотя бы формальные поводы прислушаться. Но почему-то от этих не очень близких людей зависит, что мы будем думать, чувствовать и писать у себя на страничке сами.
Почему так происходит? Facebook, говорят психологи, работает как кривое зеркало, которое не то чтобы специально врет (у зеркала вообще нет «своей позиции», чтобы врать), а просто искажает пропорции вещей. Чуть ли не всех, кого мы добавили в друзья, соцсеть автоматически превращает в образцы для подражания, объекты зависти и — как следствие — возводит в ранг авторитетов, чьи мнения и чьи эмоции для нас важны. Психотерапевт Джессика Гроган объясняет в колонке для популярного журнала Psychology Today: Facebook делает чужую жизнь в разы ярче. Люди много пишут про редкое и приятное — путешествия, подарки, рождение детей и праздничные торты. А про рабочую рутину — наоборот, мало (если они не журналисты). В результате начинает казаться, что праздник у всех друзей, кроме вас. Ста человек, каждый из которых проводит в отпуске на море неделю в год (и активно бомбардирует друзей всю эту неделю фотографиями своего серфинга по утрам и лобстеров на льду вечером), хватит с запасом, чтобы создать во френдленте ощущение непрекращающихся каникул.
Параллельно с этим друзья в Facebook имеют на вас такое влияние еще и потому, что в целом они лучше социализированы. И это уже не иллюзия восприятия (как «непрекращающиеся каникулы»), а математический факт, который называется «парадоксом дружбы».
Первым на него обратил внимание в 1991 году американский социолог Скотт Фельд — и опубликовал статью под заголовком «Почему у ваших друзей больше друзей, чем у вас». Логика его ответа такая: чем популярней кто-нибудь, тем больше шансов, что вы добавите его в друзья. Поэтому те, с кем дружит наугад взятый пользователь, в среднем популярнее его самого.
Спустя двадцать лет, в ноябре 2011 года, несколько специалистов по большим данным из разных американских университетов, которых Facebook пригласил к себе на работу, проверили этот парадокс на всем множестве из 721 млн активных к тому моменту пользователей соцсети, связанных 69 млрд «дружб». Выяснилось, что у среднестатистического, наугад взятого человека из соцсети 190 друзей, а у каждого из этих 190 друзей в среднем целых 635 друзей. Причем парадокс работает не только «в среднем», но и строго выполняется для 93% аудитории Facebook и 98% аудитории Twitter.
Что из этого следует на практике? Например, что ваши друзья в Facebook — довольно специальная выборка социально успешных людей, а никакие не «все», которых мы то и дело упоминаем. Социологи сказали бы, что выборка нерепрезентативна — и не только в том смысле, что убеждения вашего круга общения отличаются от убеждений страны в целом.
Нам важно знать, что «все» думают и говорят по тому или иному поводу, — и лента Facebook создает иллюзию общественного мнения. «Вся Москва обсуждает колонку Олега Кашина». «Всем ясно, что заявление про террористов — идиотская фальшивка». «Все уехали на Новый год в Индию». Обычно это неправда не только по отношению к обществу в целом, но и применительно к людям одного с вами возраста, положения и убеждений. Те, у кого друзей за тысячу, имеют понятные причины больше переживать по поводу права свободно высказываться, чем те, у кого друзей пятьдесят. Благодаря «парадоксу дружбы» среди наших друзей больше первых, чем вторых (и эти первые слышней), — поэтому нам и кажется, что ценность свободы слова понятна и самоочевидна всем, кроме редких маргиналов. А результаты опроса ВЦИОМ про 58% сторонников цензуры в интернете представляются внезапными и даже невозможными.
И соцсети, и поисковики активно помогают нам изолировать себя от непохожих мнений — вроде мнений сторонников цензуры. Три года назад вышла книга американского левого активиста Эли Паризера «Пузырь фильтров» с подзаголовком «Как новый персонализированный интернет влияет на то, что мы читаем и что мы думаем».
Когда сосед из квартиры сверху и вы одновременно заходите на главную страницу Google, поисковая выдача по одному и тому же запросу у вас будет разной — начиная с 2009 года Google подстраивает ее под ваши интересы. Например, по слову «Форд» поисковик выдаст вам биографию Генри Форда, а соседу — страницу салона, где торгуют автомобилями. То же самое, утверждает Паризер, касается и проблемных тем. Если вы параноидально боитесь ГМО, то на первой странице поисковой выдачи будут преобладать сайты про вред «еды Франкенштейна», а если вы биотехнолог — то ресурсы с более рациональным взглядом на вещи.
Механизм фильтров Facebook — тот самый, который из 1500 записей оставляет 300 наиболее интересных — можно обвинить даже в политической цензуре. Он — буквально как российские телеканалы — ограничивает доступ к новостям, которые идут вразрез с политическими убеждениями аудитории. Таков вывод в научной статье, опубликованной в журнале Science командой из исследовательского отдела Facebook и Мичиганского университета.
Исследователи Эйтан Бакши, Соломон Мессинг и Лада Адамич проанализировали ленты 10,1 млн пользователей из США, которые явно указали в профиле свою политическую позицию. Для простоты все многообразие взглядов свели к трем категориям: получилось 4,1 млн «либералов», 1,6 млн «умеренных» и 4,4 млн «консерваторов».
Ученые следили за тем, как эти пользователи делились друг с другом новостями в течение шести месяцев (с 7 июля 2014 года по 7 января 2015-го). И, главное, кто какие новости видел у себя в ленте.
7 млн различных новостных публикаций, которые появлялись в лентах у пользователей в течение полугода, разделили на «мягкие» (спорт, путешествия и так далее) и «жесткие» (то, что газеты обычно печатают в разделах «Общество», «Политика» и «В мире»). В эту последнюю категорию попало 13% всех ссылок. Ключевые слова, по которым такие статьи вычисляли, — «война», «аборты», «образование», «безработица», «иммиграция», «выборы» и так далее. В конце концов авторы сконцентрировались на судьбе тех 226 тысяч «жестких» публикаций, каждую из которых перепостили как минимум двадцать человек с заявленными в профиле политическими взглядами.
Тут же выяснилось, что у либералов свои новости, а у консерваторов — свои. Вместо того чтобы обсуждать одни и те же статьи с разных позиций, люди противоположных политических убеждений делают акцент на разных событиях и возмущаются каждый своими несправедливостями. Условно говоря (если распространить выводы на российский сегмент Facebook), одни больше пишут про «события 6 мая на Болотной», другие — про «жертв 2 мая в Одессе».
Само собой, источники цитируются тоже разные: если вы увидели ссылку на FoxNews.com, с вероятностью 80% можно утверждать, что ею поделился консерватор. А на HuffingtonPost.com, наоборот, в 65% случаев ссылаются либералы.
И оба потока новостей, «консервативный» и «либеральный», в соцсетях активно фильтруются.
Первая линия цензуры — это отбор, который проделывают за нас друзья: мы склонны окружать себя людьми похожих политических взглядов. Как сосчитали авторы исследования, в среднем у пользователей-либералов всего 20% друзей — консерваторы. Ну и, разумеется, среди друзей среднестатистического консерватора только 18% составляют либералы.
Если бы френдлента формировалась из случайных записей, то в среднем 45 из 100 новостей, которые видит пользователь-либерал, вступали бы в конфликт с его картиной мира. Но в реальности — поскольку друзья придерживаются похожих взглядов и перепощивают отнюдь не все подряд — таких «конфликтных» новостей оказывается всего 24 из 100.
Забавно, что картина мира консерваторов искажается слабее: вместо 40% неприятных новостей после «цензуры друзей» остается 35.
К этим цифрам загадочные алгоритмы Facebook и злая воля Марка Цукерберга лично не имеют никакого отношения: пока речь только о том, как на новостную картину дня влияет наш выбор друзей. Чем они делятся — то мы и видим. Рассуждения не изменятся, если вместо Facebook взять «Живой журнал», «ВКонтакте», «Одноклассников» или клубы по интересам в реальном мире.
Другое дело, что Facebook жестко прореживает нашу ленту, пытаясь по прежним лайкам предсказать, что из нового контента нас заинтересует, а что нет. Происходит ли на этой стадии непроизвольная политическая цензура? Да, происходит: мы чаще лайкаем то, что хорошо согласуется с нашими убеждениями, — и для умных алгоритмов соцсети это не секрет. Поэтому, когда Facebook пытается выдать нам как можно меньше неинтересного, доля «конфликтных» новостей у либералов падает еще на 8%, а у консерваторов — на 5%.
Наконец, ссылка на новость в ленте еще не означает, что эта новость будет прочитана. Третья линия цензуры — наш собственный выбор: если даже новость из другого лагеря преодолела первые два барьера («цензуру друзей» и «цензуру алгоритма») и все-таки просочилась в ленту, то для консерватора вероятность кликнуть по такой ссылке на 17% ниже среднего, а для либерала — на 6%.
Бакши и его коллеги подчеркивают, что в каскаде идеологических фильтров роль алгоритмов не такая уж большая. За невозможностью узнать чужую точку зрения стоит, прежде всего, наша свободная воля. Что может быть естественнее желания читать единомышленников и нежелания лайкать то, что расходится с устоявшимися взглядами? Получается парадокс: если предоставить пользователям полную свободу доступа к информации — мы приложим максимум усилий, чтобы себя дезинформировать.
Соцсети — еще не крайний случай. Авторы сравнивали сеть дружеских связей в Facebook с сетью политических блогов перед президентскими выборами 2004 года в США — и констатировали, что в блогах сами собой возникают изолированные друг от друга «кластеры единомыслия», где никакого реального разнообразия мнений нет.
Facebook выгодно отличается тем, что оставляет для «другой точки зрения» лазейку: в друзья мы часто добавляем людей, с которыми познакомились вне сети и не на почве политики, — коллег по работе, бывших одноклассников или соседей по лестничной клетке. Их убеждения не обязаны совпадать с нашими — и только благодаря им мы знаем, что на самом деле волнует оппонентов. Если, конечно, не «чистить ленту» всякий раз, когда ее чтение вызывает дискомфорт.
В цензуре новостей легко обвинять телевизор. В конце 1960-х теоретики медиа Джордж Гербнер и Ларри Гросс придумали беспощадно критическую по отношению к телевидению гипотезу культивации, которая объясняла, как безо всякой злой воли какого-нибудь комитета по идеологии, который занимался бы дезинформацией, телевизор выращивает («культивирует») в головах у зрителей искаженную картину мира. Скажем, у сценаристов полицейский — излюбленный герой, а аудитор или пожарный особой популярностью не пользуются — и пропорция между людьми этих профессий на экране совершенно иная, чем в реальности. У каждого отдельного телезрителя недостаточно знакомых пожарных, полицейских и аудиторов, чтобы вывести свою собственную статистику — вот он и проникается убеждением, что полиция — одна из ключевых действующих сил общества.
Социальные сети, казалось бы, полная противоположность ТВ — что смотреть и что читать, выбираем вроде бы мы сами, а не какие-то сценаристы и продюсеры новостных программ. Единственные злые парни в этой ситуации — наши собственные когнитивные ошибки, от стремления идеализировать жизнь других людей до нетерпимости к чужим мнениям. Коварные манипуляторы из числа штатных сотрудников Google, Twitter или Facebook в этом не виноваты — они просто предоставили нам возможность жить и действовать так, как мы давно хотели. Просто на практике это оборачивается непробиваемым пузырем заблуждений.
1. Facebook может управлять вашим настроением, просто меняя пропорцию веселых и грустных записей в ленте. Это доказал эксперимент на сотнях тысяч пользователей, которые не были в курсе, что на них ставят опыты.
2. Эмоции заразны, а модели поведения легко передаются через два-три рукопожатия. Это результат непрямого социального давления: если одновременно несколько знакомых ваших друзей бросят курить, резко вырастает вероятность, что бросите и вы.
3. Наши друзья в среднем популярнее нас — математики называют это «парадоксом дружбы» и объясняют при помощи теории графов. А вот ощущение, что их жизнь сплошной праздник и только у нас скучный быт — иллюзия, которую создают и поддерживают соцсети.
4. «Пузырь фильтров» — это когда соцсети и персонализированные сервисы создают ошибочное впечатление, будто нашу точку зрения разделяет весь мир. В соцсетях либералы дружат с либералами, а консерваторы с консерваторами, и Facebook предпочитает показывать записи, у которых выше шанс нам понравиться.
5. Теоретики ТВ придумали гипотезу культивации, чтобы объяснить, как именно телевизор без злого умысла пропагандистов создает у нас в голове искаженную модель общества, где полицейские важнее юристов. При всех отличиях соцсетей от ТВ для них это рассуждение тоже работает.
Полностью читайте:
Козловский, Борислав. Максимальный репост. Как соцсети заставляют нас верить фейковым новостям. — М.: Альпина Паблишер, 2018. — 198 с.