Support us

Facebook Papers: что мы узнали из главного расследования года. Подробный разбор

Компания Facebook переживает, вероятно, худшие времена в своей истории. Ребрендинг в Meta и переориентация ресурсов на «метавселенную» не могут заглушить публикацию масштабной утечки внутренних документов компании, которую журналисты уже окрестили Facebook Papers. Что мы узнали из этого архива? И как это отразится на положении компании?

2 комментария
Facebook Papers: что мы узнали из главного расследования года. Подробный разбор

Компания Facebook переживает, вероятно, худшие времена в своей истории. Ребрендинг в Meta и переориентация ресурсов на «метавселенную» не могут заглушить публикацию масштабной утечки внутренних документов компании, которую журналисты уже окрестили Facebook Papers. Что мы узнали из этого архива? И как это отразится на положении компании?

Как произошла утечка

В сентябре 2021 года газета The Wall Street Journal опубликовала серию репортажей, основанную на утечке внутренних исследований Facebook. В публикациях были представлены доказательства того, что компания знала о негативном влиянии Instagram на ментальное и физическое здоровье подростков. Вскоре выяснился и источник утечек. В программе «60 минут» бывший менеджер по продуктам Facebook Фрэнсис Хауген, покинувшая компанию в мае этого года, рассказала, что именно она ответственна за утечку этих данных.

Бывшая сотрудница Facebook Фрэнсис Хауген дает интервью журналисту программы «60 минут»

5 октября Хауген дала показания в подкомитете Сената США, заявив, что Facebook готова использовать деструктивный контент в своей соцсети для увеличения аудитории. Руководство компании, включая Марка Цукерберга, назвало обвинения не соответствующими действительности. Также бывшая сотрудница Facebook подала жалобу в Комиссию по ценным бумагам и предоставила документы Конгрессу США в отредактированном виде. Один из сотрудников парламента передал архив нескольким новостным организациям, включая The New York Times, Le Monde, Süddeutsche Zeitung, телеканалам WDR и NDR, Tamedia Group, Knack, Berlingske и OCCRP.

Опубликованные в СМИ документы показывают, что Facebook знала о негативном влиянии экстремистских политических групп в своих соцсетях, которые значительно поляризовали американское общество перед президентскими выборами. Также данные говорят о том, что исследователи неоднократно указывали руководству Facebook на несовершенство ключевых функций соцсетей, которые значительно усиливают влияние и распространение деструктивного контента в интернете.

Что мы узнали из документов

На протяжении длительного времени сотрудники Facebook исследовали основные механики соцсети. В 2019 году они изучили кнопку «лайк»: что бы делали пользователи, если бы соцсеть убрала эту функцию из интерфейса Instagram. В результате исследователи выяснили, что кнопка вызывает стресс и беспокойство у самых молодых пользователей, особенно если сообщение не получало достаточно «лайков». Однако при скрытии кнопки пользователи меньше взаимодействовали с сообщениями и рекламой. В то же время это не уменьшало тревожность подростков, и молодые пользователи не делились фотографиями чаще, как предполагали менеджеры соцсети. Результаты исследования оказались неоднозначными.

«Когда людей просили вспомнить опыт, который вызвал негативное социальное сравнение в Instagram, они, скорее всего, приписывали это негативное чувство количеству «лайков», — говорится в документе. При этом глава Instagram Адам Моссери публично заявил, что исследование благополучия пользователей привело к инвестициям в меры по борьбе с буллингом в Instagram.

Как появился «лайк»

Facebook представил кнопку «лайк» в 2009 году. Крошечный символ «большой палец вверх», простой индикатор предпочтений людей, стал одной из самых важных функций социальной сети. Компания разрешила другим веб-сайтам использовать кнопку, чтобы пользователи могли делиться своими интересами в своих профилях Facebook. Еще одним новшеством стала кнопка «share», с помощью которой люди быстро делились фотографиями, видео и сообщениями, опубликованными другими людьми, в своей ленте новостей или в других местах. 

Автоматически генерируемая система рекомендаций также предлагала новые группы, друзей или страницы, за которыми люди могли следить, основываясь на их предыдущем поведении в сети. Но у этой функции были побочные эффекты, согласно документам. Некоторые люди стали использовать «лайки» для сравнения себя с остальными. Другие использовали кнопку «поделиться» для быстрого распространения информации, так что ложный или вводящий в заблуждение контент становился вирусным в считанные секунды.

Из документов следует, что Марк Цукерберг и другие руководители компании обсуждали возможность скрыть «лайк» для большего числа пользователей. В итоге соцсеть не стала этого делать, но провела ограниченное тестирование, чтобы получить позитивную реакцию в прессе. Таким образом, руководители сомневались в основополагающих характеристиках соцсети. Компания сталкивалась с кризисами в сферах дезинформации, конфиденциальности и языка вражды. Исследования должны были ответить на вопрос, виноваты ли в этом основные принципы работы платформы.

Из внутреннего исследования Facebook, посвященного влиянию Instagram на подростков
  • We’re making like counts private for everyone on Instagram — they’re not going away, just becoming private
  • Teens feel a real ‘pressure to be perfect’ on Instagram
  • We hope making like counts private will help reduce that pressure
  • The Facebook app is a different experience we’re not planning to roll it out there
  • People are not particularly worried about how many likes they get on Facebook

Кроме «лайка» Facebook тщательно изучила кнопки «share», «groups» и другие инструменты, которые определяют взаимодействие более 3,5-миллиардной аудитории соцсети. Исследователи пришли к выводу, что люди используют ключевые функции соцсети для распространения деструктивного контента. В служебной записке, написанной в августе 2019 года, несколько исследователей констатировали, что «основная механика продукта» позволила дезинформации и разжиганию ненависти процветать в соцсети. «Механика нашей платформы не является нейтральной», — заключили они.

«У нас также есть убедительные доказательства того, что основные механики нашего продукта, такие как виральность, рекомендации и оптимизация для вовлечения, значительно влияют на то, почему этот контент процветает на платформе».

В документах не указано, какие действия предприняла Facebook после обсуждения исследований. В последние годы соцсеть изменила некоторые функции, позволив пользователям скрывать свои посты и отключить рекомендацию политических групп, чтобы уменьшить распространение дезинформации. Но основной принцип работы Facebook — сеть, где можно быстро распространять информацию и где пользователи могут накапливать друзей, подписчиков и «лайки» — в конечном счёте остаётся практически неизменным. По словам некоторых нынешних и бывших руководителей, многие значительные изменения в социальной сети были заблокированы в интересах роста и удержания пользователей.

В 2019 году исследователи обнаружили, что отправной точкой распространения дезинформации становилось приглашение так называемыми «китами» пользователей в закрытые группы. Это люди эффективно привлекали тысячи пользователей, таким образом сообщество разрасталось многократно всего за сутки. Затем «киты» могли спамить группы сообщениями, пропагандирующими этническое насилие или любой другой деструктивный контент.

В другом отчете за 2019 год указано, что некоторые «киты» набирали большое количество подписчиков на своих страницах, используя посты с милыми животными и другими безобидными темами. Как только страница набирала десятки тысяч подписчиков, основатели её продавали. Покупатели использовали эти страницы, чтобы распространять среди подписчиков дезинформацию и материалы, вызывающие политическую рознь.

В сентябре 2019 года компания скрыла отображение «лайков» из постов австралийских пользователей в качестве эксперимента. Соцсеть хотела проверить, снизит ли это давление на пользователей и повлияет ли на сравнение с другими. Также менеджеры предполагали, что скрытие «лайков» может побудить людей чаще публиковать сообщения. Однако этого не произошло. Тогда Facebook решила не проводить более широкое тестирование, руководство компании отметило в отчете, что «количество лайков занимает крайне низкое место в длинном списке проблем, которые нам нужно решить».

Из внутреннего отчета Facebook «What Is Collateral Damage»

«We also have compelling evidence that our core product mechanics, such as virality, recommendations, and optimizing for engagement, are a significant part of why these types of speech flourish on the platform.»

«If integrity takes a hands-off stance for these problems, whether for technical (precision) or philosophical reasons, then the net result is that Facebook, taken as a whole, will be actively (if not necessarily consciously) promoting these types of activities. The mechanics of our platform are not neutral.»

Исследователи также отметили, что кнопка «share,» которая предназначена для привлечения внимания и стимулирования вовлечения, на самом деле служит «для усиления плохого контента и источников», в пример приводятся посты о хулиганстве или «пограничной наготе». Общим местом в документах стало утверждение, что сотрудники Facebook выступали за изменения в работе соцсети и часто обвиняли руководителей в том, что они стоят на пути изменений.

Один из исследователей раскритиковал систему рекомендаций соцсети, которая может «очень быстро направить пользователей на путь теорий заговора». «За то время, что мы колебались, я видел, как люди из моего родного города все дальше и дальше спускались в кроличью нору таких движений, как QAnon, и конспирологических теорий, направленных против вакцинации от коронавируса. За этим было больно наблюдать», — резюмирует он.

Почему хейта не становится меньше

Другой проблемой компании стала модерация контента на разных языках. Исследования показали, что в странах с высокими рисками модерация языка ненависти и дезинформации недостаточна. Один из исследователей задается вопросом, как афганскому пользователю сообщить о деструктивном контенте, чтобы его удалили.

Пример распределения деструктивного контента по темам, выявленого Facebook в 2020 года. Источник: Forbes.

Это практически невыполнимая задача, поскольку сам интерфейс Facebook плохо переведён на языки пушту и дари, два основных из более 30 языков, на которых говорят в стране.

«В такой стране, как Афганистан, где доля населения, понимающего английский язык, крайне мала, обеспечение безупречного перевода системы, как минимум, представляется крайне важным», — пишет он, указывая, что платформа — «ведущая социальная сеть в стране».

Масштаб проблемы скрывался руководством корпорации. Например, в Индии из выборки пользователей, наиболее активно распространяющих политический контент, «40% были поддельными аккаунтами». В феврале 2019 года сотрудник в качестве эксперимента завел тестовый аккаунт в Индии. Уже через три недели его новостная лента превратилась в «поток разжигающего рознь националистического контента, дезинформации и визуального насилия». Этот тест был повторен через аккаунт в США и привел к аналогичным результатам.

Проблема заключается также в небольшом количестве модераторов. Сотрудников, которые модерируют ленту соцсети, Facebook нанимает через внешних поставщиков, сейчас их количество составляет около 15 тысяч человек. По данным  Facebook, они расположены в 20 точках мира и охватывают 70 языков. Компания сообщает, что за последние месяцы она добавила еще 12 языков, включая гаитянский и креольский. Например, до 2018 года бирманским языком занимались всего два модератора, однако после вспышек насилия и волнений в стране компания была вынуждена нанять более 100 новых модераторов и запретить аккаунты, связанные с военной хунтой.

Facebook постоянно отказывалась публиковать точное количество модераторов по странам, несмотря на неоднократные просьбы политиков и журналистов. Показательна проблема, которая возникла с арабским языком, третьим по распространенности в интернете. Внутренние документы сообщают, что модераторы, в основном работающие в Марокко и Германии, не владеют некоторыми из основных арабских диалектов.

Кэти Харбат, бывшая сотрудница  Facebook, подтверждает, что в модерации остаются существенные пробелы, иногда на один язык выделен всего один модератор — из-за трудности поиска квалифицированных специалистов.

Еще одним источником разжигания ненависти и дискриминации стал искусственный интеллект, созданный для анализа контента. Его работа также ограничивается языком. Согласно исследованию по Афганистану, только 2% деструктивного контента обнаруживается автоматически по сравнению с показателем 90% по всему миру. Для анализа контента системе необходим «классификатор»: категории, которые позволяют распознавать проблемные сообщения. Но для эффективного поиска необходим большой объем данных на соответствующем языке, а это требует времени.

В июне 2020 года исследователи создали таблицу, куда внесли страны с наибольшими рисками модерации контента. Туда попали в том числе Мьянма, Пакистан, Эфиопия, Сирия и Йемен — для этих стран попросту отсутствуют «классификаторы». То же самое относится к дезинформации о коронавирусе на языке оромо или амхарском, на котором говорят в Эфиопии. Острой ситуация остается в Индии, где качественных классификаторов нет для хинди и бенгальского языка.

Как отреагировала компания

Официальный представитель Facebook Энди Стоун раскритиковал появившиеся в прессе статьи, сказав, что они построены на «ложной предпосылке». «Да, мы занимаемся бизнесом и получаем прибыль, но идея, что мы делаем это за счет безопасности или благополучия людей, это неправильное понимание того, в чём заключаются наши собственные коммерческие интересы», — сказал он. Стоун добавил, что Facebook инвестировала $13 миллиардов и нанял более 40 тысяч человек для обеспечения безопасности людей.

В своем сообщении Марк Цукерберг заявил, что «глубоко нелогично», что компания будет отдавать предпочтение опасному контенту, потому что рекламодатели Facebook не хотят покупать рекламу на платформе, распространяющей ненависть и дезинформацию». «На самом базовом уровне, я думаю, большинство из нас просто не признают ложную картину компании, которую рисуют», — написал он. По словам бывшего вице-президента Facebook Брайана Боланда, внутри компании можно вести довольно открытые дискуссии, однако добиться существенных изменений политики компании гораздо сложнее.

На фоне яростного негатива, который обрушился на компанию, Марк Цукерберг в конце сентября объявил топ-менеджменту о новой инициативе соцсети — Project Amplify. Смысл инициативы заключается в том, чтобы использовать новостную ленту для рассказа пользователям положительных историй о соцсети. Этот проект преследует конкретную цель: улучшить имидж соцсети в глазах пользователей. Источники, знакомые с проектом, рассказали, что менеджмент собирается подойти к этой задаче деликатно, поскольку ранее Facebook никогда не позиционировала новостную ленту как место для укрепления своей репутации. По словам одного из участников встречи, несколько руководителей были шокированы предложением Цукерберга.

На протяжении всего года компания приняла несколько жестких решений, которые должны были кардинально поменять имидж соцсети. Цукерберга тщательно дистанцировали от скандалов, сокращая количество его публичных выступлений.  Также в компании сократили доступ посторонних лиц к внутренним данным и исследованиям, скрывая негативные отчеты. В разы выросли расходы на рекламу бренда на сторонних площадках.

В январе команда по коммуникациям разработала стратегию по дистанцированию Цукерберга от скандалов. Пиарщики соцсети считали, что его посты в Facebook и выступления в СМИ должны быть сосредоточены на новых продуктах. Уже 11 января на штурм Капитолия сторонниками Трампа отреагировал не гендиректор компании, а операционный директор Шерил Сэндберг. Она ответила на обвинения в том, что именно в Facebook пользователи занимались подстрекательством к штурму. Сэндберг заявила, что события не имеют никакого отношения к соцсети. В июле о дезинформации о коронавирусе снова говорил не Цукерберг, а вице-президент компании Гай Розен.

Изменились и личные аккаунты Цукерберга. Вместо ответов на обвинения соцсети в его постах появились фотографии, как он катается на серфе с американским флагом. Новой темой, которая должна была заглушить критику пользователей, должна была стать «метавселенная», или интернет 2.0 — проект компании, который призван диверсифицировать ее прибыль после стремительного сокращения рекламных доходов из-за новых правил конфиденциальности в iOS. Для развития проекта компания наняла 10 тысяч новых сотрудников в Европе, которые должны создать новые продукты для инновационного виртуального пространства.

Еще одним шагом, который был менее заметен пользователям, стало сокращение исследовательской команды CrowdTangle. Этот проект предоставлял данные о вовлеченности пользователей и популярности постов. Он позволял журналистам и ученым изучать работу платформы.

Сотрудников перевели в другие команды, чего они не ожидали. По словам самих членов CrowdTangle, причиной роспуска послужила позиция Шульца, который разочаровался в эффективности такой работы. 

Для ученых это решение было особенно болезненным, поскольку команда CrowdTangle предоставляла объективную информацию о работе платформы. В июне компания отказалась публиковать отчет о самых просматриваемых постах за первые три месяца 2021 года.

Пиарщики Facebook обнаружили, что самой просматриваемой ссылкой за этот период была новостная заметка с заголовком, в котором описывалась смерть врача после введения вакцины от коронавируса. Менеджеры посчитали, что этот отчет негативно скажется на имидже соцсети, и он стал последним для исследовательской команды.

На этом проблемы для ученых не закончились. Компания заблокировала учетные записи и страницы группы исследователей Нью-Йоркского университета. Ученые создали расширение для веб-браузера, которое позволяло им отслеживать активность пользователей в соцсети. Свое согласие на участие в исследовании дали 16 тысяч человек. Полученные данные вошли в исследование, которое показало, что недостоверная политическая реклама процветала в Facebook во время выборов 2020 года. Пользователи чаще обращались к дезинформации правого толка, чем к любой другой информации.

В ответ компания заявила, что сотрудники университета нарушили правила сбора данных пользователей, и сослалась на соглашение о конфиденциальности, которое соцсеть заключила с Федеральной торговой комиссией США в 2012 году. Однако FTC заявила, что допускает проведение такого рода расследований в общественных интересах. По мнению самих ученых, блокировка была вызвана негативным эффектом от публикаций их исследований.

Напряжение и недовольство среди сотрудников нарастало, и менеджерам пришлось пойти на жесткие меры, чтобы пресечь нежелательные разговоры. В июле команда по внутренним коммуникациям закрыла комментарии на внутреннем форуме, который используется для объявлений в масштабах всей компании.

«НАША ЕДИНСТВЕННАЯ ПРОСЬБА: пожалуйста, не сливайте информацию», — было указано в сообщении об изменении работы форума.

Компании до последнего времени удавалось не втягивать в судебные процессы самого Цукерберга, однако 20 октября генпрокурор округа Колумбия Карл Расин добавил в качестве ответчика генерального директора Facebook к иску о защите прав потребителей, заявителями которого выступают Федеральная торговая комиссия США и генеральные прокуроры нескольких штатов. Действия Расина могут привести к крупным штрафам для самого Цукерберга. Округ Колумбия может потребовать до $5 тысяч для любого из 300 тысяч жителей округа, которые могли пострадать из-за нарушений конфиденциальности в соцсети по сравнительно давнему делу Cambridge Analytica.

Что спасет Facebook

Несмотря на усилия компании, Фрэнсис Хауген считает, что средств, выделяемых для обеспечения безопасности пользователей за пределами США, недостаточно. Она заявила, что в отделе, отвечающем на изучение злоупотреблений на платформе и предложение решений, за дезинформацию отвечало всего четыре сотрудника. Ее показания согласуются с признаниями еще одной бывшей сотрудницы Facebook Софи Чжан, которая уволилась из компании в сентябре 2020 года. Она обвинила бывшего работодателя в бездействии, когда фейковые политические аккаунты наводнили Гондурас и Азербайджан.

Facebook ждет еще одно испытание: журналисты пишут о целом «избирательном цунами», которое накроет мир в 2024 году. Президентские и парламентские выборы состоятся в США, Великобритании, Индии, Индонезии, Украине, Тайване, Мексике и других странах. Кэти Харбат вспоминает, что ее отдел, состоящий из 30 человек, занимался мониторингом выборов в разных странах. По ее словам, бывшие коллеги были разочарованы тем, что компания так и не смогла разработать классификаторы для деструктивного контента на разных языках или эффективные инструменты для борьбы с политической дезинформацией.

Команда «выборы» была обязана «расставить приоритеты» в зависимости от важности и степени рисков предстоящих выборов. Поэтому весной 2019 года  Facebook сосредоточился на выборах в Европейский парламент, выборах в Израиле, Индонезии, Таиланде и Австралии. «С тех пор Facebook был в основном одержим президентскими выборами в США в 2020 году», — признается бывшая сотрудница.

Иски, поданные к компании в США, могут стать началом «судебного цунами». Фрэнсис Хауген уже пригласили для дачи показаний на слушания в парламент Великобритании и Национальное собрание во Франции. Также Хауген в ближайшее время выступит перед комиссией Европейского парламента. Страны Европейского союза внимательно следят за происходящим в США и обсуждают два проекта регулирования крупных платформ, в том числе и Facebook. Они рассчитаны на большую прозрачность в модерации контента и контроле за действиями соцсетей.

Место солидарности беларусского ИТ-комьюнити

Далучайся!

Читайте также
Пять новых профессиональных сертификаций от Meta на Cousera
Пять новых профессиональных сертификаций от Meta на Cousera
Пять новых профессиональных сертификаций от Meta на Cousera
Meta расширяет свое партнерство с Coursera, предлагая пять новых профессиональных сертификаций в области разработки ПО. Во время растущего спроса на квалифицированные кадры получение этих сертификатов позволит претендовать на самые востребованные позиции. По прогнозам, только в США к 2030 году сфера разработки ПО вырастет на 22%.Новые программы от Meta предлагают подготовку по следующим специальностям: фронтенд-разработчик, бэкенд-разработчик, Android-разработчик, iOS-разработчик и дата-инженер.
4 комментария
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Соцсеть на мели: Meta хочет больше платных функций в Facebook, WhatsApp и Instagram
Соцсеть на мели: Meta хочет больше платных функций в Facebook, WhatsApp и Instagram
Соцсеть на мели: Meta хочет больше платных функций в Facebook, WhatsApp и Instagram
1 комментарий
Meta полностью прекратит поддержку приложения Facebook Gaming
Meta полностью прекратит поддержку приложения Facebook Gaming
Meta полностью прекратит поддержку приложения Facebook Gaming

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Anonymous
Anonymous ceo в localhost
0

Ничего опасного не увидел. Опять левые борются со свободой слова. Якобы большой брат лучше знает, как тебя оградить от неправильной информации, а сам ты мал и глуп и без мудрого руководства подвержен влиянию фейков и деструкции.

0

Опасно то, что массами управляешь не ты.