12 ноября Марк Цукерберг опубликовал пост о Facebook, выборах и беспрецедентном числе фейков во время предвыборной гонки в США. Его тезисы:
- свыше 99% всего контента, которые видят люди, не является фейком;
- фейки не обязательно связаны с политикой;
- Facebook работает над тем, чтобы сообществу было проще отлавливать и помечать фальшивки;
- Facebook не может определить, что является правдой, а что нет, особенно если речь об упущенных деталях;
- хотя Марк утверждает, что Facebook вряд ли повлиял на предвыборные решения пользователей, он в конце заявляет, что компания помогла более чем 2 миллионам человек зарегистрироваться на выборах.
19 ноября Цукерберг опубликовал гораздо более конкретное обновление. Тезисы:
- к дезинформации Facebook относится серьезно;
- сигналы от жалоб на дезинформацию действительно используются в алгоритме;
- проблема дезинформации не только технологическая, но и философская — Facebook хотел бы дать возможность высказаться всем;
- проекты, над которыми ведется работа: усиление определения фейков, упрощение сообщений о фейках, проверка другими организациями, пометка историй предупреждениями, повышение планки качества для историй, показывающихся в блоке Related, уничтожение экономики фейков (препятствование заработку на фейковом трафике), работа с журналистами и другими сотрудниками новостной отрасли.
«Мы и Жо» приводит обзор реакции на заявления Цукерберга (в основном на первое).
- Главред BuzzFeed Ben Smith опубликовал в Columbia Journalism Review программную статью How tech and media can fight fake news. Он считает, что авторы фейков воспользовались ширящимся разрывом между социальными платформами и «традиционными» медиакомпаниями. Технокомпании сообщают американцам больше информации, чем любой медиахолдинг. Смит предполагает, что журналистика не остановит всемирную волну радикализации (в том числе в пространстве Facebook). Одновременно он думает, что наиболее эффективно бороться с троллями смогут медиа, обитающие в цифровом пространстве и умеющие общаться с молодой аудиторией, а не пришедшие в Сеть из офлайна.
-
Tim O’Reilly на своем сайте опубликовал колонку Media in the age of algorithms. В ней он постулирует, что проблема фейковых новостей — системная и охватывает всю отрасль, а компаниям следует делиться данными и опытом по борьбе с фейками. Сам он считает, что Facebook давно перешел Рубикон отделения добра от зла в ленте пользователя. Однако он не согласен с тем, что с фейками должна бороться некая человеческая медиакоманда внутри Facebook. Он предполагает, что алгоритмы могут справиться с задачей, так как сигналы об истинности часто содержатся не в данных, а в метаданных. Условно говоря, нам не надо читать весь спам, чтобы определить, что перед нами он — мы опознаем письмо со спамом по сотням признаков. Идея не в том, чтобы убирать фейки, а в том, чтобы выявлять сигналы, характерные для хорошего и качественного контента.
-
Газета The Washington Post взяла интервью у Paul Horner, автора множества фейков, зарабатывающего на виральном распространении ложных новостей в течение нескольких лет.
По словам Хорнера, за последние 3-5 лет люди стали ощутимо тупее и легче распространяют информацию, не проверяя ее. Он предположил, что Дональд Трамп победил на выборах, в частности, из-за него. Например, управляющий кампанией Трампа перепостил фальшивку Хорнера о платном протесте (Хорнер разместил фальшивое объявление на Craigslist). Автор фейка утверждает, будто не ожидал, что кто-то поверит в платные протесты. Его аудитория, состоящая из электората Трампа, настолько широко разносит фейки, что Хорнер только на Google AdSense зарабатывает 10 тысяч долларов в месяц.
- Elad Gil, калифорнийский предприниматель, ранее работавший в Google и Twitter, сомневается, что Facebook не может эффективно определять фейки с помощью машинного обучения.
-
Ben Thompson, аналитик, ведущий блог Stratechery, посвятил проблеме целую колонку. Он утверждает, что важнее не ложные утверждения, а те, кто считает, что является новостями.
Речь идет о коммодитизации медиа социальными сетями и о превращении обычных СМИ в сырьевые придатки Facebook. Сырье должно интересовать потребителей, а содержит ли оно фотографию младенца, журналистское расследование или фейк, с точки зрения социальной сети не так важно (при условии, если уровень вовлечения остается прежним).
Томпсон также утверждает, что «традиционные» новые медиа не могли повлиять на предвыборную кампанию. Аудитория хотела новостей о Трампе, и она их получала.
Томпсон не верит, что Facebook выгодно тратить средства на борьбу с фейками и тем самым навлечь на себя упреки в потере нейтралитета (говорят, антфейковый алгоритм, который Facebook не решился запустить, сильно влиял на ленты правых). Он предлагает компромиссный вариант — некоторые источники являются фейковыми, и это можно определить по очень простым критериям. Было бы здорово вычищать их на основании этих критериев, а также дать пользователям возможность контролировать этот алгоритм.
- Zeynep Tufekci, профессор в University of North Carolina School of Information and Library Science в The New York Times предлагает радикальные способы борьбы с фейками. Она приводит в пример сразу несколько случаев, когда предвыборные фейки собирали множество лайков и репостов. Зейнеп предлагает изменить алгоритм Facebook таким образом, чтобы лучше отражать факты и реже показывать мнения, совпадающие с мнениями самих пользователей. Она также призывает позволить независимым исследователям изучить данные Facebook и попробовать решить эту проблему.
-
Профессор Jeff Jarvis и со-основатель Betaworks John Borthwick опубликовали на Medium целый манифест, состоящий из конструктивных предложений по проблеме фейков. Их мнение: платформы не должны решать, что фейк, а что нет. Не должны создаваться черные списки или механизмы цензуры (Jeff Jarvis также ранее опубликовал другую, короткую колонку, разделяющую вину между участниками обсуждения).
Пользователи должны получить легкий способ жалоб на фейки, язык вражды, ботов и т.п. Для медиа следует создать систему метаданных, содержащих информацию о фактчекинге того или иного материала, а также содержащихся в нем данных. Следует расширить системы проверенных источников. Вместо черных или белых списков лучше сообщать пользователю, что автор поста был онлайн всего три часа и набрал лишь 35 фолловеров. Сделать бренды проверенных источников более видимыми для пользователей. Одно дело, когда речь идет о чем-то, произошедшем в твиттере, другое — когда на ссылаются на «ту запись The Washington Post».
Больше внимания надо уделить отслеживанию первоисточников новостей и различного рода мемов. Возможно, следует иногда рекомендовать пользователям записи извне — не похожие на те, что обсуждают их друзья. Это позволило бы избежать радикальной разницы лент у демократов и республиканцев.
Более ответственно отнестись к дизайнерским решениям. Например, к роли автоподсказок (на «George Soros is…» Google предполагает, что тот мертв), а также к справочной роли поисковиков (выдача того же Google по запросу «Daily Stormer» должна бы начинаться не со статей «Ежедневного штурмовика», а со справки Википедии о неонацистской природе сайта).
Авторы также предлагают создавать справочные сайты, чтобы пользователи могли понять источники мемов. Внедрять средства подписки на исправления и распространение правок и обновлений статей. Медиа должны научиться бороться с ложью фактами.
Также платформам следует нанять редакторов, которые бы привнесли публичную компании ответственность за публикуемый контент. Платформам следует также поддерживать «белых» медиахакеров, которые способны помочь в борьбе с фальсификацией и манипуляцией общественным мнением.
Наконец, следует прекратить финансирование производителей фейков. Google и Facebook уже снимают рекламу с таких сайтов, лишая их мотивации. Стоит повнимательнее присмотреться и к обменникам вроде Taboola и Outbrain.
- The Wall Street Journal собрал мнения представителей The Daily Beast, The Daily Caller, Gizmodo Media Group, BuzzFeed и The New York Times о фейках.