Алгоритмы Facebook пропускают больше 90% проблемного контента — WSJ

Согласно внутренним документам, искусственный интеллект не может распознать видеозаписи со стрельбой, сделанные от первого лица, и расистские высказывания. В течение недель, отмечает WSJ, исследователи Facebook также были озадачены тем, что ИИ не мог найти разницу между петушиными боями и автокатастрофами.

Без особого успеха проходит и борьба с разжиганием ненависти: по оценкам сотрудников, компания удаляет лишь небольшую часть запрещенного контента — процент, составляющий одну цифру. Когда алгоритмы Facebook не уверены, что контент нарушает правила, чтобы удалить его, материал реже показывается пользователям — но аккаунты, которые разместили этот контент, остаются безнаказанными.

Люди, ответственные за «чистоту» платформы, признают, что компания и близко не подошла к тому, чтобы успешно отслеживать материалы в соцсети. «Проблема в том, что у нас нет и, вероятно, никогда не будет модели, которая охватывала бы даже большую часть вредного контента, особенно в чувствительных областях», — писал в одной из заметок старший инженер Facebook в середине 2019 года.

По его оценке, автоматизированные системы компании удаляют посты, которые составляют всего лишь 2% всех просмотров, связанных с разжиганием ненависти. Он констатировал, что если не произойдет серьезных изменений в стратегии, то соцсети будет трудно улучшить этот показатель выше 10–20% в краткосрочной и среднесрочной перспективе.

К аналогичному выводу пришли в марте этого года другие сотрудники Facebook. Алгоритмы удаляют посты, которые составляют 3–5% просмотров, связанных с разжиганием ненависти, и 0,6% всего контента, который нарушает правила соцсети, подчеркивали они.

Статистика, представленная во внутренних документах, контрастирует с тем, что говорят насчет успехов искусственного интеллекта топ-менеджеры Facebook, отмечает WSJ. Так, основатель Марк Цукерберг делился своими ожиданиями, согласно которым компания будет использовать ИИ для обнаружения «подавляющего большинства проблемного контента» к концу 2019 года. Кроме того, соцсеть заявляла, что почти все выражения ненависти, которые она удаляет, были обнаружены алгоритмами до того, как об этом сообщили пользователи. Facebook называет это «коэффициентом упреждающего обнаружения». По состоянию на начало этого года он, по данным компании, достиг почти 98%.

Пресс-секретарь Facebook Энди Стоун заявил, что проценты, указанные во внутренних документах, касаются только алгоритмов и не включают другие меры, которая компания принимает, чтобы уменьшить просмотры контента с разжиганием ненависти. По его словам, соцсеть понижает такие посты в новостной выдаче. Благодаря этой мере распространенность контента, нарушающего политику Facebook, сокращается, и это то, что компания считает самым важным показателем, отметил пресс-секретарь.

  • Вокруг Facebook этой осенью разгорелся очередной скандал. Причиной стало расследование WSJ, которое было основано на внутренних документах компании. Так, согласно одной из публикаций газеты, платформа признает вредоносное влияние принадлежащей ей Instagram на подростковую аудиторию, а публично его преуменьшает.
  • Внутренние документы слила бывшая сотрудница Facebook Фрэнсис Хауген. В начале октября она дала первое интервью, о котором The Bell писал здесь.
  • The New York Times также писала, что скандалы, в которые попадала компания в последнее время, вынудили ее изменить стратегию взаимодействия с внешним миром. Чтобы улучшить имидж, Facebook планирует активно рекламировать себя среди пользователей и дистанцировать от репутационных ударов гендиректора Марка Цукерберга.