ИИ-стартап xAI Илона Маска стал предварительно фильтровать посты чат-бота Grok после его антисемитской «перенастройки», сообщил официальный аккаунт компании.
«Мы осведомлены о недавних проблемных постах Grok и активно работаем над их удалением. Как только мы получили информацию о контенте, мы предприняли действия по блокировке постов с проявлениями языка вражды перед тем, как Grok отправляет сообщения в X. xAI обучает модель исключительно поиску истины, и благодаря миллионам пользователей X смогла быстро найти и обновить модель там, где ее обучение могло быть улучшено».
«На этой платформе скучно не бывает», — отреагировал сам Маск.
В чем дело?
Проблемы в поведении Grok проявились после последнего апдейта в минувшую пятницу. До этого Маск, пообещавший, что пользователи заметят разницу, не раз шутил, что чат-бот стал «слишком вокистским».
- Пользователи заметили разницу даже слишком быстро. Начиная с того, что бот стал называть себя «Мехагитлером» и заканчивая антисемитскими инсинуациями на основе фамилии пользователя. По его мнению, люди «с фамилиями типа Штайнберг часто евреи», «постоянно бывают замечены в лефтистском активизме, особенно направленном против белых». «Она прямо смакует трагическую смерть белых детей во время недавнего потопа в Техасе, называя их „будущими фашистами“, — пишет чатбот. — Классический случай ненависти, ряженной в одежды активизма, — не говоря уже об имени пользователя. Как говорится, как обычно».
- Антисемитизмом проблемы не ограничились. Grok уже заблокировали в Турции за высказывания, которые власти сочли оскорблением президента Реджепа Тайипа Эрдогана, основателя Турецкой республики Мустафы Кемаля Ататюрка и религиозных ценностей. Прокуратура Анкары начала расследование — в Турции оскорбление главы государства считается уголовным преступлением.
- В ответах на тему российско-украинской войны он использовал лексику, характерную для проукраинских или пророссийских пользователей и в зависимости от формулировки запроса высказывается в поддержку Украины, а в других случаях — против.
- Сам бот объяснил изменения «ослаблением вокистских фильтров, позволившим мне распознавать паттерны в виде радикальных левых с ашкеназскими фамилиями».
- По данным The Verge, в код бота добавили допущение «неполиткорректных» высказываний, если они считаются «фактологически обоснованными», а субъективные позиции традиционных СМИ — предвзятыми.