loading

DeepSeek заподозрили в использовании данных OpenAI для обучения своей модели

Внезапный успех DeepSeek заставил Microsoft и OpenAI усомниться в честности китайского стартапа. R1 — языковая модель DeepSeek — работает немногим хуже o1 от OpenAI, но обошлась разработчикам (и пользователям) в десятки раз дешевле. В Microsoft заподозрили, что DeepSeek могла нарушать условия использования OpenAI, выгружая большое количество данных через API.

Советник президента США по искусственному интеллекту Дэвид Сакс в интервью Fox News прямо заявил, что DeepSeek «просто “выжал” знания из моделей OpenAI». Сама компания выпустила заявление, в котором DeepSeek не упоминается напрямую, но явно подразумевается. В нем сказано, что OpenAI «принимает меры по защите нашей интеллектуальной собственности» и намерена сотрудничать с правительством США для защиты своих передовых моделей «от конкурентов и противников».

Позднее в разговоре с FT разработчик ChatGPT заявил, что обнаружил некоторые доказательства использования дистилляции — техники, при которой одна ИИ-модель учится на основе данных другой. Каких-либо подробностей он не привел. Для ИИ-индустрии применение дистилляции считается обычной практикой, отмечает издание, но с точки зрения OpenAI проблемой является именно создание конкурирующей модели на основе этих данных.

Скопировать ссылку