loading

ИИ, который всерьез угрожает человечеству. Чем Сэм Альтман так испугал директоров OpenAI

Потрясшее отрасль странное увольнение исполнительного директора OpenAI Сэма Альтмана впервые получило внятный мотив. Reuters узнал, что дело действительно в опасениях по поводу безудержного развития AGI — «универсального искусственного интеллекта».

Что случилось?

По информации агентства, незадолго до увольнения Альтмана несколько разработчиков OpenAI написали совету директоров письмо о том, что новая модель ИИ — Q* (Ку-стар) всерьез угрожает человечеству. Оно оказалось тем решающим грузом, что лег на чашу весов не в пользу Альтмана. Но и без него у совета были данные, что СЕО занимается коммерциализацией прорывных продуктов без понимания последствий.

  • Многие в OpenAI считают, что Q* уже похож на решающий прорыв к настоящему AGI, пишет Reuters. Он может решать незнакомые математические задачи, пусть и на школьном уровне, — то есть отыскивать единственный правильный ответ. Именно это, а в широком смысле — способность отличать истину от лжи, оставалось фундаментальным барьером для нынешней лингвистической модели GPT.
  • Это подразумевает возможность самообучения и саморазвития на самостоятельно полученных данных. Если OpenAI действительно этого добилась, на пути ИИ к AGI потенциально снят еще один барьер — коллапс языковой модели при обучении на ИИ-контенте. Действительно, авторы письма указали на другой проект компании — «AI scientist», посвященный созданию исследовательского ИИ.
  • Очень похоже, что именно эти проекты Альтман имел в виду, когда на саммите АСЕАН в Сан-Франциско говорил, что пару недель назад вновь «присутствовал при событии, поднимающем завесу невежества и сдвигающем границы знания». На следующий день его уволили, но уже через четыре дня Альтман триумфально вернулся в компанию под давлением сотрудников и главного акционера — Microsoft.

Чего мы не узнали

Конспирологическая версия о том, что внезапное увольнение Альтмана объясняется «моментом Оппенгеймера» (полное осознание угрозы реальной атомной бомбы) в совете директоров OpenAI, появилась на прошлой неделе. До статьи Reuters никаких подтверждений этому не было.

До публикации не было известно даже о существовании Q* как модели ИИ (само название отсылает к теории машинного обучения), но в остальном статья скудна на детали. Самое главное — в ней нет никакой информации относительно постановки решенных Q* математических задач, как и комментариев OpenAI. Без этого сказать, произошел ли реальный прорыв, невозможно: у коммерчески доступной GPT-4 тоже есть математические способности, обусловленные самой природой большой лингвистической модели (математика — это язык). Но выше школьной математики она не поднимается.

Насколько это опасно

Илон Маск, чья xAI недавно представила ИИ-чатбота Grok, назвал публикацию Reuters «крайне беспокоящей». Маск давно считает неконтролируемый AGI большой и реальной угрозой человечеству. Соучредитель ИИ-стартапа Anthropic (чатбот Claude) Джек Кларк еще в начале года предупредил, что ИИ стали развиваться темпом быстрее экспоненциального. «Другими словами, в ближайшие годы нас ждет прогресс, который невозможно даже осознать на интуитивном уровне», — считает он.

То, что человек неправильно оценивает нелинейный, а особенно экспоненциальный рост, известно давно и хорошо. В ИИ это может привести к ситуации «сегодня рано, завтра поздно», когда удобный инструмент ChatGPT породит «сверхразум».

Один из основателей OpenAI и ее главный научный сотрудник Илья Суцкевер, который мог инициировать увольнение Альтмана, но в итоге сам был вынужден покинуть совет директоров компании, недавно сказал, что AGI «будет иметь огромное и невероятное влияние на каждую сферу человеческой деятельности». Он считает AGI умнее человека совершенно достижимой целью, но предупреждает, что такой ИИ никогда не должен захотеть действовать самостоятельно.

Читайте также: «Драматично, невероятно и почти фантастически». Что Илья Суцкевер из OpenAI думает о будущем искусственного интеллекта

Узнайте больше

В чем опасность AGI, The Bell объяснял еще когда на сцену только выходил ChatGPT c GPT 3.5. Вкратце — дело не в какой-то злонамеренности ИИ, а в том, что он способен в совершенстве, и контринтуитивно для человека, выполнить некорректно поставленную или неочевидно вредоносную задачу. Как вообще работают большие языковые модели, мы популярно писали здесь, а чем так хорош GPT 4 — здесь.

Скопировать ссылку