Почему конфликт в OpenAI касается всех

На этой неделе за драмой в компании-разработчике искусственного интеллекта OpenAI следили даже те, кто никогда не интересовался ИИ, не использовал его и толком не знает, что это такое. Не зря одно из главных изданий Кремниевой долины Techcrunch пишет шутливые инструкции о том, как отвечать на расспросы родственников о Сэме Альтмане за семейным ужином.

Свои причины интересоваться событиями вокруг OpenAI есть у каждого — от частных инвесторов (именно бум ИИ — в ответе за весь рост фондового рынка в этом году) до профессионалов, которых машинный разум в обозримом будущем лишит работы (по недавним подсчетам ОЭСР, это 27% рабочих мест в развитых странах). Конфликт в OpenAI касается и всех остальных — ведь в нем решается, по какому пути развития пойдет наше технологическое развитие. И не только.

Почему это интересно

OpenAI — необычная компания. Она была создана в 2015 году как кооперативный некоммерческий проект визионеров Кремниевой долины для развития ИИ — технологии, которая, как понимали создатели OpenAI, изменит мир. Первый миллиард долларов на запуск дали Илон Маск, Питер Тиль, Amazon, Microsoft и другие фигуры и компании первого ряда. На эти деньги они наняли команду лучших исследователей ИИ во главе с ведущим специалистом по теме из Google Ильей Суцкевером. А автором идеи, собравшим инвесторов и исследователей вместе, был Сэм Альтман — CEO главного акселератора Кремниевой долины Y Combinator, из которого выросли Airbnb, Stripe, Dropbox и еще десятки сверхуспешных компаний.

OpenAI с самого начала создавалась не как бизнес, а как научно-технологическая НКО, работающая для общественного блага. Предполагалось, что она должна, с одной стороны, совершить прорыв в сфере ИИ, а с другой — обеспечить, чтобы потенциально опасная технология развивалась под ответственным присмотром. «Трудно вообразить, сколько пользы ИИ, мыслящий на человеческом уровне, может принести обществу. И так же трудно представить, сколько вреда он может нанести, если будет построен или использован неправильно. Когда создание такого ИИ станет реальным, будет важно иметь ведущий исследовательский институт, который сможет поставить общее благо выше частного интереса», — объясняли свою миссию в первом манифесте создатели OpenAI.

Эта идеалистическая концепция предполагала, что OpenAI, зарегистрированная как НКО, будет публиковать разработки в открытом доступе, а миллиардеры-инвесторы и их компании не получат к ним приоритетного доступа. Но долго такая схема не проработала. Первые годы OpenAI не демонстрировала особых результатов, и в 2018 году главный донор Илон Маск потерял терпение — он заявил Альтману, что OpenAI безнадежно отстала от Google, предложил ее выкупить, а получив отказ, ушел, перекрыв финансирование. Альтману и партнерам пришлось пересматривать подход. В начале 2019-го OpenAI создала коммерческую дочернюю компанию OpenAI LP, в которую начала принимать классические инвесторские деньги. Через несколько месяцев якорным партнером разработчика стала Microsoft.

Служба на благо человечества все-таки сменилась частичной службой на благо одной конкретной корпорации. Но полностью концепцию отменять не стали. Во-первых, OpenAI ограничила прибыль своих инвесторов (то есть прежде всего той же Microsoft, которая к нынешнему моменту уже вкачала в компанию $13 млрд) лимитом от 100x (для ранних раундов) до 20x (для более поздних). А во-вторых, структура организации полностью лишала инвесторов управленческих прав, делегируя их головной НКО OpenAI, управляемой советом из 9 человек — основателей и независимых директоров. На прошлой неделе это сполна прочувствовала Microsoft, за свои миллиарды узнавшая об увольнении Альтмана за несколько минут до пресс-релиза.

Эти особенности устава смягчали, но не отменяли наметившееся уже в 2019 году идейное противоречие внутри совета директоров, которое и привело к нынешнему скандалу. Более бизнес-ориентированные Альтман и президент OpenAI Грег Брокман считали, что организация должна развивать больше коммерческих продуктов, а инвесторские деньги инвестировать в развитие ИИ-моделей. Илья Суцкевер и его единомышленники считали, что при таком подходе под руководством Альтмана OpenAI перестала выполнять свою первоначально задуманную цель — обеспечивать безопасность развития ИИ.

Почему это важно

На первый взгляд история OpenAI выглядит как смелый эксперимент в духе идеалистической научной фантастики 1960-х — передать управление технологическим прогрессом ученым и разработчикам и уберечь его от влияния больших корпораций, которые думают только о прибыли. Идея логичная и для современной IT-индустрии с ее культом открытого кода, и для общественности, недовольной корпорациями. Власть, которую за последние 30 лет аккумулировали и часто злопотребляют ею техногиганты, действительно не может не пугать. Совет директоров, выполнивший свою главную функцию «стоп-крана» экзистенциальных рисков для всего мира, невозможно осуждать.

Но на эксперимент в OpenAI можно посмотреть и с другой стороны. Характерно, что первым инвестором компании стал именно Илон Маск — бизнесмен, который всегда тяготился публичным статусом Tesla и связанной с ним необходимостью объясняться перед инвесторами и регуляторами. Структура управления OpenAI с этой точки зрения идеальна. Ее совет директоров не должен отчитываться ни перед кем; право менять состав совета или его численность определяет только сам совет; появившийся после 2019 года крупный акционер не имел права голоса.

«Основной бенефициар НКО OpenAI — человечество, а не инвесторы OpenAI», — дословно заявляет компания на своем официальном сайте. Это не только красиво, но и удобно: правила отчетности перед инвесторами определяет закон, а перед всем человечеством отчитываться можно в произвольной форме. Это мы и наблюдаем всю последнюю неделю. Совет директоров OpenAI так до сих пор и не объяснил, почему решил уволить Альтмана. В релизе об увольнении говорилось лишь, что «он не был последовательно откровенен в коммуникации с советом директоров» и «утратил доверие совета». О конкретных причинах в сообщении ничего не было — а они, несомненно, были. По последней версии, которую в четверг изложил Reuters, спусковым крючком неудавшегося переворота стало письмо разработчиков OpenAI, предупредивших, что последняя модель компании может стать тем самым ИИ, который окажется способен мыслить на уровне человека.

Конечно, это не значит, что завтра или даже послезавтра в лаборатории OpenAI начнется бунт машин; по описанию Reuters письмо разработчиков кажется чрезмерно алармистским, да и вряд ли 700 из 770 сотрудников OpenAI поддержали в конфликте Альтмана только из-за его демонического обаяния. Но если совет директоров «ведущего исследовательского института, который ставит общее благо выше частного интереса» считает ситуацию достаточно серьезной, чтобы уволить своего основателя, то кажется, что бенефициаров в лице всего человечества тоже надо о ней проинформировать.

Скандал вокруг OpenAI в очередной раз подтверждает очевидные вещи. Какими бы благими ни были намерения и какой хорошей ни была бы репутация, общественно важные решения не должны приниматься узким кругом людей, которые никому не подотчетны и не обязаны никого информировать и объясняться. Несовершенные правила и процедуры (пусть это даже корпоративная отчетность, которой можно до поры до времени умело манипулировать) лучше, чем никакие. А честная и конкурентная журналистика остается главным инструментом, который позволяет обществу видеть ситуацию во всей полноте. И ваша поддержка помогает не пропасть этому нужному институту. Спасибо!

Кстати, самый свежий и полный рассказ о ситуации вокруг OpenAI на русском языке от людей из Кремниевой долины, лично знакомых с участниками конфликта и инвесторами, — у нас на канале «Это Осетинская».