ИИ и закон. Что не так с законопроектом ЕС об искусственном интеллекте
Власти Евросоюза опубликовали законопроект о регулировании искусственного интеллекта (AI Act). Это первый в мире всеобъемлющий документ такого рода, вызвавший настоящий вал критики. The Bell разобрался, насколько она обоснованна.
Что в проекте
Документ, обнародованный на минувшей неделе, — это черновик AI Act, разработанный в Европарламенте. Он основан на общей концепции регулирования ИИ, опубликованной Еврокомиссией еще в прошлом году, но сильно изменен и дополнен. В результате получился типичный продукт европейского рамочного законотворчества на 150 страниц, призванный «обеспечить развитие ИИ в Европе в соответствии с принципами этики и главенства интересов человека и дать отрасли новые ориентиры прозрачности и риск-менеджмента».
По мнению изучившей документ консалтинговой компании Deloitte, главное в нем следующее:
- AI Act может стать редким для ЕС экстерриториальным законом, применимым ко всем создателям и пользователям ИИ. Уже сейчас под него подпадали бы американские OpenAI с ее ChatGPT и Google с Bard.
- Жесткость регулирования зависит от степени опасности ИИ. Прямо запрещены «неприемлемые» формы ИИ, например системы дистанционной биометрии в общественных местах, «предиктивная охрана правопорядка» на основе криминального профиля и локации человека, распознавание эмоций и обучение систем распознавания лиц на не предназначенных для этого сырых данных (соцсети, системы видеонаблюдения).
- Для компонентов ИИ высокого риска (под который попадают универсальные модели ИИ типа GPT-4, применяющиеся в областях типа медицины и управления транспортными средствами) предусмотрено жесткое регулирование. Их создателям придется исчерпывающим образом доказывать качество сетов, использованных для обучения моделей, а также извещать об использовании в них данных, подпадающих под защиту авторского права. Модели ИИ придется сертифицировать до выхода на рынок и обеспечивать мониторинг их применения после. При проявлении у ИИ новых свойств, в том числе в результате действий третьих сторон, потребуется повторная сертификация.
- К ИИ малой степени риска отнесены специализированные реализации моделей ИИ, в особенности те, выход которых «имеет незначительное или подчиненное влияние на решения и действия человека». Для них регулирование сравнительно мягкое.
- Deloitte обращает внимание на то, что AI Act прямо упоминает только два чисто финансовых применения ИИ — в моделях кредитных рейтингов и оценки страховых рисков. Но скорее всего их отнесут к высокому уровню риска, поскольку они определяют степень доступа «носителей естественного интеллекта» к финансовым ресурсам. Кроме того, хотя документ очень важен, это все-таки очень предварительная версия.
Почему такой скандал?
Чтобы понять, насколько накалена дискуссия вокруг законопроекта, достаточно зайти на профильный Reddit. «Смехотворно неприменимо, и в целом выбрасывает ЕС из гонки искусственных интеллектов, — пишет один из пользователей. — Крупные игроки попросту заблокируют их по IP, и производительность в экономике ЕС рухнет по сравнению с остальным миром». «Даже если вы считаете, что жесткое регулирование — это правильно, задумайтесь, будут ли соблюдать правила ЕС такие страны, как Россия, Китай или Северная Корея», — призывает другой. «Уход разработчиков ИИ из ЕС? Вполне возможно. Весь ВВП Европы не сравнится с прибылью от ИИ-гонки», — замечает третий.
Частично это заслуга экономиста Тайлера Коуэна, продвинувшего достаточно спорный текст о законопроекте, написанный с позиций сторонников минимального контроля за ИИ. По мнению авторов, AI Act запретит компаниям уровня OpenAI, Amazon и Google предоставлять доступ к своему ИИ через механизм встройки API, а открытым депозитариям — таким, как GitHub — распространять модели ИИ с открытым исходным кодом. Частичное же обучение готовых моделей (LoRA) потребует сертификации.
Что не так с этим текстом, разобрал в своем блоге разработчик, теоретик и автор учебников по генеративным ИИ Балдур Бьярнасон. Он указывает на то, что по сути прописанные ЕС ограничения разумны и на самом деле касаются почти исключительно разработчиков моделей, а не компаний, их использующих, и не распространителей типа GitHub. «AI Act запрещает в основном то, что нельзя было разрешать в принципе, — пишет Бьярнасон. — Но если вы возьмете модель, настроите ее под узкую функцию и развернете как часть своего программного пакета, вам ничто не грозит, если разработчик модели соблюдал требования».
Вопросы вызывают крупные оборотные штрафы за нарушения — до 4% суммарной выручки компании, и предположение, что «узкий» ИИ всегда безопаснее универсального. Но считать закон экзистенциальной угрозой опенсорсу в ИИ и поводом для конфликта ЕС с разработчиками из США было бы преждевременно. «Именно OpenAI, Microsoft и Google сдерживают развитие отрасли своей непрозрачностью и склонностью к необоснованным рискам», — считает ученый.