Современные модели климата, от которых прямо зависит мировая климатическая политика и темпы энергоперехода, не способны с достаточной точностью предсказать темпы глобального потепления — похоже, что они уперлись в фундаментальную «стену», пишет The Wall Street Journal. Это значит, что решения по климатической повестке в обозримом будущем останутся оценочными и политическими.
Проблема с облаками
То, что с климатологическими прогнозами что-то не так, стало понятно в 2018 году, когда новые модели климата (в том числе самая продвинутая CESM2) стали выдавать ускоренное на треть по сравнению с прежними глобальное потепление — до 5,3 градуса Цельсия при увеличении концентрации CO2 в атмосфере вдвое.
По оценкам ученых, концентрация углекислого газа удвоится до 2100 года, если не будут реализованы климатические цели прошлогоднего саммита в Глазго. В этих условиях важна каждая десятая градуса потепления: большинство экспертов сходится на том, что +5 градусов к средней температуре — это точка невозврата с «парниковой Землей», постепенным таянием Антарктиды и затоплением прибрежной полосы.
Ученые сразу заподозрили, что проблема в новой более совершенной модели образования облаков в атмосфере, которая тем не менее разбалансировала некоторые климатические модели в целом. Эта версия окончательно подтвердилась в прошлом году, пишет WSJ. Тесты на палеоклиматических данных показали, что модели с «новыми» облаками стали слишком чувствительными к CO2 и предсказывали температуры ниже фактических при низкой концентрации этого парникового газа и выше — при высокой.
За несколько лет разработчики перебалансировали модели и к саммиту в Глазго сузили вероятный диапазон потепления до 2,5 — 4 градусов. Это не последняя версия: обновленный доклад Межправительственной комиссии ООН по изменению климата, дающий правительствам всего мира научные основы климатической повестки, выйдет в этом году.
Предел познания
CESM2 работает на сравнительно грубой сетке 100 на 100 километров. Но для атмосферы Земли это дает уже 64 800 "кубиков" воздуха по 72 слоя в каждом. Каждый шаг прогноза требует пересчета 4,6 млн единиц данных, а каждое изменение модели - расчетов на модели за 300 симулированных лет. Для того, чтобы найти и устранить одну из ошибок, связанную с механизмом конденсации водяного пара в облаках на твердых частицах, 10 экспертам понадобилось почти пять месяцев. Всего же с 2018 года в модель было внесено пять важных изменений, и это далеко не конец.
Все это усложняется неочевидными и часто не до конца понятными обратными связями. Например, повышение средней температуры в последние десятилетия вызвало рост средней облачности в высоких широтах и снижение в тропических. А потепление океана уменьшило образование самых «белых», лучше всего отражающих солнечную радиацию слоисто-кучевых облаков, что вместе приводит к увеличенному накоплению тепла в атмосфере.
Все известные эффекты теоретически можно учесть, проблема в том, что чем лучше и подробнее модель, тем дольше она считается, причем экспоненциально. Климатологам NCAR (Национальный центр атмосферных исследований США) уже не хватает суперкомпьютера Cheyenne, который в 2016 году был в двадцатке самых быстрых в мире. Новый суперкомпьютер агентства Derecho за $40 млн, вводимый в этом году, будет в 3,5 раза мощнее, но и его едва хватит для нового поколения моделей. А для того, чтобы надежно увязать в единой симуляции локальные облачные системы, циклоны, лесные пожары и океанские течения, нужен рост мощности на три порядка — примерно в 1000 раз, говорят ученые.
Хотя модели климата имеют ключевое значение для выживания человечества в меняющемся мире, они уперлись сразу в несколько стен. Это предел сложности физических моделей, предел компьютерных мощностей, фундаментальная неопределенность хаотических процессов и проблема изменения поведения климата при меняющейся концентрации углекислого газа, метана и прочих парниковых газов, перечисляет WSJ: несмотря на улучшения, модели все еще недостаточно точны для прямого планирования.
«Климатические модели, несмотря на несовершенство, наш лучший инструмент для понимания будущего, — сказал агентству один из разработчиков GESM2 Эндрю Геттельман. — То, что они могут ошибаться, меня не слишком беспокоит. Меня пугает то, что они верны».