Теоретические основы химической технологии, 2023, T. 57, № 2, стр. 209-217

Суррогатные модели кинетики горения водорода на основе глубокого обучения

И. Акевейе a, В. В. Вановский a, А. М. Вишняков a*

a Сколковский Институт Науки и Технологий
Москва, Россия

* E-mail: easygear3428@gmail.com

Поступила в редакцию 06.11.2022
После доработки 11.01.2023
Принята к публикации 17.01.2023

Полный текст (PDF)

Аннотация

Мы представляем основанную на данных суррогатную модель химической кинетики окисления водорода воздухом с использованием рекуррентных нейронных сетей и нейронных сетей с прямой связью. Потенциальным применением работы является использование машинного обучения в решении уравнений аэрогидродинамики, что необходимо в разработке и оптимизации современных химических технологий. Анализируется чувствительность результатов к размеру набора данных и параметрам сети. Показано что нейронные сети значительно превосходят по скорости расчета прямое численное решение кинетических уравнений, в зависимости от постановки задачи и числа начальных условий, для которых одновременно предсказываются результаты. Для семикомпонентного реакционного механизма в адиабатической системе, обученная на выборке из одного миллиона начальных условий модель позволила предсказать зависимости концентраций и температуры от времени на интервале в 20 микросекунд со среднеквадратичным отклонением, не превышающим 2%. Однако были выявлены и точки с большими отклонениями, достигающими 10%, прежде всего для компонентов, концентрации которых малы. Результаты работы продемонстрировали значительный потенциал методов машинного обучения для моделирования химических превращений в решателях вычислительной аэрогидродинамики. Ресурсами увеличения точности являются: (а) раздельное моделирование краткосрочной и долгосрочной динамики; (б) повторная оптимизация параметров сети даже при незначительных модификациях реакционного механизма; (в) разработка более универсальных подходов для соблюдения законов сохранения; (г) применение физически информированного машинного обучения.

Ключевые слова: численное моделирование химических процессов, горение, детонация, детонация, нейронные сети, глубокое обучение

ВВЕДЕНИЕ

Моделирование систем с химическими реакциями и фазовыми переходами на сегодняшний день является одной из самых сложных проблем в вычислительной аэрогидродинамике (ВАГД) при разработке и оптимизации химико-технологических процессов и оборудования. Реакционная способность вызывает быстрое изменение свойств фаз: химического состава, удельного веса, температуры, давления и вязкости. Близкое к адиабатическому изменение ключевых величин, влияющих на тепломассоперенос, может происходить значительно быстрее, чем кондуктивный или конвективный перенос вещества по системе. Если уравнения переноса решаются на пространственно-временной сетке, то обыкновенные дифференциальные уравнения (ОДУ) химической кинетики решаются для каждого узла сетки с временной дискретизацией на порядки более тонкой по сравнению с дискретизацией, достаточной для решения уравнений тепломассопереноса между узлами. Помимо высоких вычислительных затрат, уравнения химической кинетики отличаются большим разнообразием и спецификой: реализация различных уравнений кинетики, характерных для газов, жидкостей и межфазных границ в универсальном решателе ВАГД сильно утяжеляет и без того изобилующий частностями программный продукт.

Очевидным решением проблем является суррогатное моделирование (СМ) на основе машинного обучения (MО): если указаны компоненты и диапазон условий, представляющих интерес, статистическая СМ обучается на большом наборе данных, сгенерированном путем решения OДУ химической кинетики с различными начальными условиями. Численное решение ОДУ на временной сетке в данном подходе считается верным. Обученная модель, реализованная в решателе ВАГД, используется для “прогнозирования” результатов решения ОДУ на каждом узле на каждом временном шаге решателя уравнений переноса. Статистическая модель может повысить вычислительную эффективность и универсальность решателя, хотя и с определенными потерями в точности [1–10].

Методы машинного обучения быстро набирают популярность в химической кинетике. Усилия направлены на достижение больших целей, таких как оптимизация констант скорости (например, обзор [1]) и энергий активации химических реакций [2], упрощение механизмов [3], прогнозирование энергий сольватации [4] и диссоциации [5]. Однако, начиная с конца 90-х годов, значительные усилия вкладываются в повышение эффективности решателей с помощью статистических подходов, основанных на данных. В литературе описан ряд попыток внедрения моделей на основе машинного обучения для предсказания изменения свойств фаз в решателях ВАГД [610], в т.ч. модели МО встраивались в весьма старые (но вычислительно эффективные коды), написанные еще на Фортране. Однако большинство этих попыток (что и естественно) пока носят либо скорее демонстрационный характер, либо решают очень конкретные задачи. В целом идея СМ для ускорения расчетов кинетики хорошо понятна. Бласко и др. [11] представили СМ на основе искусственной нейронной сети (ИНС) для горения метана. Точность предсказания в этой первой попытке вряд ли можно признать удовлетворительной. Тот же коллектив [12] представил одноступенчатый интегратор на основе ИНС для моделирования горения природного газа. Чен и др. [13] совместили линейные вычисления адаптивной табличной обработки in situ с достаточно простыми по структуре ИНС и достигли значительного сокращения объема памяти, необходимой для хранения данных, при сопоставимых затратах процессорного времени. Такая работа важна с т.з. параллелизации вычислений, ибо именно объем оперативной памяти и передача данных ограничивают производительность многих программных продуктов ВАГД [14]. Недавно Ан с соавторами [15] представили модель окисления в смеси водород–монооксид углерода–керосин, которая включала самоорганизующуюся карту для кластеризации набора данных и рекуррентную нейронную сеть для регрессии на каждой части набора данных с последующим объединением результатов. Авторы сообщили об ускорении в 8–20 раз по сравнению с решениями OДУ на временной сетке. Наконец, Шарма и др. [16] представили СМ кинетики окисления водорода на основе простой по архитектуре сети, обученной на очень большом наборе данных из 107 различных начальных условий на очень коротком (50 нс) временном масштабе, и получили очень хорошее согласие с прямым численным решением ОДУ. Авторы не представили детальных данных об ускорении вычислений и не опубликовали исходный код.

В целом, СМ химической кинетики разрабатываются давно, и все же, несмотря на определенные успехи, эти усилия не привели к разработке общих подходов. Желательным было бы применение МО неспециалистами в науке о данных, примерно так же, как инженер-строитель, рассчитывающий конструкции мостов, не является экспертом в методе конечных элементов. Для успеха необходимо четкое понимание возможностей и недостатков методов МО и обучающих наборов данных, стандартизация методологии выработки СМ, хотя бы для газовой фазы. В данной статье мы представляем СМ окисления водорода кислородом воздуха, т.е. очень хорошо известную [17] систему, в широком (20 мкс.) диапазоне времени, обсуждаем ограничения различных методов, скорость расчетов, перспективы обобщения подхода.

МОДЕЛЬ КИНЕТИКИ ОКИСЛЕНИЯ ВОДОРОДА

Рассмотрена кинетика окисления водорода воздухом в присутствии дополнительных инертных компонентов. Упрощенный [18] химический механизм включает 21 различную реакцию, в которой участвуют 8 химических соединений, включая несколько промежуточных продуктов и свободные радикалы (O2, H2, H2O, H2O2, HO2, ${{{\text{H}}}^{\centerdot }}$, ${{{\text{O}}}^{\centerdot }}$, ${\text{O}}{{{\text{H}}}^{\centerdot }}$). Два инертных соединения (N2 и Ar) не участвуют в реакциях, но влияют на временную эволюцию состава за счет вклада в теплоемкость смеси. Модель теплоемкости линейна относительно концентраций газов, уравнения параметризованы по экспериментальным данным для зависимости теплоемкости от температуры T [19]. Начальная температура T варьируется в пределах от 1000 до 3000 К, а давление p может принимать значение от 1 до 10 бар. Смесь считается идеальной, pV = vRT. Входными данными являются T, p, xi; выходными данными являются T и ${{c}_{i}}_{{\, \ne {\text{ }}{{{\text{O}}}_{2}},{{{\text{H}}}_{2}}}}$, где xi – мольная доля, а ci – концентрация каждого компонента (моль/м3). Концентрации кислорода и водорода не прогнозируются в машинном обучении, а рассчитываются на основе материального баланса, поскольку общее количество атомов H и O сохраняется в процессе окисления, рассматриваемого в изохорных условиях (V = const). В машинном обучении мы использовали начальные концентрации в качестве характеристик, а не давление и молярные доли, для улучшения работы алгоритма обучения.

ОБУЧАЮЩИЕ НАБОРЫ ДАННЫХ

Обучающая выборка включала n = 105 или ns = 106 наборов начальных условий (T, p, xi при нулевом времени t = 0). Начальные условия стохастически выбирались следующим образом:

T(t = 0): равномерное распределение a = 103, b = 3 × 103;

p(t = 0): логарифмически равномерное распределение (от 1 до 10 бар);

${{c}_{{{{{\text{H}}}_{{\text{2}}}}}}}$ (t = 0): распределение по Гауссу, μ = 0.4, σ = 0.15, cmin = 0.2;

${{c}_{{{{{\text{O}}}_{{\text{2}}}}}}}$ (t = 0): распределение по Гауссу, μ = 0.2, σ = = 0.22, cmin = 0.1;

${{c}_{{{{{\text{H}}}_{{\text{2}}}}{\text{O}}}}}$ (t = 0): распределение по Гауссу, μ = 0.15, σ = 0.3;

${{c}_{{{\text{H*}}}}}$ (t = 0): распределение по Гауссу, μ = 0.1, σ = 0.04, cmax = 0.2;

${{c}_{{{\text{O*}}}}}$ (t = 0): распределение по Гауссу, μ = 0.1, σ = 0.04, cmax = 0.2;

${{c}_{{{\text{HO*}}}}}$ (t = 0): распределение по Гауссу, μ = 0,05, σ = 0.04, cmax = 0.1;

${{c}_{{{{{\text{H}}}_{{\text{2}}}}{{{\text{O}}}_{{\text{2}}}}}}}$(t = 0): равномерное распределение, a = 9.99 × 10–5, b = 10–4;

${{c}_{{{\text{H}}{{{\text{O}}}_{{\text{2}}}}}}}$(t = 0): равномерное распределение, a = 0, b = 2 × 10–4;

cAr(t = 0): равномерное распределение, a = 0, b = 0.015;

${{c}_{{{{{\text{N}}}_{{\text{2}}}}}}}$(t = 0): равномерное распределение, a = 0, b = 0.01.

Здесь μ и σ – параметры функции Гаусса, cmax – верхний предел (точки с более высоким ci подвергаются повторной выборке), cmin – нижний предел, a и b – параметры равномерного распределения. Затем концентрации масштабируются, чтобы получить правильное давление р. Точки с суммарными молярными долями инертных компонентов, превышающими 0.9, подвергаются перевыбору. Параметры были выбраны таким образом, чтобы сформировать набор данных практически выполнимых начальных условий (хотя и не полного их множества). Зависимости вычисляются путем решения ОДУ с двойным шагом, внутренний шаг адаптивный, а внешний шаг равен 10–7 с, общее время 10–5 с (200 внешних шагов). Таким образом, каждый элемент из набора начальных условий размером 105 или 106 образует вектор независимых величин размером 11 (температура и 10 мольных концентраций, давление вычисляется), а вычисляемые ответы образуют матрицу [9 × 200] (температура и 8 концентраций, концентрации аргона и азота неизменны, можно размерность сократить до 7, если учесть сохранение кол-ва вещества). В дополнение к полным наборам данных мы экспериментировали с уменьшенным набором данных с xAr = ${{x}_{{{{{\text{N}}}_{{\text{2}}}}}}}$ = 0 (размерность независимых входных данных – 9, [7 × 200] – размер матрицы независимых ответов). Построение набора данных показано в дополнительной информации, рис. Д1. В численных экспериментах набор данных был разделен на обучающее, валидационное и тестовое подмножества в отношении 70 : 20 : 10.

Рис. 1.

Архитектура рекуррентной нейронной сети RNN, применявшейся в машинном обучении.

ПРЕДВАРИТЕЛЬНАЯ ОБРАБОТКА ДАННЫХ

Величины температуры, давления и концентрации сильно различаются; давление в диапазоне 105–106 Па, температура 1000–3000 К, а некоторые концентрации находятся в области значений 10–5 моль/м3. Существует необходимость в начальной нормализации данных и тщательном выборе целевой метрики обучения, иначе модель будет склонна обучаться на параметрах с наибольшим модулем, игнорируя другие. Мы экспериментировали с логарифмическим преобразованием, а также со стандартной нормализацией (на нулевое среднее и единичную дисперсию). Было обнаружено, что стандартная нормализация дает лучший эффект, поэтому она далее использовалось на протяжении всей работы. Таким образом, каждая рассмотренная модель была обучена на масштабированных данных.

МЕТОДЫ МАШИННОГО ОБУЧЕНИЯ

В качестве базового приближения применялись классические методы МО: линейные и ансамбли деревьев решений. Результаты показаны в дополнительной информации (рис. Д2–Д5 ). Линейные модели оказались неудовлетворительными, а регрессионные модели на основе ансамблей деревьев решений показали разумный результат, особенно градиентный бустинг [20]. В идеале расчетная модель должна обеспечивать регулируемый временной шаг в решателе ВАГД, таким образом, СМ должна прогнозировать результаты численных решений ОДУ во всем диапазоне времени (от 0 до 20 мкс). Одна из проблем градиентного бустинга заключается в случайной ошибке при больших t, тогда как, например, рекуррентная сеть показывает асимптотическую сходимость к равновесным значениям. Рекуррентная нейронная сеть RNN [21] и применялась в сочетании с авторегрессионным подходом, часто применяемым ко временным рядам. Мы разработали архитектуру RNN “один ко многим”, так что модель принимает начальные концентрации и учится предсказывать результаты на первом (t = 0 мкс) – последнем (t = 20 мкс) временных шагах. Для обучения модели мы использовали стандартную среднеквадратичную ошибку в качестве функции потерь и применили метод оптимизации Adam [22] для обучения модели.

Рис. 2.

Пример результата предсказания кинетики окисления водорода с помощью RNN: на всех вставках по оси х время, по оси у Т (К) или сi: сплошная жирная линия – численное решение ОДУ, сплошная тонкая: RNN с учетом материального баланса, пунктирная – RNN с предсказанием всех концентраций как независимых. Обучение велось по набору из 105 н. н. у.

Рис. 3.

Результаты предсказания температуры и концентраций с помощью модели FNN для t = 2 мкс. Обучение велось по набору из 105 н. н. у., представлены результаты для поднабора случайно сгенерированных (не представленных в наборе данных) 800 н. н. у. По оси х – значения, полученные численным решением ОДУ на временной сетке, по оси у – предсказанные моделью.

Рис. 4.

Время, затраченное на предсказание температуры и концентраций для одного набора начальных условий моделью RNN на одном ядре процессора Intel i7-1165G7. Размер кэша L1: 320 Kb, L2: 5.0 Mb, L3: 12 MB. Символы: RNN, время на весь временной ряд в зависимости от размера пакета одновременно обрабатываемых н. н. у., прямая: численное решение ОДУ. Размер тестового поднабора для оценки производительности 500 н. н. у.

Использовались три показателя для оценки точности: средняя нормализованная квадратическая ошибка (MNSE), средняя абсолютная процентная ошибка (MAPE) и среднеквадратичная ошибка (RMSE).

${\text{MNSE\;}}\left( {Y,\hat {Y}} \right)~\,\, = \,\,~\frac{1}{N}\sum\limits_{i~ = ~1}^N {\frac{{{{{\left\| {{{Y}_{i}}~ - ~{{{\hat {Y}}}_{{i~}}}} \right\|}}_{2}}}}{{{{{\left\| {{{Y}_{i}}} \right\|}}_{2}}}}} \,\, \times ~\,\,100\% ,$
${\text{MAPE\;(}}Y,~\hat {Y}) = \,\,~\frac{1}{N}\sum\limits_{i~ = ~1}^N {\frac{{\left| {{{Y}_{i}}~ - {{{\hat {Y}}}_{i}}~~} \right|}}{{\left| Y \right|}}} \times \,\,~100\% .$

Чтобы добиться большего ускорения, мы также провели эксперименты с использованием полносвязной нейронной сети (FNN) [23] для прогнозирования температуры и концентраций в определенный, заранее выбранный момент времени. Для оптимизации также применялся метод Аdam.

ПРЕДСКАЗАНИЯ ЭВОЛЮЦИИ ТЕМПЕРАТУРЫ И КОНЦЕНТРАЦИЙ НА ВСЕМ ВРЕМЕННОМ ИНТЕРВАЛЕ С ПОМОЩЬЮ РЕКУРРЕНТНЫХ СЕТЕЙ

Cначала рассмотрим применение RNN для предсказания всего временного ряда температур и концентраций. Оптимизация производительности приводит к следующим параметрам: отсев (dropout) 0.15, размер скрытого представления = 80, 2 слоя, β = (0.95, 0.9), скорость обучения 0.001. На рис. 2 приведен пример T(t) и ci(t), предсказанных моделью. Практически во всех системах реакция приближается к равновесию при t = 5 мкс, и при нашем подходе на результат в основном влияет область с высоким t. Совершенно очевидно, что модель не в состоянии предсказать начальную часть траектории (короткие времена), и на самом деле попытка воспроизвести начальную часть просто ухудшает производительность на интервалах более поздних (где значения T и с приближаются к равновесным значениям). Точность, достигнутая моделью, приведена в табл. 1. Даже несмотря на проблемы на коротких временах, она достаточно высокая.

Таблица 1.  

Точность предсказания (MNSE, %, на тестовом наборе) зависимости температуры и концентраций от времени моделями RNN и FNN в различные моменты времени

Модель и задача RNN, временной ряд RNN, временной ряд RNN, 5 н. н. у.** RNN, 1 н. н. у.
t = 2 мкс
FNN, 1 н. н. у ., t = 2 мкс FNN, 1 н. н. у., t = 20 мкс
n 106 105 105 105 105 105
T 0.130 0.196 0.219 0.182 0.09 0.06
${{c}_{{{{{\text{H}}}_{{\text{2}}}}}}}$ 1.52 3.38 3.66 3.21 5.45 3.14
${{c}_{{{{{\text{O}}}_{{\text{2}}}}}}}$ 1.57 3.67 3.05 2.67 4.33 1.41
${{c}_{{{{{\text{H}}}_{{\text{2}}}}{\text{O}}}}}$ 1.576 1.41 1.38 1.26 2.56 1.85
cH 1.5275 2.074 2.122 2.01 1.77 0.70
cO 1.286 1.80 1.319 1.13 1.10 1.39
cOH 0.866 1.53 1.066 0.89 0.73 1.23

 * 1, 5, 15, 100, 200 × 10–7 c. **н. н. у. – набор начальных условий.

Возникает очевидное предположение, что RNN необходимо обучать и оптимизировать отдельно для “ранней” (начальной) и “поздней” частей траектории. Ранняя часть химических превращений должна быть смоделирована с более коротким временным шагом, и сеть должна быть приспособлена специально для этой задачи. При применении RNN ко всему временному ряду (рис. 2) что именно ранняя часть воспроизводится плохо. Шарма и соавт. [16] на весьма коротких временах получали (как следует из приведенных в статье рисунков) монотонные зависимости, но скорее всего время расчетов нейросетью было сравнимо или больше с такового при использовании точного решателя. Мы также пробовали использовать время как параметр модели RNN (то есть работать не с временным рядом, а считать значения в разные моменты независимыми), но этот подход имеет и недостатки в виде случайной ошибки (подобно деревьям решений).

Мы также оптимизируем RNN для прогнозирования пяти конкретных временных шагов (шаги # 1, 5, 15, 100, 200) используя ту же нормализованную функцию потерь MNSE. Ошибки приведены в табл. 1. Сами относительные ошибки, конечно, выше, чем при предсказании всего ряда. Но надо учитывать, что три из пяти целевых моментов лежат в трудно предсказываемом начальном участке (понятно, что с практической точки зрения смысла в предсказании результатов на первом и пятом шагах нет, но методически это интересный вопрос).

ВЛИЯНИЕ РАЗМЕРА НАБОРА ДАННЫХ

Влияние размера обучающей выборки на точность также оценивалось для предсказания всего временного ряда с помощью сети RNN. Проверялся уменьшенный набор концентраций (xAr = ${{x}_{{{{{\text{N}}}_{{\text{2}}}}}}}$ = 0). Модель была обучена на расширенном наборе данных размером 106 н. н. у. c теми же параметрами, что были оптимизированы на наборе в 105 н. н. у. Результаты приведены в табл. 1. Модель, безусловно, чувствительна к размеру набора данных, ошибка существенно понизилась и практически не отличается для обучающего, тестового и валидационного наборов. Следует отметить, что Шарма и др. [16] использовали набор данных из 7 × 106 точек.

ПРЕДСКАЗАНИЯ ТЕМПЕРАТУРЫ И КОНЦЕНТРАЦИЙ В ЕДИНИЧНЫЙ МОМЕНТ ВРЕМЕНИ С ПОМОЩЬЮ МОДЕЛИ FNN

Чтобы добиться лучшего ускорения, мы применили полносвязную нейронную сеть FNN для прогнозирования температуры и концентрации в определенные момент времени (20–200 шагов, t = = 2–20 мкс). Оптимальными сочтены следующие гиперпараметры: отсев = 0, бета = (0.95, 0.99), скорость обучения = 0.005. Оценки точности приведены в табл. 1. Стоит отметить, что FNN превосходит в точности модели, основанные на ансамблях деревьев решений (cм сопроводительную информацию, разд. А) и RNN при одинаковом размере обучающего набора. Результат показан на рис. 3. Наихудшая точность достигается по отношению к ${{c}_{{{{{\text{H}}}_{{\text{2}}}}}}}$, который рассчитывается на основе всех других концентраций, что означает накопление ошибок. Причины этого еще предстоит выяснить.

ПРОИЗВОДИТЕЛЬНОСТЬ ВЫЧИСЛЕНИЙ

Производительность прогнозирования RNN и FNN сравнивается с прямыми численными решениями ОДУ. Современная архитектура популярных пакетов для работы с нейронными сетями, таких как Pytorch, оптимизирована для матричных вычислений, и производительность расчета зависит от размера набора одновременно рассчитываемых результатов. Бóльшую выгоду от распараллеливания можно получить при использовании видеоускорителей, однако в текущем проекте мы рассматривали возможность конечных расчетов на ядрах процессора (при этом используя видеоускорители для более эффективного обучения моделей). Следует отметить, что численное решение ОДУ дает результаты сразу для всех значений t. Только RNN в наших экспериментах предсказывает весь временной ряд, в то время как сравнение производительности FNN с решением ОДУ для конкретных временных шагов зависит от выбранного момента времени, который модель пытается предсказать. Допустим, при сравнении производительности СМ с ОДУ в предсказании T, ci исключительно в момент времени t = 2 мкс, решения ОДУ должны покрывать лишь интервал 0–2 мкс, тогда как для СМ все равно, какой момент времени предсказывать.

Сравнение дается для одноядерных вычислений, ибо при решении уравнений кинетики внутри решателя уравнений переноса одно ядро обслуживает много точек. Оценки проводились на системе Windows, двух разных процессорах. Время не включает запись результата на диск. Процессор и размер кеша оказали значительное влияние на производительнось нейросетевых моделей, но во всех экспериментах СМ оказалась существенно быстрее прямых решений. Результаты представлены в табл. 2 и рис. 4.

Таблица 2.  

Время, затраченное на предсказание Т и сi для 800 различных н.н.у. (Intel Core i9-11980HK 24 MB Intel® Smart Cache, использовалось одно ядро CPU, данные приведены в расчете на один набор начальных условий)

Размер пакета Время, с. на 1 н. н. у.
RNN (одно знач. t) RNN (5 знач. t) RNN (временной ряд) FNN (одно знач. t) Числ. решeнеие на сетке
128 0.0128   N/A
64 0.0131 0.0125 0.0124 0.0131  
32 0.0134 N/A
16 0.0143 N/A
4 0.0196 N/A
1 0.0406 0.0415

 * 1, 5, 15, 100, 200 × 10–7. **н. н. у. – набор начальных условий.

Можно ли было решить ОДУ много быстрее? Вряд ли, ибо даже существующая схема в общем случае должна требовать более короткого шага. При низких начальных температурах (до 1500 К в системах, где исходный стсав сильно отличается от равновесного) получена большая разница при решении ОДУ кинетики с шагом 0.01 мкс. по сравнению с шагом 0.1 мкс. В настоящей статье мы закрываем на это глаза и полагаем, что шага 0.1 мкс. в целом достаточно, что почти всегда так. Если шаг уменьшить, то СМ будет еще выгоднее вычислительно по сравнению с решением ОДУ на временной сетке.

ЗАКЛЮЧЕНИЕ

Суррогатное моделирование на основе MО является быстрой альтернативой традиционным методам решения ОДУ химической кинетики и подходит для внедрения в решатели ВАГД для моделирования химико-технологических процессов, а также потенциально может быть применено в гибком многосеточном моделировании с переменным временным шагом. Дальнейшего повышения точности можно добиться при использовании больших наборов данных, модификации функции потерь (например, путем исключения ошибок в следовых количествах из потерь), изменения архитектуры сетей (особенно RNN) и лучших способов включения материального баланса в оптимизацию. Другие возможные подходы включают применение быстрых и относительно простых ИНС с временем в качестве дополнительно входа. Однако, по-видимому, для газофазных реакций следует применять разные модели для краткосрочной и долгосрочной динамики, так как основные изменения концентрации и температуры (и, как следствие, ошибки в решении) происходят на начальных временных шагах. Это необходимо учитывать при разработке вычислительных решений нового поколения в вычислительной динамике, основанных на машинном обучении, способных поддерживать широкий спектр химических реакций различной природы, особенно когда реагенты не смешиваются с продуктами.

Исследование выполнено в рамках научной программы Национального центра физики и математики (проект “Математическое моделирование на суперЭВМ экса- и зеттафлопсной производительности”).

ОБОЗНАЧЕНИЯ И СОКРАЩЕНИЕ

ВАГД вычислительная аэро- и гидродинамика
ИНС искусственная нейронная сеть
МО машинное обучения
ОДУ обыкновенные дифференциальные уравнения
н. н. у. набор начальных условий (то есть уникальная комбинация T, ci при t = 0
СМ суррогатная модель
RNN рекуррентная нейронная сеть
FNN нейронная сеть с прямой связью
T температура, К
t время, с
P давление, 105 Па
x мольная доля
c концентрация, мол/м3
V объем, м3
N число испытаний
ИНДЕКСЫ 
i индекс компонента (принимает значения H2, O2, H, O, H2O, H2O2, HO2, OH, Ar, N2)

Список литературы

  1. Komp E., Janulaitis N., Valleau S. Progress towards machine learning reaction rate constants // Phys. Chem. Chem. Phys. 2022. V. 24. № 5. P. 2692.

  2. Grambow C.A., Pattanaik L., Green W.H. Deep Learning of Activation Energies // J. Phys. Chem. Lett. 2020. V. 11 № 8. P. 2992.

  3. Wan K., Barnaud C., Vervisch L.,Domingo P. Chemistry reduction using machine learning trained from non-premixed micro-mixing modeling: Application to DNS of a syngas turbulent oxy-flame with side-wall effects // Combustion and Flame. 2020. V. 220. № . P. 119.

  4. Lim H., Jung Y.J. MLSolvA: solvation free energy prediction from pairwise atomistic interactions by machine learning // J. Cheminformatics. 2021. V. 13. № 1. P. 56.

  5. Nakajima M., Nemoto T. Machine learning enabling prediction of the bond dissociation enthalpy of hypervalent iodine from SMILES // Sci. Rep. 2021. V. 11 № 1. P. 20207.

  6. Buchheita K., Owoyelea O., Jordana T., van Essendelft D.T., STEV: A Stabilized Explicit Variable-Load Solver with Machine Learning Acceleration for the Rapid Solution of Stiff Chemical Kinetics. 2019: arxiv. 1905/1905.09395

  7. Cerri G., Michelassi V., Monacchia S., Pica S. Kinetic combustion neural modelling integrated into computational fluid dynamics // Proc. Inst. Mech. Eng., Part A: J. Power & Energy. 2003. V. 217 № 2. P. 185.

  8. Keller A.C., Evans J.M. Application of random forest regression to the calculation of gas-phase chemistry within the GEOS-Chem chemistry model v10. Geoscientific Model Development // Geoscientific Model Development. 2019. V. 12 № 3. P. 1209-1225.

  9. Owoyele O., Pal P. ChemNODE: A neural ordinary differential equations framework for efficient chemical kinetic solvers // Energy and AI. 2022. V. 7 P. 100118

  10. Sen B.A., Menon S. Linear eddy mixing based tabulation and artificial neural networks for large eddy simulations of turbulent flames // Combustion and Flame. 2010. V. 157. № 1. P. 62.

  11. Blasco J.A., Fueyo N., Dopazo C.,Ballester J. Modelling the temporal evolution of a reduced combustion chemical system with an artificial neural network // Combustion and Flame. 1998. V. 113. № 1–2. P. 38.

  12. Blasco J.A., Fueyo N., Larroya J.C., Dopazo C., Chen Y.J. A single-step time-integrator of a methane-air chemical system using artificial neural networks // Comput and Chem. Eng. 1999. V. 23. № 9. P. 1127.

  13. Chen J.Y., Blasco J.A., Fueyo N., Dopazo C. An economical strategy for storage of chemical kinetics: Fitting in situ adaptive tabulation with artificial neural networks // Proceed Combust. Inst. 2000. V. 28 № 1. P. 115.

  14. Culpo M. Current Bottlenecks in the Scalability of OpenFOAM on Massively Parallel Clusters. 2021 10.31.2022]; Available from: https://prace-ri.eu/wp-content/uploads/Current_Bottlenecks_in_the_Scalability_of_OpenFOAM_on_Massively_Parallel_Clusters.pdf.

  15. An J., He G., Luo K., Qin F., Liu B. Artificial neural network based chemical mechanisms for computationally efficient modeling of hydrogen/carbon monoxide/kerosene combustion // International J. Hydrogen Energy. 2020. V. 45 № 53. P. 29594.

  16. Sharma A.J., Johnson R.F., Moses A.D., Kessler D.A. Deep learning for scalable chemical kinetics. in AIAA Scitech 2020 Forum. 2020. Orlando.

  17. Li J., Zhao Z., Kazakov A., Dryer F.L. An updated comprehensive kinetic model of hydrogen combustion // Int. J. Chem. Kinetics. 2004. V. 36. № 10. P. 566.

  18. Matveev V.G. A Simplified hydrogen combustion mechanism // Combustion, Explosion, and Shock Waves// 2001 V. 37 P. 3 [Матвеев В.Г. Упрощение механизма горения водорода // Физика горения и взрыва. 2001. V. 37 №. P. 3.]

  19. Гурвич Л.И. // Термодинамические свойства индивидуальных веществ Т. 4. 1978–1982, Москва: Наука.

  20. Hastie T., Tibshirani R., Friedman J.H. Boosting and Additive Trees, in The Elements of Statistical Learning. 2009. Springer: New York. p. 337–384.

  21. Williams R.J., Hinton G.E., Rumelhart D.E. Learning representations by back-propagating errors // Nature. 1986. V. 323 №. P. 533.

  22. Kingma D.P., Ba L.J. Adam: A Method for Stochastic Optimization EventInternational Conference on Learning Representations, in International Conference on Learning Representations. 2015. ICLR San Diego.

  23. Zell A. // Simulation Neuronaler Netze. 1994. Addison-Wesley.

Дополнительные материалы

скачать ESM.docx
Приложение 1.
Рисунок Д.1. - Рисунок Д.6