Межатомный потенциал, полученный машинным обучением
Начиная с 1990-х годов исследователи использовали программы машинного обучения для построения межатомных потенциалов , сопоставляя атомные структуры с их потенциальными энергиями. Эти потенциалы обычно называются «межатомными потенциалами машинного обучения» (MLIP) или просто «потенциалами машинного обучения» (MLP). Такие возможности машинного обучения обещали заполнить пробел между теорией функционала плотности , высокоточной, но трудоемкой программой моделирования, и эмпирически полученными или интуитивно аппроксимируемыми потенциалами, которые были гораздо легче в вычислительном отношении, но существенно менее точными. Усовершенствования в технологии искусственного интеллекта позволили повысить точность MLP при одновременном снижении их вычислительных затрат, а также повысить роль машинного обучения в подборе потенциала. [1] [2]
Потенциал машинного обучения начался с использования нейронных сетей для работы с низкоразмерными системами. Хотя эти модели были многообещающими, они не могли систематически учитывать межатомные энергетические взаимодействия; их можно было применять к небольшим молекулам в вакууме и молекулам, взаимодействующим с замороженными поверхностями, но не более того, и даже в этих приложениях часто использовались силовые поля или потенциалы, полученные эмпирическим путем или с помощью моделирования. [1] Таким образом, эти модели остались ограниченными академическими кругами.
Современные нейронные сети создают высокоточные и простые в вычислительном отношении потенциалы, поскольку теоретическое понимание материаловедения все чаще закладывается в их архитектуру и предварительную обработку. Почти все они локальны и учитывают все взаимодействия между атомом и его соседом вплоть до некоторого радиуса отсечения. Существуют некоторые нелокальные модели, но они являются экспериментальными уже почти десять лет. Для большинства систем разумные радиусы среза позволяют получить очень точные результаты. [1] [3]
Почти все нейронные сети принимают координаты атомов и выдают потенциальную энергию. Для некоторых эти координаты атомов преобразуются в функции симметрии, центрированные атомом. На основе этих данных для каждого элемента обучается отдельная атомарная нейронная сеть; каждая атомарная нейронная сеть оценивается всякий раз, когда этот элемент встречается в данной структуре, а затем в конце результаты объединяются. Этот процесс — в частности, атомно-центрированные функции симметрии, которые передают трансляционную, вращательную и перестановочную инвариантность — значительно улучшил потенциал машинного обучения, значительно ограничив пространство поиска нейронных сетей. Другие модели используют аналогичный процесс, но делают упор на связи, а не на атомы, используют функции парной симметрии и обучают одну нейронную сеть на каждую пару атомов. [1] [4]
Другие модели вместо использования заранее определенных функций, диктующих симметрию, предпочитают вместо этого изучать свои собственные дескрипторы. Эти модели, называемые нейронными сетями передачи сообщений (MPNN), представляют собой графовые нейронные сети. Рассматривая молекулы как трехмерные графы (где атомы являются узлами, а связи — ребрами), модель принимает векторы признаков, описывающие атомы, и итеративно обновляет эти векторы признаков по мере того, как информация о соседних атомах обрабатывается с помощью функций сообщений и сверток. Эти векторы признаков затем используются для прогнозирования окончательных потенциалов. Этот метод дает большую гибкость искусственному интеллекту, что часто приводит к созданию более сильных и обобщаемых моделей. В 2017 году первая в мире модель MPNN — глубокая тензорная нейронная сеть — была использована для расчета свойств небольших органических молекул. Такая технология была коммерциализирована, что привело к разработке Matlantis в 2022 году, которая извлекает свойства как прямым, так и обратным проходом. Матлантис , которая может моделировать 72 элемента, обрабатывать до 20 000 атомов одновременно и выполнять вычисления в 20 000 000 раз быстрее, чем теория функционала плотности с почти неотличимой точностью, демонстрирует мощь потенциала машинного обучения в эпоху искусственного интеллекта. [5] [1] [6] [7]
Потенциал гауссовского приближения (GAP)
[ редактировать ]Одним из популярных классов межатомного потенциала, полученного машинным обучением, является потенциал гауссовского приближения (GAP). [8] [9] [10] который объединяет компактные дескрипторы локальных атомных сред [11] с регрессией гауссовского процесса [12] машинному изучению потенциальной энергетической поверхности данной системы. На сегодняшний день структура GAP была использована для успешной разработки ряда MLIP для различных систем, в том числе для таких элементарных систем, как Carbon , [13] Кремний , [14] Фосфор , [15] и вольфрам , [16] а также для многокомпонентных систем типа Ge 2 Sb 2 Te 5 [17] и аустенитная нержавеющая сталь Fe 7 Cr 2 Ni. [18]
Ссылки
[ редактировать ]- ^ Jump up to: а б с д и Кочер, Эмир; Ко, Цз Вай; Белер, Йорг (2022). «Потенциалы нейронных сетей: краткий обзор методов» . Ежегодный обзор физической химии . 73 : 163–86. arXiv : 2107.03727 . Бибкод : 2022ARPC...73..163K . doi : 10.1146/annurev-physchem-082720-034254 . ПМИД 34982580 .
- ^ Бланк, ТБ; Браун, SD; Калхун, AW; Дорен, диджей (1995). «Нейросетевые модели потенциальных энергетических поверхностей». Журнал химической физики . 103 (10): 4129–37. Бибкод : 1995JChPh.103.4129B . дои : 10.1063/1.469597 .
- ^ Гасеми, ЮАР; Хофстеттер, А; Саха, С; Гедекер, С. (2015). «Межатомные потенциалы для ионных систем с точностью функционала плотности на основе плотностей заряда, полученных с помощью нейронной сети». Физический обзор B . 92 (4): 045131. arXiv : 1501.07344 . Бибкод : 2015PhRvB..92d5131G . дои : 10.1103/PhysRevB.92.045131 .
- ^ Белер, Дж; Парринелло, М (2007). «Обобщенное нейросетевое представление многомерных поверхностей потенциальной энергии». Письма о физических отзывах . 148 (14). Бибкод : 2007PhRvL..98n6401B . doi : 10.1103/PhysRevLett.98.146401 . ПМИД 17501293 .
- ^ Шатт, КТ; Арбабзада, Ф; Хмиела, С; Мюллер, КР; Ткаченко, А (2017). «Квантово-химические идеи глубоких тензорных нейронных сетей» . Природные коммуникации . 8 : 13890. arXiv : 1609.08259 . Бибкод : 2017NatCo...813890S . дои : 10.1038/ncomms13890 . ПМК 5228054 . ПМИД 28067221 .
- ^ Такамото, Со; Синагава, Чикаси; Мотоки, Дайсуке; Накаго, Косуке (30 мая 2022 г.). «На пути к универсальному потенциалу нейронной сети для открытия материалов, применимых к произвольным комбинациям из 45 элементов» . Природные коммуникации . 13 (1): 2991. arXiv : 2106.14583 . Бибкод : 2022NatCo..13.2991T . дои : 10.1038/s41467-022-30687-9 . ПМЦ 9151783 . ПМИД 35637178 .
- ^ «Матлантис» .
- ^ Барток, Альберт П.; Пейн, Майк С.; Кондор, Ризи; Чаньи, Габор (01 апреля 2010 г.). «Потенциалы гауссовского приближения: точность квантовой механики без электронов» . Письма о физических отзывах . 104 (13): 136403. arXiv : 0910.1019 . Бибкод : 2010PhRvL.104m6403B . doi : 10.1103/PhysRevLett.104.136403 . ПМИД 20481899 .
- ^ Барток, Альберт П.; Де, Сандип; Поелкинг, Карл; Бернштейн, Ноам; Кермод, Джеймс Р.; Чаньи, Габор; Чериотти, Микеле (декабрь 2017 г.). «Машинное обучение объединяет моделирование материалов и молекул» . Достижения науки . 3 (12): e1701816. arXiv : 1706.00179 . Бибкод : 2017SciA....3E1816B . дои : 10.1126/sciadv.1701816 . ISSN 2375-2548 . ПМК 5729016 . ПМИД 29242828 .
- ^ «Потенциал гауссовской аппроксимации – атомистическое моделирование материалов и молекул с помощью машинного обучения» . Проверено 4 апреля 2024 г.
- ^ Барток, Альберт П.; Кондор, Ризи; Чаньи, Габор (28 мая 2013 г.). «О изображении химических сред» . Физический обзор B . 87 (18): 184115. arXiv : 1209.3140 . Бибкод : 2013PhRvB..87r4115B . дои : 10.1103/PhysRevB.87.184115 .
- ^ Расмуссен, Карл Эдвард; Уильямс, Кристофер К.И. (2008). Гауссовы процессы для машинного обучения . Адаптивные вычисления и машинное обучение (3-е печатное изд.). Кембридж, Массачусетс: MIT Press. ISBN 978-0-262-18253-9 .
- ^ Дерингер, Волкер Л.; Чаньи, Габор (3 марта 2017 г.). «Межатомный потенциал аморфного углерода на основе машинного обучения» . Физический обзор B . 95 (9): 094203. arXiv : 1611.03277 . Бибкод : 2017PhRvB..95i4203D . дои : 10.1103/PhysRevB.95.094203 .
- ^ Барток, Альберт П.; Кермод, Джеймс; Бернштейн, Ноам; Чаньи, Габор (14 декабря 2018 г.). «Машинное обучение: межатомный потенциал общего назначения для кремния» . Физический обзор X . 8 (4): 041048. arXiv : 1805.01568 . Бибкод : 2018PhRvX...8d1048B . дои : 10.1103/PhysRevX.8.041048 .
- ^ Дерингер, Волкер Л.; Каро, Мигель А.; Чаньи, Габор (29 октября 2020 г.). «Универсальное силовое поле машинного обучения для объемного и наноструктурированного фосфора» . Природные коммуникации . 11 (1): 5461. Бибкод : 2020NatCo..11.5461D . дои : 10.1038/s41467-020-19168-z . ISSN 2041-1723 . ПМЦ 7596484 . ПМИД 33122630 .
- ^ Шляхта, Войцех Й.; Барток, Альберт П.; Чаньи, Габор (24 сентября 2014 г.). «Точность и переносимость потенциальных моделей гауссовского приближения для вольфрама» . Физический обзор B . 90 (10): 104108. Бибкод : 2014PhRvB..90j4108S . дои : 10.1103/PhysRevB.90.104108 .
- ^ Мокану, Феликс К.; Константину, Константинос; Ли, Тэ Хун; Бернштейн, Ноам; Дерингер, Волкер Л.; Чаньи, Габор; Эллиотт, Стивен Р. (27 сентября 2018 г.). «Моделирование материала с памятью фазового перехода, Ge 2 Sb 2 Te 5 , с межатомным потенциалом, полученным машинным обучением» . Журнал физической химии Б. 122 (38): 8998–9006. doi : 10.1021/acs.jpcb.8b06476 . ISSN 1520-6106 . ПМИД 30173522 .
- ^ Шеной, Лакшми; Вудгейт, Кристофер Д.; Стонтон, Джули Б.; Барток, Альберт П.; Беккар, Шарлотта С.; Домен, Кристоф; Кермод, Джеймс Р. (22 марта 2024 г.). «Машина с коллинеарным спином изучила межатомный потенциал сплава ${\mathrm{Fe}}_{7}{\mathrm{Cr}}_{2}\mathrm{Ni}$» . Материалы физического обзора . 8 (3): 033804. arXiv : 2309.08689 . doi : 10.1103/PhysRevMaterials.8.033804 .