Национальный центр вычислительных наук
Национальный центр вычислительных наук ( NCCS ) — это Министерства энергетики США центр вычислений для руководителей (DOE), в котором находится Центр вычислений для лидеров в Ок-Ридже (OLCF), центр для пользователей Управления науки Министерства энергетики США, призванный помогать исследователям решать сложные научные проблемы глобальный интерес благодаря сочетанию ведущих ресурсов высокопроизводительных вычислений (HPC) и международного опыта в области научных вычислений. [1]
NCCS предоставляет ресурсы для расчетов и моделирования в таких областях, как астрофизика, материаловедение и исследования климата, пользователям из правительства, научных кругов и промышленности, которые сталкиваются со многими крупнейшими вычислительными проблемами в науке. [2]
Флагманский суперкомпьютер OLCF, IBM AC922 Summit , поддерживается передовыми инструментами управления и анализа данных. С 2012 года до выхода на пенсию в августе 2019 года в центре размещалась система Cray XK7 Titan , один из самых мощных научных инструментов своего времени. В том же году началось строительство Frontier OLCF , который должен дебютировать как первая экзафлопсная система в мире. 2021. [3]
История
[ редактировать ]9 декабря 1991 года Конгресс подписал Закон о высокопроизводительных вычислениях (HPCA) 1991 года, созданный сенатором Элом Гором . HPCA предложила создать национальную информационную инфраструктуру для создания сетей связи и баз данных, а также призвала внести предложения по созданию новых высокопроизводительных вычислительных мощностей для обслуживания науки. [4]
24 мая 1992 года ORNL получил награду за создание исследовательского центра высокопроизводительных вычислений под названием Центр вычислительных наук (CCS) как часть HPCA. [5] В том же году ORNL также получила 66-процессорный процессор Intel Paragon XP/S 5 серийного номера 1 для разработки кода. Пиковая производительность системы составляла 5 гигафлопс (5 миллиардов операций с плавающей запятой в секунду).
Национальная лаборатория Ок-Риджа (ORNL) вместе с тремя другими национальными лабораториями и семью университетами представила Министерству энергетики США предложение о Партнерстве в области вычислительной науки (PICS) в рамках Инициативы по высокопроизводительным вычислениям и коммуникациям. [6] [7]
В соответствии с Законом о возрождении высокопроизводительных вычислений 2004 года CCS было поручено реализовать проект Leadership Computing Facility (LCF) в ORNL с целью разработки и установки суперкомпьютера с производительностью петафлопс к концу 2008 года. [8] В том же году центр официально изменил свое название с Центра вычислительных наук на NCCS.
9 декабря 2019 года Джорджия Турасси , которая ранее занимала должность директора Института медицинских данных ORNL и руководителя группы биомедицинских наук, инженерии и вычислений ORNL, была назначена директором NCCS, сменив Джеймса Хака. [9]
Предыдущие системы [10]
[ редактировать ]Intel Парагоны
[ редактировать ]Создание CCS в 1992 году положило начало серии компьютеров Intel Paragon , в том числе:
- Intel Paragon XP/S 5 (1992 г.): Intel Paragon XP/S 5 содержал 128 вычислительных узлов GP, расположенных в виде прямоугольной сетки 16 рядов и 8 столбцов, состоящей из одной группы узлов размером 8 на 8 по 16 МБ и одной группы узлов 8 на 8. Узлы по 32 МБ. Также были доступны четыре вычислительных узла MP по 128 МБ в сетке 2 строки на 2 столбца. Кроме того, имелся загрузочный узел MP на 128 МБ, четыре сервисных узла GP по 32 МБ и шесть узлов ввода-вывода , пять из которых были подключены к RAID- дискам емкостью 4,8 ГБ, а шестой - к RAID-диску емкостью 16 ГБ. Это обеспечило в общей сложности 40 ГБ системного дискового пространства. [11]
- Intel Paragon XP/S 35 (1992 г.): Intel Paragon XP/S 35 содержал 512 вычислительных процессоров, расположенных в виде прямоугольной сетки из 16 рядов и 32 столбцов. Кроме того, было пять сервисных узлов и 27 узлов ввода-вывода, каждый из которых был подключен к RAID-диску емкостью 4,8 ГБ. Это обеспечило в общей сложности 130 ГБ системного дискового пространства. Каждый из пяти сервисных узлов и 512 вычислительных узлов имел по 32 МБ памяти. [12]
- Intel Paragon XP/S 150 (1995 г.): самый быстрый компьютер в мире на момент поставки в ORNL. [13] Intel Paragon XP/S 150 имел 1024 узла, расположенных в прямоугольной сетке из 16 рядов и 64 столбцов. Это были узлы MP, а это означало, что на каждом узле было два вычислительных процессора. У большинства узлов было 64 МБ, но у 64 узлов было 128 МБ. Кроме того, было пять сервисных узлов и 127 узлов ввода-вывода (119 обычных узлов ввода-вывода и 4 высокопроизводительных узла ввода-вывода SCSI-16), каждый из которых был подключен к RAID-диску емкостью 4,8 ГБ. Это обеспечило в общей сложности 610 ГБ системного дискового пространства. [14]
Орел (2000–2005) [15]
[ редактировать ]Eagle представлял собой 184-узловой IBM RS/6000 SP, которым управлял отдел компьютерных наук и математики ORNL. Он имел 176 «тонких» узлов Winterhawk-II, каждый с четырьмя процессорами Power3 -II с частотой 375 МГц и 2 ГБ памяти. У Eagle также было восемь «широких» узлов Winterhawk-II — каждый с двумя процессорами Power3-II с частотой 375 МГц и 2 ГБ памяти — для использования в качестве серверов файловой системы и других инфраструктурных задач. Расчетная вычислительная мощность Eagle превышала 1 терафлоп в вычислительном разделе.
Сокол (2000) [16]
[ редактировать ]Falcon представлял собой 64-узловой сервер Compaq AlphaServer SC, управляемый CCS и приобретенный в рамках проекта ранней оценки. Он имел четыре процессора Alpha EV67 с частотой 667 МГц, 2 ГБ памяти на узел и 2 ТБ подключенного диска Fibre Channel, в результате чего расчетная вычислительная мощность составляла 342 гигафлопс.
Гепард [17] (2001–2008) [18]
[ редактировать ]Cheetah объемом 4,5 TF, представляла собой систему IBM pSeries управляемую CCS. Вычислительный раздел Cheetah включал 27 узлов p690, каждый из которых имел по тридцать два процессора Power4 с тактовой частотой 1,3 ГГц . Разделы входа и ввода-вывода вместе включали 8 узлов p655, каждый из которых имел четыре процессора Power4 с тактовой частотой 1,7 ГГц. Все узлы были подключены через межсоединение IBM Federation.
Иерархия памяти Power4 состояла из трех уровней кэша. Первый и второй уровни были на чипе Power4 (два процессора на чип). Кэш инструкций уровня 1 составлял 128 КБ (64 КБ на процессор), а кэш данных - 64 КБ (32 КБ на процессор). Кэш уровня 2 составлял 1,5 МБ, общий между двумя процессорами. Кэш-память 3-го уровня составляла 32 МБ и была внекристальной. На каждом узле было 16 чипов или 32 процессора.
Большинство вычислительных узлов Cheetah имели 32 ГБ памяти. Пять имели 64 ГБ памяти, а двое — 128 ГБ. Некоторые узлы Cheetah имели около 160 ГБ локального дискового пространства, которое можно было использовать в качестве временного рабочего пространства.
В июне 2002 года Cheetah занял восьмое место среди самых быстрых компьютеров в мире согласно TOP500 , полугодовому списку лучших суперкомпьютеров мира. [19]
Рам (2003–2007) [20]
[ редактировать ]Ram — суперкомпьютер SGI Altix, предоставленный в качестве системы поддержки NCCS.
Ram был установлен в 2003 году и использовался в качестве системы поддержки предварительной и постобработки для выделенных проектов NCCS до 2007 года.
В Ram было 256 процессоров Intel Itanium2, работающих на частоте 1,5 ГГц, каждый с 6 МБ кэш-памяти L3, 256 КБ кэш-памяти L2 и 32 КБ кэш-памяти L1. У Ram было по 8 ГБ памяти на процессор, всего 2 ТБ общей памяти. Напротив, первый суперкомпьютер в ORNL, Cray XMP, установленный в 1985 году, имел в одну миллионную долю памяти SGI Altix.
Феникс (OLCF-1) (2003–2008 гг.) [21]
[ редактировать ]Phoenix представлял собой Cray X1E, предоставленный в качестве основной системы в NCCS.
Оригинальный X1 был установлен в 2003 году и прошел несколько обновлений, достигнув своей окончательной конфигурации в 2005 году. С октября 2005 по 2008 год он обеспечивал почти 17 миллионов процессоро-часов. Система поддерживала более 40 крупных проектов в исследовательских областях, включая климат, горение, физику высоких энергий, термоядерный синтез, химию, информатику, материаловедение и астрофизику.
В окончательной конфигурации Phoenix имел 1024 многопоточных векторных процессора (MSP). Каждый MSP имел 2 МБ кэш-памяти и пиковую скорость вычислений 18 гигафлопс. Четыре MSP сформировали узел с 8 ГБ общей памяти. Пропускная способность памяти была очень высокой, примерно вдвое меньше пропускной способности кэша. Межсоединение функционировало как расширение системы памяти, предлагая каждому узлу прямой доступ к памяти на других узлах с высокой пропускной способностью и низкой задержкой.
Ягуар (OLCF-2) (2005–2012 гг.) [22]
[ редактировать ]Jaguar с производительностью 25 терафлопс начинался как Cray XT3 в 2005 году. Позже он был модернизирован до XT4, содержащего 7832 вычислительных узла, каждый из которых содержит четырехъядерный процессор AMD Opteron 1354, работающий на частоте 2,1 ГГц, 8 ГБ памяти DDR2-800 (некоторые узлы использовалась память DDR2-667) и маршрутизатор SeaStar2. Полученный раздел содержал 31 328 процессорных ядер, более 62 ТБ памяти, более 600 ТБ дискового пространства и пиковую производительность 263 терафлопс (263 триллиона операций с плавающей запятой в секунду).
В 2008 году Jaguar был модернизирован до Cray XT5 и стал первой системой, способной запускать научные приложения с устойчивой производительностью в петафлопс. К моменту окончательного превращения в Титан в 2012 году [23] Jaguar содержал около 300 000 вычислительных ядер и имел теоретическую пиковую производительность 3,3 петафлопс. Jaguar имел 224 256 AMD Opteron процессорных ядер на базе x86 и работал с версией Linux под названием Cray Linux Environment .
С ноября 2009 по ноябрь 2010 года Jaguar был самым мощным компьютером в мире.
Ястреб (2006–2008) [24]
[ редактировать ]Hawk представлял собой 64-узловой Linux- кластер, предназначенный для высокопроизводительной визуализации.
Hawk был установлен в 2006 году и использовался в качестве основного кластера визуализации Центра до мая 2008 года, когда он был заменен 512-ядерной системой под названием Lens. [25]
Каждый узел содержал два одноядерных процессора Opteron и 2 ГБ памяти. Кластер был подключен сетью Quadrics Elan3, обеспечивающей высокую пропускную способность и низкую задержку связи. Кластер был заполнен двумя вариантами видеокарт NVIDIA, подключенными к AGP8x: 5900 и QuadroFX 3000G. Узлы с картами 3000G были напрямую подключены к EVEREST PowerWall и были зарезервированы для использования PowerWall.
Эвоки (2006–2011) [26]
[ редактировать ]Ewok на базе Intel, представлял собой кластер InfiniBand работающий под управлением Linux. Система предоставлялась как сквозной ресурс для пользователей центра. Он использовался для автоматизации рабочих процессов при выполнении заданий с суперкомпьютера Jaguar и для расширенного анализа данных. Система содержала 81 узел. Каждый узел содержал два процессора Pentium IV с тактовой частотой 3,4 ГГц, центральный процессор Intel Xeon с тактовой частотой 3,4 ГГц и 6 ГБ памяти. Дополнительный узел содержал 4 двухъядерных процессора AMD и 64 ГБ памяти. В системе была установлена файловая система Lustre емкостью 13 ТБ для рабочего пространства.
Евгений (2008–2011) [27]
[ редактировать ]Юджин представлял собой систему IBM Blue Gene/P мощностью 27 терафлопс, которой управляла NCCS. Он ежегодно предоставлял около 45 миллионов процессорных часов сотрудникам ORNL и способствовал развитию исследовательского сотрудничества между ORNL и его основными университетскими партнерами-партнерами.
Система состояла из 2048 четырехъядерных процессоров IBM 450d PowerPC с частотой 850 МГц и 2 ГБ памяти на каждый узел. У Юджина было 64 узла ввода-вывода; каждое отправленное задание должно было использовать хотя бы один узел ввода-вывода. Это означает, что каждое задание потребляло минимум 32 узла за одно выполнение.
Юджин был официально выведен из эксплуатации в октябре 2011 года. Однако 13 декабря того же года часть оборудования Юджина была передана в дар Argonne Leadership Computing Facility (ALCF) в Аргоннской национальной лаборатории . [28]
Эос (2013–2019)
[ редактировать ]Eos с 736 узлами представлял собой кластер Cray XC30 и общим объемом памяти 47,104 ТБ. Его процессором был Intel Xeon E5-2670 . Он имел 16 сервисных узлов ввода-вывода и 2 внешних узла входа в систему. Его вычислительные узлы были организованы в блейды. Каждая лопасть содержала по 4 узла. Каждый узел имел два сокета по 8 физических ядер каждый. Технология Intel HyperThreading (HT) позволяла каждому физическому ядру работать как два логических ядра, поэтому каждый узел мог функционировать так, как если бы он имел 32 ядра. В общей сложности вычислительный раздел Eos содержал 11 776 традиционных процессорных ядер (23 552 логических ядра с включенной технологией HT). [29]
Eos предоставил пространство для переноса инструментов и приложений, выполнения небольших работ по подготовке запуска возможностей на Titan, а также для создания, проверки и оптимизации программного обеспечения. [30]
Титан (OLCF-3) (2012–2019 гг.)
[ редактировать ]Titan представлял собой систему Cray XK7 с гибридной архитектурой, теоретическая пиковая производительность которой превышала 27 000 триллионов вычислений в секунду (27 петафлопс). Он содержал как усовершенствованные 16-ядерные процессоры AMD Opteron, так и графические процессоры (GPU) NVIDIA Kepler. Эта комбинация позволила Titan достичь в 10 раз большей скорости и в 5 раз большей энергоэффективности, чем у его предшественника, суперкомпьютера Jaguar, при этом потребляя лишь немного больше энергии и занимая ту же физическую площадь. [31]
Titan имел 18 688 вычислительных узлов, общую системную память 710 ТБ и высокопроизводительную сеть Gemini от Cray. Его 299 008 ядер ЦП управляли моделированием, а сопутствующие графические процессоры одновременно обрабатывали сотни вычислений. Система позволила сократить время решения, повысить сложность моделей и повысить реалистичность моделирования. [32] В ноябре 2012 года «Титан» занял первое место в списке суперкомпьютеров TOP500. [33]
После 7 лет эксплуатации «Титан» был выведен из эксплуатации в августе 2019 года, чтобы освободить место для суперкомпьютера Frontier. [34]
Текущие системы
[ редактировать ]Паук
[ редактировать ]Центральная файловая система Lustre OLCF , называемая Spider , является оперативной рабочей файловой системой для большинства вычислительных ресурсов OLCF. Будучи чрезвычайно высокопроизводительной системой, Spider имеет более 20 000 клиентов, предоставляя 32 ПБ дискового пространства и может перемещать данные со скоростью более 1 ТБ/с. Spider состоит из двух файловых систем, Atlas1 и Atlas2, чтобы обеспечить высокую доступность и балансировку нагрузки между несколькими серверами метаданных для повышения производительности. [35]
HPSS
[ редактировать ]HPSS , архивный ресурс хранения данных ORNL, состоит из компонентов ленточного и дискового хранилища, серверов Linux и программного обеспечения высокопроизводительной системы хранения данных (HPSS). Ленточное хранилище обеспечивается роботизированными ленточными библиотеками StorageTek SL8500, каждая из которых вмещает до 10 000 картриджей. [36] В каждой библиотеке имеется 24 накопителя T10K-A , 60 накопителей T10K-B, 36 накопителей T10K-C и 72 накопителя T10K-D. [37]
ЭВЕРЕСТ
[ редактировать ]ЭВЕРЕСТ (Исследовательская среда визуализации для исследований в области науки и технологий) — это крупномасштабная площадка для исследования и анализа данных. ЭВЕРЕСТ имеет размеры 30 футов в длину и 8 футов в высоту, а его главной особенностью является PowerWall с 27 проекторами с общим количеством пикселей 35 миллионов пикселей. Проекторы расположены в виде матрицы 9×3, каждый из которых обеспечивает яркость 3500 люмен для очень яркого изображения.
Стена имеет разрешение 11 520 на 3 072 пикселей и предлагает огромное количество визуальных деталей. Стена интегрирована с остальной частью вычислительного центра, создавая высокоскоростной путь передачи данных между крупномасштабными высокопроизводительными вычислениями и крупномасштабной визуализацией данных.
EVEREST управляется кластером из 14 узлов. Каждый узел содержит четыре двухъядерных процессора AMD Opteron. Эти 14 узлов оснащены видеокартами NVIDIA QuadroFX 3000G, подключенными к проекторам, что обеспечивает возможность визуализации с очень высокой пропускной способностью. Лаборатория визуализации действует как экспериментальная база для разработки будущих возможностей визуализации . В нем размещен 12-панельный плиточный ЖК-дисплей, узлы тестового кластера, устройства взаимодействия и видеооборудование.
Рея
[ редактировать ]Rhea — это Linux-кластер стандартного типа с 521 узлом. Рея обеспечивает канал для крупномасштабных научных открытий посредством предварительной и последующей обработки данных моделирования, сгенерированных на суперкомпьютере Титан. Каждый из первых 512 узлов Rhea содержит два 8-ядерных процессора Intel Xeon с тактовой частотой 2,0 ГГц и технологией Intel HT и 128 ГБ оперативной памяти. Rhea также имеет девять больших узлов графического процессора с памятью. Каждый из этих узлов имеет по 1 ТБ основной памяти и два графических процессора NVIDIA K80 с двумя 14-ядерными процессорами Intel Xeon с частотой 2,30 ГГц и технологией HT. Rhea подключена к высокопроизводительной файловой системе Lustre OLCF Atlas. [38]
Вомбат
[ редактировать ]Wombat — это одностоечный кластер от HPE, основанный на 64-битной архитектуре ARM вместо традиционной архитектуры на базе x86. Эта система доступна для поддержки исследовательских проектов в области информатики, направленных на изучение архитектуры ARM.
Кластер Wombat состоит из 16 вычислительных узлов, к четырем из которых подключены два графических ускорителя AMD (всего в системе восемь графических процессоров). Каждый вычислительный узел оснащен двумя 28-ядерными процессорами Cavium ThunderX2, 256 ГБ ОЗУ (16 модулей DIMM DDR4) и твердотельным накопителем емкостью 480 ГБ для локального хранилища. Узлы подключены с помощью EDR InfiniBand (~100 Гбит/с). [39]
Саммит (OLCF-4)
[ редактировать ]IBM AC922 Summit , или OLCF-4 , — флагманский суперкомпьютер ORNL с производительностью 200 петафлопс. Первоначально Summit был запущен в июне 2018 года и по состоянию на ноябрь 2019 года является самым быстрым компьютером в мире с производительностью High Performance Linpack (HPL) 148,6 петафлопс. [40] Summit также является первым компьютером, достигшим экзафлопсной производительности, достигнув пиковой производительности 1,88 экзаопеса за счет сочетания операций с плавающей запятой одинарной и половинной точности . [41]
Как и его предшественник Titan, Summit использует гибридную архитектуру, которая объединяет 9216 процессоров Power9 и 27648 графических процессоров NVIDIA Volta V100 с использованием NVIDIA NVLink. [42] Summit имеет 4608 узлов (почти четверть от 18688 узлов Titan), каждый из которых имеет 512 ГБ синхронной динамической памяти с произвольным доступом с двойной скоростью передачи данных 4 (DDR4) и 96 ГБ высокоскоростной памяти (HBM2) на узел, с общей емкостью хранилища. 250 петабайт. [43]
Граница (OLCF-5)
[ редактировать ]Первоначально запланированная к поставке в 2021 году, а доступ пользователей станет доступен в следующем году, Frontier является первой устойчивой экзафлопсной системой ORNL, что означает, что она способна выполнять один квинтиллион — один миллиард миллиардов — операций в секунду. Система состоит из более чем 100 шкафов Cray Shasta с ожидаемой пиковой производительностью около 1,5 эксафлопс. [44] [45]
Области исследований
[ редактировать ]- Биология . Благодаря суперкомпьютерным ресурсам OLCF исследователи могут использовать знания о молекулярном масштабе для разработки новых лекарств и медицинских методов лечения, изучения сложных биологических систем и моделирования регуляции генов. [46]
- Химия . Суперкомпьютеры, такие как Summit, могут исследовать тонкости материи на атомном уровне, позволяя открывать основные принципы и создавать подробные молекулярные модели. [47]
- Информатика . Исследователи разрабатывают инструменты, необходимые для оценки ряда суперкомпьютерных систем, с целью выяснить, как лучше всего использовать каждую из них, как найти наиболее подходящую для любого конкретного приложения и как адаптировать приложения для достижения максимальной производительности. [48]
- Наука о Земле . Высокопроизводительные вычисления позволяют выполнять крупномасштабные вычисления сложных экологических и географических систем, а исследователи NCCS используют эту информацию, чтобы лучше понять изменения климата Земли, вызванные глобальным потеплением. [49]
- Инженерное дело . Ресурсы OLCF, такие как Summit, используются для инженерных приложений, таких как моделирование газовых турбин и двигателей внутреннего сгорания. [50]
- Термоядерный синтез . Понимание поведения термоядерной плазмы и моделирование различных аспектов устройства дает исследователям представление о конструкции ИТЭР , прототипа термоядерной электростанции. [51]
- Материаловедение . Исследования в области материаловедения в ORNL направлены на улучшение различных областей современной жизни, от производства и передачи энергии до транспортировки и производства более быстрых, меньших по размеру и универсальных компьютеров и устройств хранения данных. [52]
- Ядерная энергетика . Разработка новых ядерных реакторов, в которых используются усовершенствованные топливные циклы и которые соответствуют современным требованиям безопасности и нераспространения, требует сложного моделирования и симуляций. [53] Часто сложность такого моделирования приводит к необходимости использования суперкомпьютеров, которые могут обеспечить точность моделей. [54]
- Физика . Физики используют высокопроизводительные вычислительные мощности NCCS, чтобы раскрыть фундаментальную природу материи, включая поведение кварков, электронов и других фундаментальных частиц, составляющих атомы. [55]
Ссылки
[ редактировать ]- ^ «Обзор» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Обзор» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Граница» . www.olcf.ornl.gov . Проверено 11 марта 2020 г.
- ^ «Обзор» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Май 2007» . web.ornl.gov . Проверено 11 марта 2020 г.
- ^ Хурей, Пол Г. (24 февраля 1999 г.). «Партнерство в области вычислительной науки» . Цифровая библиотека ЕНТ . Проверено 11 марта 2020 г.
- ^ «Май 2007» . web.ornl.gov . Проверено 11 марта 2020 г.
- ^ Биггерт, Джуди (30 ноября 2004 г.). «HR4516 — 108-й Конгресс (2003–2004 гг.): Закон Министерства энергетики о возрождении высокопроизводительных вычислений 2004 г.» . www.congress.gov . Проверено 11 марта 2020 г.
- ^ «Турасси назначен директором Национального центра вычислительных наук ORNL» . WYSH AM 1380 . 2019-12-23 . Проверено 22 июня 2020 г.
- ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
- ^ «Описание оборудования XP/S 5» . 21 января 1997 г. Архивировано из оригинала 21 января 1997 г. Проверено 11 марта 2020 г.
- ^ «Вычислительный центр для руководителей в Ок-Ридже» . www.tiki-toki.com . Проверено 11 марта 2020 г.
- ^ «Вычислительный центр для руководителей в Ок-Ридже» . www.tiki-toki.com . Проверено 11 марта 2020 г.
- ^ «Описание аппаратного обеспечения Intel Paragon XP/S 150» . Архивировано из оригинала 28 апреля 1999 г.
- ^ «CCS: IBM SP (Орел)» . 22 июня 2006 г. Архивировано из оригинала 22 июня 2006 г. Проверено 11 марта 2020 г.
- ^ «Ресурсы ORNL CCS» . 10 декабря 2000 г. Архивировано из оригинала 10 декабря 2000 г. Проверено 11 марта 2020 г.
- ^ «CCS: Кластер IBM pSeries (Cheetah)» . 04 марта 2005 г. Архивировано из оригинала 4 марта 2005 г. Проверено 11 марта 2020 г.
- ^ «Декабрь 2007» . web.ornl.gov . Проверено 11 марта 2020 г.
- ^ «The Oak Ridger Online — Тематика: Бизнес — восьмой по скорости компьютер Cheetah, 21 июня 2002 г.» . www.csm.ornl.gov . Проверено 11 марта 2020 г.
- ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
- ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
- ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
- ^ Назад, • 7 Лет. «Ягуар ушел, но не забыт» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
{{cite web}}
: CS1 maint: числовые имена: список авторов ( ссылка ) - ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
- ^ «Линза | Национальный центр вычислительных наук» . 21 декабря 2009 г. Архивировано из оригинала 21 декабря 2009 г. Проверено 11 марта 2020 г.
- ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
- ^ «Списанные системы» . Архивировано из оригинала 13 сентября 2012 г.
- ^ Назад • 8 Лет. «Вычислительный центр Ок-Риджа передает систему Юджина в дар Аргонне» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
{{cite web}}
: CS1 maint: числовые имена: список авторов ( ссылка ) - ^ «Эос» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Эос» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Титан» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Титан» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Титан: Национальная лаборатория Ок-Ридж | ТОП500 суперкомпьютерных сайтов» . www.top500.org . Проверено 11 марта 2020 г.
- ^ «Прощай, Титан» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Паук» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «ХПСС» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «ХПСС» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Рея» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Вомбат» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Ноябрь 2019 | ТОП500 суперкомпьютерных сайтов» . www.top500.org . Проверено 11 марта 2020 г.
- ^ «Код геномики превышает Exaops на суперкомпьютере Summit» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ Суперкомпьютеры Summit и Sierra: взгляд изнутри на новые доэкзафлопсные системы Министерства энергетики США (PDF) . Тератек (Отчет).
- ^ «Саммит: в цифрах» (PDF) .
- ^ «Граница» . www.olcf.ornl.gov . Проверено 11 марта 2020 г.
- ^ «Суперкомпьютер Frontier дебютирует как самый быстрый в мире, преодолевающий экзафлопсный барьер | ORNL» . www.ornl.gov . Архивировано из оригинала 4 апреля 2024 г. Проверено 27 апреля 2024 г.
- ^ «Биология» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Химия» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ "Информатика" . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Наука о Земле» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Инжиниринг» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Ускорение к будущему термоядерного синтеза» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Материаловедение» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Атомная энергетика» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Прогнозирующая химия реалистичных систем для передовой ядерной энергетики» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
- ^ «Физика» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.