Jump to content

Национальный центр вычислительных наук

Национальный центр вычислительных наук ( NCCS ) — это Министерства энергетики США центр вычислений для руководителей (DOE), в котором находится Центр вычислений для лидеров в Ок-Ридже (OLCF), центр для пользователей Управления науки Министерства энергетики США, призванный помогать исследователям решать сложные научные проблемы глобальный интерес благодаря сочетанию ведущих ресурсов высокопроизводительных вычислений (HPC) и международного опыта в области научных вычислений. [1]

NCCS предоставляет ресурсы для расчетов и моделирования в таких областях, как астрофизика, материаловедение и исследования климата, пользователям из правительства, научных кругов и промышленности, которые сталкиваются со многими крупнейшими вычислительными проблемами в науке. [2]

Флагманский суперкомпьютер OLCF, IBM AC922 Summit , поддерживается передовыми инструментами управления и анализа данных. С 2012 года до выхода на пенсию в августе 2019 года в центре размещалась система Cray XK7 Titan , один из самых мощных научных инструментов своего времени. В том же году началось строительство Frontier OLCF , который должен дебютировать как первая экзафлопсная система в мире. 2021. [3]

9 декабря 1991 года Конгресс подписал Закон о высокопроизводительных вычислениях (HPCA) 1991 года, созданный сенатором Элом Гором . HPCA предложила создать национальную информационную инфраструктуру для создания сетей связи и баз данных, а также призвала внести предложения по созданию новых высокопроизводительных вычислительных мощностей для обслуживания науки. [4]

24 мая 1992 года ORNL получил награду за создание исследовательского центра высокопроизводительных вычислений под названием Центр вычислительных наук (CCS) как часть HPCA. [5] В том же году ORNL также получила 66-процессорный процессор Intel Paragon XP/S 5 серийного номера 1 для разработки кода. Пиковая производительность системы составляла 5 гигафлопс (5 миллиардов операций с плавающей запятой в секунду).

Национальная лаборатория Ок-Риджа (ORNL) вместе с тремя другими национальными лабораториями и семью университетами представила Министерству энергетики США предложение о Партнерстве в области вычислительной науки (PICS) в рамках Инициативы по высокопроизводительным вычислениям и коммуникациям. [6] [7]

В соответствии с Законом о возрождении высокопроизводительных вычислений 2004 года CCS было поручено реализовать проект Leadership Computing Facility (LCF) в ORNL с целью разработки и установки суперкомпьютера с производительностью петафлопс к концу 2008 года. [8] В том же году центр официально изменил свое название с Центра вычислительных наук на NCCS.

9 декабря 2019 года Джорджия Турасси , которая ранее занимала должность директора Института медицинских данных ORNL и руководителя группы биомедицинских наук, инженерии и вычислений ORNL, была назначена директором NCCS, сменив Джеймса Хака. [9]

Предыдущие системы [10]

[ редактировать ]

Intel Парагоны

[ редактировать ]

Создание CCS в 1992 году положило начало серии компьютеров Intel Paragon , в том числе:

  • Intel Paragon XP/S 5 (1992 г.): Intel Paragon XP/S 5 содержал 128 вычислительных узлов GP, расположенных в виде прямоугольной сетки 16 рядов и 8 столбцов, состоящей из одной группы узлов размером 8 на 8 по 16 МБ и одной группы узлов 8 на 8. Узлы по 32 МБ. Также были доступны четыре вычислительных узла MP по 128 МБ в сетке 2 строки на 2 столбца. Кроме того, имелся загрузочный узел MP на 128 МБ, четыре сервисных узла GP по 32 МБ и шесть узлов ввода-вывода , пять из которых были подключены к RAID- дискам емкостью 4,8 ГБ, а шестой - к RAID-диску емкостью 16 ГБ. Это обеспечило в общей сложности 40 ГБ системного дискового пространства. [11]
  • Intel Paragon XP/S 35 (1992 г.): Intel Paragon XP/S 35 содержал 512 вычислительных процессоров, расположенных в виде прямоугольной сетки из 16 рядов и 32 столбцов. Кроме того, было пять сервисных узлов и 27 узлов ввода-вывода, каждый из которых был подключен к RAID-диску емкостью 4,8 ГБ. Это обеспечило в общей сложности 130 ГБ системного дискового пространства. Каждый из пяти сервисных узлов и 512 вычислительных узлов имел по 32 МБ памяти. [12]
  • Intel Paragon XP/S 150 (1995 г.): самый быстрый компьютер в мире на момент поставки в ORNL. [13] Intel Paragon XP/S 150 имел 1024 узла, расположенных в прямоугольной сетке из 16 рядов и 64 столбцов. Это были узлы MP, а это означало, что на каждом узле было два вычислительных процессора. У большинства узлов было 64 МБ, но у 64 узлов было 128 МБ. Кроме того, было пять сервисных узлов и 127 узлов ввода-вывода (119 обычных узлов ввода-вывода и 4 высокопроизводительных узла ввода-вывода SCSI-16), каждый из которых был подключен к RAID-диску емкостью 4,8 ГБ. Это обеспечило в общей сложности 610 ГБ системного дискового пространства. [14]

Орел (2000–2005) [15]

[ редактировать ]

Eagle представлял собой 184-узловой IBM RS/6000 SP, которым управлял отдел компьютерных наук и математики ORNL. Он имел 176 «тонких» узлов Winterhawk-II, каждый с четырьмя процессорами Power3 -II с частотой 375 МГц и 2 ГБ памяти. У Eagle также было восемь «широких» узлов Winterhawk-II — каждый с двумя процессорами Power3-II с частотой 375 МГц и 2 ГБ памяти — для использования в качестве серверов файловой системы и других инфраструктурных задач. Расчетная вычислительная мощность Eagle превышала 1 терафлоп в вычислительном разделе.

Falcon представлял собой 64-узловой сервер Compaq AlphaServer SC, управляемый CCS и приобретенный в рамках проекта ранней оценки. Он имел четыре процессора Alpha EV67 с частотой 667 МГц, 2 ГБ памяти на узел и 2 ТБ подключенного диска Fibre Channel, в результате чего расчетная вычислительная мощность составляла 342 гигафлопс.

Гепард [17] (2001–2008) [18]

[ редактировать ]

Cheetah объемом 4,5 TF, представляла собой систему IBM pSeries управляемую CCS. Вычислительный раздел Cheetah включал 27 узлов p690, каждый из которых имел по тридцать два процессора Power4 с тактовой частотой 1,3 ГГц . Разделы входа и ввода-вывода вместе включали 8 узлов p655, каждый из которых имел четыре процессора Power4 с тактовой частотой 1,7 ГГц. Все узлы были подключены через межсоединение IBM Federation.

Иерархия памяти Power4 состояла из трех уровней кэша. Первый и второй уровни были на чипе Power4 (два процессора на чип). Кэш инструкций уровня 1 составлял 128 КБ (64 КБ на процессор), а кэш данных - 64 КБ (32 КБ на процессор). Кэш уровня 2 составлял 1,5 МБ, общий между двумя процессорами. Кэш-память 3-го уровня составляла 32 МБ и была внекристальной. На каждом узле было 16 чипов или 32 процессора.

Большинство вычислительных узлов Cheetah имели 32 ГБ памяти. Пять имели 64 ГБ памяти, а двое — 128 ГБ. Некоторые узлы Cheetah имели около 160 ГБ локального дискового пространства, которое можно было использовать в качестве временного рабочего пространства.

В июне 2002 года Cheetah занял восьмое место среди самых быстрых компьютеров в мире согласно TOP500 , полугодовому списку лучших суперкомпьютеров мира. [19]

Рам (2003–2007) [20]

[ редактировать ]

Ram суперкомпьютер SGI Altix, предоставленный в качестве системы поддержки NCCS.

Ram был установлен в 2003 году и использовался в качестве системы поддержки предварительной и постобработки для выделенных проектов NCCS до 2007 года.

В Ram было 256 процессоров Intel Itanium2, работающих на частоте 1,5 ГГц, каждый с 6 МБ кэш-памяти L3, 256 КБ кэш-памяти L2 и 32 КБ кэш-памяти L1. У Ram было по 8 ГБ памяти на процессор, всего 2 ТБ общей памяти. Напротив, первый суперкомпьютер в ORNL, Cray XMP, установленный в 1985 году, имел в одну миллионную долю памяти SGI Altix.

Феникс (OLCF-1) (2003–2008 гг.) [21]

[ редактировать ]

Phoenix представлял собой Cray X1E, предоставленный в качестве основной системы в NCCS.

Оригинальный X1 был установлен в 2003 году и прошел несколько обновлений, достигнув своей окончательной конфигурации в 2005 году. С октября 2005 по 2008 год он обеспечивал почти 17 миллионов процессоро-часов. Система поддерживала более 40 крупных проектов в исследовательских областях, включая климат, горение, физику высоких энергий, термоядерный синтез, химию, информатику, материаловедение и астрофизику.

В окончательной конфигурации Phoenix имел 1024 многопоточных векторных процессора (MSP). Каждый MSP имел 2 МБ кэш-памяти и пиковую скорость вычислений 18 гигафлопс. Четыре MSP сформировали узел с 8 ГБ общей памяти. Пропускная способность памяти была очень высокой, примерно вдвое меньше пропускной способности кэша. Межсоединение функционировало как расширение системы памяти, предлагая каждому узлу прямой доступ к памяти на других узлах с высокой пропускной способностью и низкой задержкой.

Ягуар (OLCF-2) (2005–2012 гг.) [22]

[ редактировать ]

Jaguar с производительностью 25 терафлопс начинался как Cray XT3 в 2005 году. Позже он был модернизирован до XT4, содержащего 7832 вычислительных узла, каждый из которых содержит четырехъядерный процессор AMD Opteron 1354, работающий на частоте 2,1 ГГц, 8 ГБ памяти DDR2-800 (некоторые узлы использовалась память DDR2-667) и маршрутизатор SeaStar2. Полученный раздел содержал 31 328 процессорных ядер, более 62 ТБ памяти, более 600 ТБ дискового пространства и пиковую производительность 263 терафлопс (263 триллиона операций с плавающей запятой в секунду).

В 2008 году Jaguar был модернизирован до Cray XT5 и стал первой системой, способной запускать научные приложения с устойчивой производительностью в петафлопс. К моменту окончательного превращения в Титан в 2012 году [23] Jaguar содержал около 300 000 вычислительных ядер и имел теоретическую пиковую производительность 3,3 петафлопс. Jaguar имел 224 256 AMD Opteron процессорных ядер на базе x86 и работал с версией Linux под названием Cray Linux Environment .

С ноября 2009 по ноябрь 2010 года Jaguar был самым мощным компьютером в мире.

Ястреб (2006–2008) [24]

[ редактировать ]

Hawk представлял собой 64-узловой Linux- кластер, предназначенный для высокопроизводительной визуализации.

Hawk был установлен в 2006 году и использовался в качестве основного кластера визуализации Центра до мая 2008 года, когда он был заменен 512-ядерной системой под названием Lens. [25]

Каждый узел содержал два одноядерных процессора Opteron и 2 ГБ памяти. Кластер был подключен сетью Quadrics Elan3, обеспечивающей высокую пропускную способность и низкую задержку связи. Кластер был заполнен двумя вариантами видеокарт NVIDIA, подключенными к AGP8x: 5900 и QuadroFX 3000G. Узлы с картами 3000G были напрямую подключены к EVEREST PowerWall и были зарезервированы для использования PowerWall.

Эвоки (2006–2011) [26]

[ редактировать ]

Ewok на базе Intel, представлял собой кластер InfiniBand работающий под управлением Linux. Система предоставлялась как сквозной ресурс для пользователей центра. Он использовался для автоматизации рабочих процессов при выполнении заданий с суперкомпьютера Jaguar и для расширенного анализа данных. Система содержала 81 узел. Каждый узел содержал два процессора Pentium IV с тактовой частотой 3,4 ГГц, центральный процессор Intel Xeon с тактовой частотой 3,4 ГГц и 6 ГБ памяти. Дополнительный узел содержал 4 двухъядерных процессора AMD и 64 ГБ памяти. В системе была установлена ​​файловая система Lustre емкостью 13 ТБ для рабочего пространства.

Евгений (2008–2011) [27]

[ редактировать ]

Юджин представлял собой систему IBM Blue Gene/P мощностью 27 терафлопс, которой управляла NCCS. Он ежегодно предоставлял около 45 миллионов процессорных часов сотрудникам ORNL и способствовал развитию исследовательского сотрудничества между ORNL и его основными университетскими партнерами-партнерами.

Система состояла из 2048 четырехъядерных процессоров IBM 450d PowerPC с частотой 850 МГц и 2 ГБ памяти на каждый узел. У Юджина было 64 узла ввода-вывода; каждое отправленное задание должно было использовать хотя бы один узел ввода-вывода. Это означает, что каждое задание потребляло минимум 32 узла за одно выполнение.

Юджин был официально выведен из эксплуатации в октябре 2011 года. Однако 13 декабря того же года часть оборудования Юджина была передана в дар Argonne Leadership Computing Facility (ALCF) в Аргоннской национальной лаборатории . [28]

Эос (2013–2019)

[ редактировать ]

Eos с 736 узлами представлял собой кластер Cray XC30 и общим объемом памяти 47,104 ТБ. Его процессором был Intel Xeon E5-2670 . Он имел 16 сервисных узлов ввода-вывода и 2 внешних узла входа в систему. Его вычислительные узлы были организованы в блейды. Каждая лопасть содержала по 4 узла. Каждый узел имел два сокета по 8 физических ядер каждый. Технология Intel HyperThreading (HT) позволяла каждому физическому ядру работать как два логических ядра, поэтому каждый узел мог функционировать так, как если бы он имел 32 ядра. В общей сложности вычислительный раздел Eos содержал 11 776 традиционных процессорных ядер (23 552 логических ядра с включенной технологией HT). [29]

Eos предоставил пространство для переноса инструментов и приложений, выполнения небольших работ по подготовке запуска возможностей на Titan, а также для создания, проверки и оптимизации программного обеспечения. [30]

Титан (OLCF-3) (2012–2019 гг.)

[ редактировать ]

Titan представлял собой систему Cray XK7 с гибридной архитектурой, теоретическая пиковая производительность которой превышала 27 000 триллионов вычислений в секунду (27 петафлопс). Он содержал как усовершенствованные 16-ядерные процессоры AMD Opteron, так и графические процессоры (GPU) NVIDIA Kepler. Эта комбинация позволила Titan достичь в 10 раз большей скорости и в 5 раз большей энергоэффективности, чем у его предшественника, суперкомпьютера Jaguar, при этом потребляя лишь немного больше энергии и занимая ту же физическую площадь. [31]

Titan имел 18 688 вычислительных узлов, общую системную память 710 ТБ и высокопроизводительную сеть Gemini от Cray. Его 299 008 ядер ЦП управляли моделированием, а сопутствующие графические процессоры одновременно обрабатывали сотни вычислений. Система позволила сократить время решения, повысить сложность моделей и повысить реалистичность моделирования. [32] В ноябре 2012 года «Титан» занял первое место в списке суперкомпьютеров TOP500. [33]

После 7 лет эксплуатации «Титан» был выведен из эксплуатации в августе 2019 года, чтобы освободить место для суперкомпьютера Frontier. [34]

Текущие системы

[ редактировать ]

Центральная файловая система Lustre OLCF , называемая Spider , является оперативной рабочей файловой системой для большинства вычислительных ресурсов OLCF. Будучи чрезвычайно высокопроизводительной системой, Spider имеет более 20 000 клиентов, предоставляя 32 ПБ дискового пространства и может перемещать данные со скоростью более 1 ТБ/с. Spider состоит из двух файловых систем, Atlas1 и Atlas2, чтобы обеспечить высокую доступность и балансировку нагрузки между несколькими серверами метаданных для повышения производительности. [35]

HPSS , архивный ресурс хранения данных ORNL, состоит из компонентов ленточного и дискового хранилища, серверов Linux и программного обеспечения высокопроизводительной системы хранения данных (HPSS). Ленточное хранилище обеспечивается роботизированными ленточными библиотеками StorageTek SL8500, каждая из которых вмещает до 10 000 картриджей. [36] В каждой библиотеке имеется 24 накопителя T10K-A , 60 накопителей T10K-B, 36 накопителей T10K-C и 72 накопителя T10K-D. [37]

ЭВЕРЕСТ (Исследовательская среда визуализации для исследований в области науки и технологий) — это крупномасштабная площадка для исследования и анализа данных. ЭВЕРЕСТ имеет размеры 30 футов в длину и 8 футов в высоту, а его главной особенностью является PowerWall с 27 проекторами с общим количеством пикселей 35 миллионов пикселей. Проекторы расположены в виде матрицы 9×3, каждый из которых обеспечивает яркость 3500 люмен для очень яркого изображения.

Стена имеет разрешение 11 520 на 3 072 пикселей и предлагает огромное количество визуальных деталей. Стена интегрирована с остальной частью вычислительного центра, создавая высокоскоростной путь передачи данных между крупномасштабными высокопроизводительными вычислениями и крупномасштабной визуализацией данных.

EVEREST управляется кластером из 14 узлов. Каждый узел содержит четыре двухъядерных процессора AMD Opteron. Эти 14 узлов оснащены видеокартами NVIDIA QuadroFX 3000G, подключенными к проекторам, что обеспечивает возможность визуализации с очень высокой пропускной способностью. Лаборатория визуализации действует как экспериментальная база для разработки будущих возможностей визуализации . В нем размещен 12-панельный плиточный ЖК-дисплей, узлы тестового кластера, устройства взаимодействия и видеооборудование.

Rhea — это Linux-кластер стандартного типа с 521 узлом. Рея обеспечивает канал для крупномасштабных научных открытий посредством предварительной и последующей обработки данных моделирования, сгенерированных на суперкомпьютере Титан. Каждый из первых 512 узлов Rhea содержит два 8-ядерных процессора Intel Xeon с тактовой частотой 2,0 ГГц и технологией Intel HT и 128 ГБ оперативной памяти. Rhea также имеет девять больших узлов графического процессора с памятью. Каждый из этих узлов имеет по 1 ТБ основной памяти и два графических процессора NVIDIA K80 с двумя 14-ядерными процессорами Intel Xeon с частотой 2,30 ГГц и технологией HT. Rhea подключена к высокопроизводительной файловой системе Lustre OLCF Atlas. [38]

Wombat — это одностоечный кластер от HPE, основанный на 64-битной архитектуре ARM вместо традиционной архитектуры на базе x86. Эта система доступна для поддержки исследовательских проектов в области информатики, направленных на изучение архитектуры ARM.

Кластер Wombat состоит из 16 вычислительных узлов, к четырем из которых подключены два графических ускорителя AMD (всего в системе восемь графических процессоров). Каждый вычислительный узел оснащен двумя 28-ядерными процессорами Cavium ThunderX2, 256 ГБ ОЗУ (16 модулей DIMM DDR4) и твердотельным накопителем емкостью 480 ГБ для локального хранилища. Узлы подключены с помощью EDR InfiniBand (~100 Гбит/с). [39]

Саммит (OLCF-4)

[ редактировать ]
Суперкомпьютер IBM AC922 Summit компании OLCF.
Суперкомпьютер IBM AC922 Summit компании OLCF.

IBM AC922 Summit , или OLCF-4 , — флагманский суперкомпьютер ORNL с производительностью 200 петафлопс. Первоначально Summit был запущен в июне 2018 года и по состоянию на ноябрь 2019 года является самым быстрым компьютером в мире с производительностью High Performance Linpack (HPL) 148,6 петафлопс. [40] Summit также является первым компьютером, достигшим экзафлопсной производительности, достигнув пиковой производительности 1,88 экзаопеса за счет сочетания операций с плавающей запятой одинарной и половинной точности . [41]

Как и его предшественник Titan, Summit использует гибридную архитектуру, которая объединяет 9216 процессоров Power9 и 27648 графических процессоров NVIDIA Volta V100 с использованием NVIDIA NVLink. [42] Summit имеет 4608 узлов (почти четверть от 18688 узлов Titan), каждый из которых имеет 512 ГБ синхронной динамической памяти с произвольным доступом с двойной скоростью передачи данных 4 (DDR4) и 96 ГБ высокоскоростной памяти (HBM2) на узел, с общей емкостью хранилища. 250 петабайт. [43]

Граница (OLCF-5)

[ редактировать ]

Первоначально запланированная к поставке в 2021 году, а доступ пользователей станет доступен в следующем году, Frontier является первой устойчивой экзафлопсной системой ORNL, что означает, что она способна выполнять один квинтиллион — один миллиард миллиардов — операций в секунду. Система состоит из более чем 100 шкафов Cray Shasta с ожидаемой пиковой производительностью около 1,5 эксафлопс. [44] [45]

Области исследований

[ редактировать ]
  • Биология . Благодаря суперкомпьютерным ресурсам OLCF исследователи могут использовать знания о молекулярном масштабе для разработки новых лекарств и медицинских методов лечения, изучения сложных биологических систем и моделирования регуляции генов. [46]
  • Химия . Суперкомпьютеры, такие как Summit, могут исследовать тонкости материи на атомном уровне, позволяя открывать основные принципы и создавать подробные молекулярные модели. [47]
  • Информатика . Исследователи разрабатывают инструменты, необходимые для оценки ряда суперкомпьютерных систем, с целью выяснить, как лучше всего использовать каждую из них, как найти наиболее подходящую для любого конкретного приложения и как адаптировать приложения для достижения максимальной производительности. [48]
  • Наука о Земле . Высокопроизводительные вычисления позволяют выполнять крупномасштабные вычисления сложных экологических и географических систем, а исследователи NCCS используют эту информацию, чтобы лучше понять изменения климата Земли, вызванные глобальным потеплением. [49]
  • Инженерное дело . Ресурсы OLCF, такие как Summit, используются для инженерных приложений, таких как моделирование газовых турбин и двигателей внутреннего сгорания. [50]
  • Термоядерный синтез . Понимание поведения термоядерной плазмы и моделирование различных аспектов устройства дает исследователям представление о конструкции ИТЭР , прототипа термоядерной электростанции. [51]
  • Материаловедение . Исследования в области материаловедения в ORNL направлены на улучшение различных областей современной жизни, от производства и передачи энергии до транспортировки и производства более быстрых, меньших по размеру и универсальных компьютеров и устройств хранения данных. [52]
  • Ядерная энергетика . Разработка новых ядерных реакторов, в которых используются усовершенствованные топливные циклы и которые соответствуют современным требованиям безопасности и нераспространения, требует сложного моделирования и симуляций. [53] Часто сложность такого моделирования приводит к необходимости использования суперкомпьютеров, которые могут обеспечить точность моделей. [54]
  • Физика . Физики используют высокопроизводительные вычислительные мощности NCCS, чтобы раскрыть фундаментальную природу материи, включая поведение кварков, электронов и других фундаментальных частиц, составляющих атомы. [55]
  1. ^ «Обзор» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  2. ^ «Обзор» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  3. ^ «Граница» . www.olcf.ornl.gov . Проверено 11 марта 2020 г.
  4. ^ «Обзор» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  5. ^ «Май 2007» . web.ornl.gov . Проверено 11 марта 2020 г.
  6. ^ Хурей, Пол Г. (24 февраля 1999 г.). «Партнерство в области вычислительной науки» . Цифровая библиотека ЕНТ . Проверено 11 марта 2020 г.
  7. ^ «Май 2007» . web.ornl.gov . Проверено 11 марта 2020 г.
  8. ^ Биггерт, Джуди (30 ноября 2004 г.). «HR4516 — 108-й Конгресс (2003–2004 гг.): Закон Министерства энергетики о возрождении высокопроизводительных вычислений 2004 г.» . www.congress.gov . Проверено 11 марта 2020 г.
  9. ^ «Турасси назначен директором Национального центра вычислительных наук ORNL» . WYSH AM 1380 . 2019-12-23 . Проверено 22 июня 2020 г.
  10. ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
  11. ^ «Описание оборудования XP/S 5» . 21 января 1997 г. Архивировано из оригинала 21 января 1997 г. Проверено 11 марта 2020 г.
  12. ^ «Вычислительный центр для руководителей в Ок-Ридже» . www.tiki-toki.com . Проверено 11 марта 2020 г.
  13. ^ «Вычислительный центр для руководителей в Ок-Ридже» . www.tiki-toki.com . Проверено 11 марта 2020 г.
  14. ^ «Описание аппаратного обеспечения Intel Paragon XP/S 150» . Архивировано из оригинала 28 апреля 1999 г.
  15. ^ «CCS: IBM SP (Орел)» . 22 июня 2006 г. Архивировано из оригинала 22 июня 2006 г. Проверено 11 марта 2020 г.
  16. ^ «Ресурсы ORNL CCS» . 10 декабря 2000 г. Архивировано из оригинала 10 декабря 2000 г. Проверено 11 марта 2020 г.
  17. ^ «CCS: Кластер IBM pSeries (Cheetah)» . 04 марта 2005 г. Архивировано из оригинала 4 марта 2005 г. Проверено 11 марта 2020 г.
  18. ^ «Декабрь 2007» . web.ornl.gov . Проверено 11 марта 2020 г.
  19. ^ «The Oak Ridger Online — Тематика: Бизнес — восьмой по скорости компьютер Cheetah, 21 июня 2002 г.» . www.csm.ornl.gov . Проверено 11 марта 2020 г.
  20. ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
  21. ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
  22. ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
  23. ^ Назад, • 7 Лет. «Ягуар ушел, но не забыт» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г. {{cite web}}: CS1 maint: числовые имена: список авторов ( ссылка )
  24. ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
  25. ^ «Линза | Национальный центр вычислительных наук» . 21 декабря 2009 г. Архивировано из оригинала 21 декабря 2009 г. Проверено 11 марта 2020 г.
  26. ^ «Национальный центр вычислительных наук » Выведенные из эксплуатации системы» . 13 сентября 2012 г. Архивировано из оригинала 13 сентября 2012 г. Проверено 11 марта 2020 г.
  27. ^ «Списанные системы» . Архивировано из оригинала 13 сентября 2012 г.
  28. ^ Назад • 8 Лет. «Вычислительный центр Ок-Риджа передает систему Юджина в дар Аргонне» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г. {{cite web}}: CS1 maint: числовые имена: список авторов ( ссылка )
  29. ^ «Эос» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  30. ^ «Эос» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  31. ^ «Титан» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  32. ^ «Титан» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  33. ^ «Титан: Национальная лаборатория Ок-Ридж | ТОП500 суперкомпьютерных сайтов» . www.top500.org . Проверено 11 марта 2020 г.
  34. ^ «Прощай, Титан» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  35. ^ «Паук» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  36. ^ «ХПСС» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  37. ^ «ХПСС» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  38. ^ «Рея» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  39. ^ «Вомбат» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  40. ^ «Ноябрь 2019 | ТОП500 суперкомпьютерных сайтов» . www.top500.org . Проверено 11 марта 2020 г.
  41. ^ «Код геномики превышает Exaops на суперкомпьютере Summit» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  42. ^ Суперкомпьютеры Summit и Sierra: взгляд изнутри на новые доэкзафлопсные системы Министерства энергетики США (PDF) . Тератек (Отчет).
  43. ^ «Саммит: в цифрах» (PDF) .
  44. ^ «Граница» . www.olcf.ornl.gov . Проверено 11 марта 2020 г.
  45. ^ «Суперкомпьютер Frontier дебютирует как самый быстрый в мире, преодолевающий экзафлопсный барьер | ORNL» . www.ornl.gov . Архивировано из оригинала 4 апреля 2024 г. Проверено 27 апреля 2024 г.
  46. ^ «Биология» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  47. ^ «Химия» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  48. ^ "Информатика" . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  49. ^ «Наука о Земле» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  50. ^ «Инжиниринг» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  51. ^ «Ускорение к будущему термоядерного синтеза» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  52. ^ «Материаловедение» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  53. ^ «Атомная энергетика» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  54. ^ «Прогнозирующая химия реалистичных систем для передовой ядерной энергетики» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
  55. ^ «Физика» . Вычислительный центр для руководителей в Ок-Ридже . Проверено 11 марта 2020 г.
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 2c5d5fa05960de5b6df8a23241097b80__1714196760
URL1:https://arc.ask3.ru/arc/aa/2c/80/2c5d5fa05960de5b6df8a23241097b80.html
Заголовок, (Title) документа по адресу, URL1:
National Center for Computational Sciences - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)