Отдел передовых суперкомпьютеров НАСА
Обзор агентства | |
---|---|
Сформированный | 1982 |
Предыдущие агентства |
|
Штаб-квартира | Исследовательский центр Эймса НАСА , Моффетт Филд , Калифорния 37 ° 25'16 "N 122 ° 03'53" W / 37,42111 ° N 122,06472 ° W |
руководитель агентства |
|
Головной отдел | Управление геологоразведочных технологий Исследовательского центра Эймса |
Материнское агентство | Национальное управление по аэронавтике и исследованию космического пространства (НАСА) |
Веб-сайт | www |
Современные суперкомпьютерные системы | |
Плеяды | Суперкластер SGI/HPE ICE X |
Я имею в виду [1] | Система HPE E-Cell |
Электра [2] | SGI/HPE ICE X и система HPE E-Cell |
Стараться | Система общей памяти SGI UV |
Меропа [3] | Сверхскопление SGI Altix |
Подразделение передовых суперкомпьютеров НАСА (NAS) расположено в Исследовательском центре Эймса НАСА , Моффетт-Филд, в самом сердце Силиконовой долины в Маунтин-Вью , Калифорния . В течение почти сорока лет он был основным ресурсом суперкомпьютеров, моделирования и моделирования для миссий НАСА в области аэродинамики, исследования космоса, исследований погодных условий и океанских течений, а также проектирования и разработки космических кораблей и самолетов.
В настоящее время на объекте размещены петамасштабные Pleiades , Aitken и Electra суперкомпьютеры , а также терамасштабный суперкомпьютер Endeavour . Системы основаны на архитектуре SGI и HPE с процессорами Intel . В главном здании также расположены дисковые и архивные ленточные системы хранения данных емкостью более эксабайта данных, система визуализации гиперстена и одна из крупнейших сетевых фабрик InfiniBand в мире. [4] Подразделение NAS является частью Управления исследовательских технологий НАСА и управляет проектом НАСА по созданию высокопроизводительных вычислений (HECC). [5]
История
[ редактировать ]Основание
[ редактировать ]В середине 1970-х годов группа аэрокосмических инженеров из Исследовательского центра Эймса начала изучать возможность перевода аэрокосмических исследований и разработок с дорогостоящих и трудоемких испытаний в аэродинамической трубе на моделирование и проектирование с использованием моделей вычислительной гидродинамики (CFD) на суперкомпьютерах. более мощный, чем те, которые были коммерчески доступны в то время. Позже этот проект получил название «Проект численного аэродинамического симулятора (NAS)», и первый компьютер был установлен в центральном вычислительном комплексе Исследовательского центра Эймса в 1984 году.
14 марта 1985 года состоялся заклад фундамента современного суперкомпьютерного комплекса с целью строительства здания, в котором эксперты CFD, ученые-компьютерщики, специалисты по визуализации, а также инженеры по сетям и системам хранения данных могли бы находиться под одной крышей в среде совместной работы. В 1986 году NAS превратилась в полноценное подразделение НАСА, а в 1987 году персонал и оборудование NAS, включая второй суперкомпьютер Cray-2 под названием Navier, были переведены в новый объект, который был открыт 9 марта 1987 года. [6]
В 1995 году НАН сменила название на Отдел численного аэрокосмического моделирования, а в 2001 году — на то, которое имеет сегодня.
Ведущие инновации в отрасли
[ редактировать ]NAS был одним из ведущих новаторов в мире суперкомпьютеров, разработав множество инструментов и процессов, которые стали широко использоваться в коммерческих суперкомпьютерах. Некоторые из этих новинок включают в себя: [7]
- Установлен Cray первый на базе UNIX. суперкомпьютер [8]
- Внедрил модель клиент/сервер, связывающую суперкомпьютеры и рабочие станции вместе для распределения вычислений и визуализации.
- Разработал и внедрил высокоскоростную глобальную сеть (WAN), соединяющую суперкомпьютерные ресурсы с удаленными пользователями (AEROnet).
- Совместная разработка первого метода НАСА для динамического распределения производственной нагрузки между суперкомпьютерными ресурсами в географически удаленных местах (Метацентр НАСА).
- Реализация сети TCP/IP в суперкомпьютерной среде.
- Разработал пакетную систему очередей для суперкомпьютеров (NQS).
- Разработана иерархическая система хранения данных (NAStore) на базе UNIX.
- Совместно с SGI разработал первые суперкомпьютеры IRIX односистемные с 256, 512 и 1024 процессорами.
- Совместно с SGI разработал первые Linux с 512 и 1024 процессорами. односистемные суперкомпьютеры на базе
- с 2048 процессорами общей памяти Среда
Разработка программного обеспечения
[ редактировать ]NAS разрабатывает и адаптирует программное обеспечение с целью «дополнить и улучшить работу, выполняемую на ее суперкомпьютерах, включая программное обеспечение для поддержки систем, систем мониторинга, безопасности и научной визуализации», и часто предоставляет это программное обеспечение своим пользователям через Соглашение об открытом исходном коде НАСА (NAS Open Source Convention). НОСА). [9]
Некоторые из важных разработок программного обеспечения NAS включают в себя:
- NAS Parallel Benchmarks (NPB) были разработаны для оценки высокопараллельных суперкомпьютеров и имитации характеристик крупномасштабных приложений CFD.
- Portable Batch System (PBS) была первой программой пакетной обработки очередей для параллельных и распределенных систем. Он был выпущен в продажу в 1998 году и до сих пор широко используется в отрасли.
- PLOT3D был создан в 1982 году и представляет собой программу компьютерной графики, которая до сих пор используется для визуализации сеток и решений структурированных наборов данных CFD. Команда PLOT3D была удостоена четвертой по величине премии, когда-либо присуждаемой Программой NASA Space Act, за разработку своего программного обеспечения, которое произвело революцию в научной визуализации и анализе решений 3D CFD. [6]
- FAST (Flow Analysis Software Toolkit) — это программная среда, основанная на PLOT3D и используемая для анализа данных численного моделирования, которая, хотя и адаптирована для визуализации CFD, может использоваться для визуализации практически любых скалярных и векторных данных. В 1995 году он был удостоен награды НАСА «Программное обеспечение года». [10]
- INS2D и INS3D — это программы, разработанные инженерами NAS для решения уравнений Навье-Стокса несжимаемой жидкости в двух- и трехмерных обобщенных координатах соответственно для установившегося и изменяющегося во времени течения. В 1994 году INS3D получил награду НАСА «Программное обеспечение года». [6]
- Cart3D — это пакет высокоточного анализа аэродинамического проектирования, который позволяет пользователям выполнять автоматизированное CFD-моделирование сложных форм. Он до сих пор используется в НАСА и других правительственных учреждениях для тестирования концептуальных и предварительных проектов воздушных и космических аппаратов. [11] Команда Cart3D выиграла награду NASA «Программное обеспечение года» в 2002 году.
- OVERFLOW (Решатель потока на сетке со смещением) — это пакет программного обеспечения, разработанный для моделирования потока жидкости вокруг твердых тел с использованием усредненных по Рейнольдсу уравнений CFD Навье-Стокса. Это был первый CFD-код НАСА общего назначения для сеточных систем со смещением (Химера), который был выпущен за пределами НАСА в 1992 году.
- Chimera Grid Tools (CGT) — это пакет программного обеспечения, содержащий множество инструментов для подхода смещенной сетки Chimera для решения CFD-задач построения поверхностной и объемной сетки; а также манипулирование сеткой, сглаживание и проецирование.
- HiMAP Трехуровневый (внутри/междисциплинарный, мультидисциплинарный) параллельный высокоточный междисциплинарный процесс анализа (жидкости, конструкции, элементы управления), [12] [13]
История суперкомпьютеров
[ редактировать ]С момента своего строительства в 1987 году в Центре передовых суперкомпьютеров НАСА размещались и эксплуатировались одни из самых мощных суперкомпьютеров в мире. Многие из этих компьютеров включают в себя испытательные системы, созданные для тестирования новой архитектуры, оборудования или сетевых настроек, которые могут использоваться в более широком масштабе. [6] [8] Пиковая производительность отображается в операциях с плавающей запятой в секунду (флопс) .
Имя компьютера | Архитектура | Пиковая производительность | Количество процессоров | Дата установки |
---|---|---|---|---|
Крей XMP-12 | 210,53 мегафлопс | 1 | 1984 | |
Навье | Крей 2 | 1,95 гигафлопс | 4 | 1985 |
Чак | Выпуклый 3820 | 1,9 гигафлопс | 8 | 1987 |
Пьер | Мыслящие машины CM2 | 14,34 гигафлопс | 16,000 | 1987 |
43 гигафлопс | 48,000 | 1991 | ||
Стоукс | Крей 2 | 1,95 гигафлопс | 4 | 1988 |
Пайпер | CDC/ETA-10Q | 840 мегафлопс | 4 | 1988 |
Рейнольдс | Крей Y-MP | 2,54 гигафлопс | 8 | 1988 |
2,67 гигафлопс | 88 | 1988 | ||
Лагранж | Intel iPSC/860 | 7,88 гигафлопс | 128 | 1990 |
Гамма | Intel iPSC/860 | 7,68 гигафлопс | 128 | 1990 |
от Кармана | Выпуклый 3240 | 200 мегафлопс | 4 | 1991 |
Больцман | Мыслящие машины CM5 | 16,38 гигафлопс | 128 | 1993 |
Сигма | Интел Парагон | 15,60 гигафлопс | 208 | 1993 |
фон Нейман | Крей C90 | 15,36 гигафлопс | 16 | 1993 |
Орел | Крей C90 | 7,68 гигафлопс | 8 | 1993 |
Милость | Интел Парагон | 15,6 гигафлопс | 209 | 1993 |
Бэббидж | ИБМ СП-2 | 34,05 гигафлопс | 128 | 1994 |
42,56 гигафлопс | 160 | 1994 | ||
да Винчи | SGI Power Challenge | 16 | 1994 | |
SGI Power Challenge XL | 11,52 гигафлопс | 32 | 1995 | |
Ньютон | Крей J90 | 7,2 гигафлопс | 36 | 1996 |
Поросенок | SGI Происхождение 2000/250 МГц | 4 гигафлопс | 8 | 1997 |
Тьюринг | SGI Происхождение 2000/195 МГц | 9,36 гигафлопс | 24 | 1997 |
25 гигафлопс | 64 | 1997 | ||
Ферми | SGI Происхождение 2000/195 МГц | 3,12 гигафлопс | 8 | 1997 |
Хоппер | SGI Происхождение 2000/250 МГц | 32 гигафлопс | 64 | 1997 |
Эвелин | SGI Происхождение 2000/250 МГц | 4 гигафлопс | 8 | 1997 |
Стегер | SGI Происхождение 2000/250 МГц | 64 гигафлопс | 128 | 1997 |
128 гигафлопс | 256 | 1998 | ||
Ломакс | SGI Происхождение 2800/300 МГц | 307,2 гигафлопс | 512 | 1999 |
409,6 гигафлопс | 512 | 2000 | ||
Лу | SGI Происхождение 2000/250 МГц | 4,68 гигафлопс | 12 | 1999 |
Ариэль | SGI Происхождение 2000/250 МГц | 4 гигафлопс | 8 | 2000 |
Себастьян | SGI Происхождение 2000/250 МГц | 4 гигафлопс | 8 | 2000 |
СН1-512 | SGI Происхождение 3000/400 МГц | 409,6 гигафлопс | 512 | 2001 |
Яркий | Крей СВе1/500 МГц | 64 гигафлопс | 32 | 2001 |
Чепмен | SGI Происхождение 3800/400 МГц | 819,2 гигафлопс | 1,024 | 2001 |
1,23 терафлопса | 1,024 | 2002 | ||
Ломакс II | SGI Происхождение 3800/400 МГц | 409,6 гигафлопс | 512 | 2002 |
Калпана [14] | СГИ Алтикс 3000 [15] | 2,66 терафлопс | 512 | 2003 |
Крей X1 [16] | 204,8 гигафлопс | 2004 | ||
Колумбия | СГИ Алтикс 3000 [17] | 63 терафлопса | 10,240 | 2004 |
СГИ Алтикс 4700 | 10,296 | 2006 | ||
85,8 терафлопс [18] | 13,824 | 2007 | ||
Ширра | IBM POWER5+ [19] | 4,8 терафлопс | 640 | 2007 |
РТ Джонс | SGI ICE 8200 , процессоры Intel Xeon "Harpertown" | 43,5 терафлопс | 4,096 | 2007 |
Плеяды | SGI ICE 8200, процессоры Intel Xeon "Harpertown" [20] | 487 терафлопс | 51,200 | 2008 |
544 терафлопса [21] | 56,320 | 2009 | ||
Intel Xeon "Harpertown"/ "Nehalem" SGI ICE 8200, процессоры [22] | 773 терафлопса | 81,920 | 2010 | |
Intel Xeon "Harpertown"/"Nehalem"/ "Westmere" SGI ICE 8200/8400, процессоры [23] | 1,09 петафлопс | 111,104 | 2011 | |
Intel Xeon "Harpertown"/"Nehalem"/"Westmere"/ "Sandy Bridge" SGI ICE 8200/8400/X, процессоры [24] | 1,24 петафлопс | 125,980 | 2012 | |
SGI ICE 8200/8400/X, Intel Xeon "Nehalem"/"Westmere"/"Sandy Bridge"/ "Ivy Bridge" процессоры [25] | 2,87 петафлопс | 162,496 | 2013 | |
3,59 петафлопс | 184,800 | 2014 | ||
SGI ICE 8400/X, Intel Xeon "Westmere"/"Sandy Bridge"/"Ivy Bridge"/ "Haswell" процессоры [26] | 4,49 петафлопс | 198,432 | 2014 | |
5,35 петафлопс [27] | 210,336 | 2015 | ||
SGI ICE X, Intel Xeon "Sandy Bridge"/"Ivy Bridge"/"Haswell"/ "Broadwell" Процессоры [28] | 7,25 петафлопс | 246,048 | 2016 | |
Стараться | SGI UV 2000 , процессоры Intel Xeon "Sandy Bridge" [29] | 32 терафлопса | 1,536 | 2013 |
Меропа | SGI ICE 8200, процессоры Intel Xeon "Harpertown" [25] | 61 терафлопс | 5,120 | 2013 |
SGI ICE 8400, процессоры Intel Xeon "Nehalem"/"Westmere" [26] | 141 терафлопс | 1,152 | 2014 | |
Электра | SGI ICE X, процессоры Intel Xeon "Broadwell" [30] | 1,9 петафлопс | 1,152 | 2016 |
Intel Xeon Broadwell/ Skylake SGI ICE X/HPE SGI 8600 E-Cell, процессоры [31] | 4,79 петафлопс | 2,304 | 2017 | |
8,32 петафлопс [32] | 3,456 | 2018 | ||
Я имею в виду | HPE SGI 8600 E-Cell, Intel Xeon Cascade Lake процессоры [33] | 3,69 петафлопс | 1,150 | 2019 |
Имя компьютера | Архитектура | Пиковая производительность | Количество процессоров | Дата установки |
Ресурсы хранения
[ редактировать ]Дисковое хранилище
[ редактировать ]В 1987 году NAS заключила партнерское соглашение с Агентством перспективных исследовательских проектов Министерства обороны (DARPA) и Калифорнийским университетом в Беркли в проекте Redundant Array of Inexpensive Disks (RAID), цель которого заключалась в создании технологии хранения данных, объединяющей несколько компонентов дискового накопителя в один логический. единица. Завершенный в 1992 году проект RAID привел к созданию технологии распределенного хранения данных, используемой сегодня. [6]
На объекте NAS в настоящее время размещено дисковое хранилище большой емкости в параллельном кластере DMF SGI с программным обеспечением высокой доступности, состоящим из четырех 32-процессорных интерфейсных систем, которые подключены к суперкомпьютерам и системе хранения архивных лент. Система имеет 192 ГБ памяти на каждый интерфейс. [34] и 7,6 петабайт (ПБ) дискового кэша. [4] Данные, хранящиеся на диске, регулярно переносятся на ленточные архивные системы хранения данных, чтобы освободить место для других пользовательских проектов, выполняемых на суперкомпьютерах.
Системы архивирования и хранения
[ редактировать ]В 1987 году NAS разработала первую иерархическую систему хранения данных на базе UNIX, названную NAStore. Он содержал два робота с кассетной лентой StorageTek 4400, каждый емкостью около 1,1 терабайта, что сокращало время извлечения ленты с 4 минут до 15 секунд. [6]
С установкой суперкомпьютера Pleiades в 2008 году системы StorageTek, которые NAS использовал в течение 20 лет, не смогли удовлетворить потребности большего числа пользователей и увеличения размеров файлов наборов данных каждого проекта . [35] В 2009 году NAS внедрила роботизированные ленточные системы Spectra Logic T950, которые увеличили максимальную емкость объекта до 16 петабайт пространства, доступного пользователям для архивирования своих данных с суперкомпьютеров. [36] По состоянию на март 2019 года хранилище NAS увеличило общую емкость архивного хранилища ленточных библиотек Spectra Logic до 1048 петабайт (или 1 эксабайт) со степенью сжатия 35%. [34] Средство миграции данных SGI (DMF) и OpenVault управляют миграцией данных с диска на ленту и обратным переносом с ленты на диск для средства NAS.
По состоянию на март 2019 года в архивной системе хранения NAS хранится более 110 петабайт уникальных данных. [34]
Системы визуализации данных
[ редактировать ]В 1984 году NAS приобрела 25 графических терминалов SGI IRIS 1000, положив начало их долгому партнерству с компанией из Кремниевой долины, которое оказало значительное влияние на постобработку и визуализацию результатов CFD, выполняемых на суперкомпьютерах объекта. [6] Визуализация стала ключевым процессом в анализе данных моделирования, выполняемых на суперкомпьютерах, позволяя инженерам и ученым просматривать свои результаты в пространстве и способами, которые позволяют лучше понять силы CFD, действующие в их проектах.
Гиперстена
[ редактировать ]В 2002 году эксперты NAS по визуализации разработали систему визуализации под названием «гиперстена», которая включала 49 связанных между собой ЖК- панелей, которые позволяли ученым просматривать сложные наборы данных на большом динамическом экране размером семь на семь. Каждый экран имел свою собственную вычислительную мощность, позволяющую отображать, обрабатывать и обмениваться наборами данных, чтобы одно изображение могло отображаться на всех экранах, или настраивалось так, чтобы данные могли отображаться в «ячейках», как в гигантской визуальной электронной таблице. [37]
«Гипервол-2» второго поколения был разработан в 2008 году NAS в сотрудничестве с Colfax International и состоит из 128 ЖК-экранов, расположенных в сетке 8x16 шириной 23 фута и высотой 10 футов. Он способен отображать четверть миллиарда пикселей , что делает его системой научной визуализации с самым высоким разрешением в мире. [38] Он содержит 128 узлов, каждый из которых оснащен двумя четырехъядерными процессорами AMD Opteron ( Барселона ) и (GPU) Nvidia GeForce 480 GTX графическим процессором с выделенной пиковой вычислительной мощностью 128 терафлопс во всей системе — в 100 раз мощнее, чем оригинал. гиперстен. [39] Hyperwall-2 напрямую подключен к файловой системе суперкомпьютера Pleiades через сеть InfiniBand, что позволяет системе считывать данные непосредственно из файловой системы без необходимости копирования файлов в память Hyperwall-2.
В 2014 году гиперстен был модернизирован новым оборудованием: 256 процессорами Intel Xeon «Ivy Bridge» и 128 графическими процессорами NVIDIA Geforce 780 Ti. Обновление увеличило пиковую вычислительную мощность системы с 9 терафлопс до 57 терафлопс, и теперь она имеет почти 400 гигабайт графической памяти. [40]
В 2020 году гипервол был дополнительно модернизирован новым оборудованием: 256 процессорами Intel Xeon Platinum 8268 (Cascade Lake) и 128 графическими процессорами NVIDIA Quadro RTX 6000 с общим объемом графической памяти 3,1 терабайта. Обновление увеличило пиковую вычислительную мощность системы с 57 терафлопс до 512 терафлопс. [41]
Параллельная визуализация
[ редактировать ]Важной особенностью технологии гиперстен, разработанной в NAS, является то, что она обеспечивает «параллельную визуализацию» данных, что позволяет ученым и инженерам анализировать и интерпретировать данные во время вычислений, выполняемых на суперкомпьютерах. Это не только показывает текущее состояние вычислений для мониторинга, управления и завершения во время выполнения, но также «позволяет визуализировать с более высоким временным разрешением по сравнению с постобработкой, поскольку требования к вводу-выводу и пространству хранения в значительной степени устраняются... [и ] может показывать особенности моделирования, которые в противном случае были бы не видны». [42]
Команда визуализации NAS разработала настраиваемый параллельный конвейер для использования с моделью массового параллельного прогнозирования, запущенной на суперкомпьютере Колумбии в 2005 году, чтобы помочь прогнозировать сезон ураганов в Атлантике для Национального центра ураганов . Из-за крайних сроков подачи каждого из прогнозов было важно, чтобы процесс визуализации не мешал существенному моделированию и не приводил к его сбою.
Ссылки
[ редактировать ]- ^ «Домашняя страница суперкомпьютера Эйткен» . НАН.
- ^ «Домашняя страница суперкомпьютера Electra» . НАН.
- ^ «Домашняя страница суперкомпьютера Merope» . НАН.
- ^ Перейти обратно: а б «Отдел передовых суперкомпьютеров НАСА: передовые вычисления» (PDF) . НАН. 2019.
- ^ «Домашняя страница НАН — О подразделении НАН» . НАН.
- ^ Перейти обратно: а б с д и ж г «Брошюра к 25-летию отдела передовых суперкомпьютеров НАСА (PDF)» (PDF) . НАН. Архивировано из оригинала (PDF) 2 марта 2013 г.
- ^ «Домашняя страница NAS: История подразделения» . НАН.
- ^ Перейти обратно: а б «История высокопроизводительных компьютеров NAS». Точки сетки : 1A–12A. Весна 2002 года.
- ^ «Программное обеспечение NAS и наборы данных» . НАН.
- ^ «Набор программного обеспечения для анализа потоков НАСА» . НАСА.
- ^ «Домашняя страница NASA Cart3D» . Архивировано из оригинала 2 июня 2002 г.
- ^ «НАСА.gov» . Архивировано из оригинала 17 января 2023 г. Проверено 21 мая 2024 г.
- ^ «NASA.gov» (PDF) .
- ^ «НАСА назовет суперкомпьютер в честь астронавта Колумбии» . НАН. Май 2005 г. Архивировано из оригинала 17 марта 2013 г. Проверено 7 марта 2014 г.
- ^ «НАСА Эймс устанавливает первый в мире суперкомпьютер с процессором Alitx 512» . НАН. Ноябрь 2003 г. Архивировано из оригинала 17 марта 2013 г. Проверено 7 марта 2014 г.
- ^ «Новая система Cray X1 поступает в NAS» . НАН. Апрель 2004 года.
- ^ «НАСА представляет свой новейший и самый мощный суперкомпьютер» . НАСА. Октябрь 2004 г. Архивировано из оригинала 28 октября 2004 г. Проверено 7 марта 2014 г.
- ^ «Домашняя страница наследия суперкомпьютеров Колумбии» . НАСА.
- ^ «НАСА выбирает IBM для разработки суперкомпьютерных приложений следующего поколения» . НАСА. Июнь 2007.
- ^ «Суперкомпьютер НАСА входит в число самых быстрых в мире - ноябрь 2008 г.» . НАСА. Ноябрь 2008 г. Архивировано из оригинала 25 августа 2019 г. Проверено 7 марта 2014 г.
- ^ « Живая» интеграция стойки Pleiades экономит 2 миллиона часов» . НАН. Февраль 2010 г. Архивировано из оригинала 16 марта 2013 г. Проверено 7 марта 2014 г.
- ^ «Суперкомпьютер НАСА удваивает производительность и повышает эффективность» . НАСА. Июнь 2010 г. Архивировано из оригинала 25 августа 2019 г. Проверено 7 марта 2014 г.
- ^ «Суперкомпьютер НАСА Pleiades входит в число самых быстрых в мире» . НАСА. Июнь 2011 г. Архивировано из оригинала 21 октября 2011 г. Проверено 7 марта 2014 г.
- ^ «Суперкомпьютер «Плеяды» стал еще мощнее» . НАСА. Июнь 2012.
- ^ Перейти обратно: а б «Модернизированный суперкомпьютер НАСА «Плеяды» и перепрофилирование узлов Харпертауна» . НАН. Август 2013 г. Архивировано из оригинала 25 августа 2019 г. Проверено 7 марта 2014 г.
- ^ Перейти обратно: а б «Суперкомпьютер Pleiades НАСА модернизирован и получил прирост в один петафлопс» . НАН. Октябрь 2014 г. Архивировано из оригинала 25 августа 2019 г. Проверено 29 декабря 2014 г.
- ^ «Производительность суперкомпьютера Pleiades выросла до 5,35 петафлопс с последним расширением» . НАН. Январь 2015.
- ^ «Пиковая производительность суперкомпьютера Pleiades увеличена, емкость долговременной памяти утроена» . НАН. Июль 2016 г. Архивировано из оригинала 19 июня 2019 г. Проверено 5 марта 2020 г.
- ^ «Домашняя страница ресурсов суперкомпьютеров Endeavour» . НАН.
- ^ «НАСА Эймс запускает модульный суперкомпьютерный комплекс Pathfinding» . НАН. Февраль 2017.
- ^ «Недавно расширенный первый модульный суперкомпьютер НАСА занимает 15-е место в США в списке TOP500» . НАН. Ноябрь 2017.
- ^ «Суперкомпьютер Electra НАСА поднялся на 12-е место в США в списке TOP500» . НАН. Ноябрь 2018.
- ^ «Подразделение передовых суперкомпьютеров НАСА: модульные суперкомпьютеры» (PDF) . НАН. 2019.
- ^ Перейти обратно: а б с «Домашняя страница ресурсов системы архивного хранения HECC» . НАН.
- ^ «Модернизация хранилища NAS, ленточного накопителя и хранилища — SC09» (PDF) . НАН. Ноябрь 2009 года.
- ^ «Установка новой системы архивирования данных NAS завершена» . НАН. 2009.
- ^ «Марсианский флаер дебютирует на Hyperwall» . НАН. Сентябрь 2003 года.
- ^ «НАСА разрабатывает в мире систему визуализации с самым высоким разрешением» . НАН. Июнь 2008 года.
- ^ «Обзор систем визуализации NAS» . НАН.
- ^ «Система визуализации гиперстена NAS, обновленная с помощью узлов Ivy Bridge» . НАН. Октябрь 2014.
- ^ «Системы визуализации NAS: гипервол» . НАН. декабрь 2020.
- ^ Эллсворт, Дэвид; Брайан Грин; Крис Хенце; Патрик Моран; Тимоти Сэндстрем (сентябрь – октябрь 2006 г.). «Параллельная визуализация в производственной суперкомпьютерной среде» (PDF) . Транзакции IEEE по визуализации и компьютерной графике . 12 (5): 997–1004. дои : 10.1109/TVCG.2006.128 . ПМИД 17080827 . S2CID 14037933 .
Внешние ссылки
[ редактировать ]Передовые суперкомпьютерные ресурсы НАСА
[ редактировать ]- Домашняя страница Отдела передовых суперкомпьютеров НАСА (NAS)
- Домашняя страница вычислительной среды NAS
- Домашняя страница суперкомпьютера NAS Pleiades
- Домашняя страница суперкомпьютера NAS Aitken
- Домашняя страница суперкомпьютера NAS Electra
- Домашняя страница систем архивирования и хранения NAS
- Домашняя страница NAS Hyperwall-2