IBM Синий Джин
Разработчик | ИБМ |
---|---|
Тип | Суперкомпьютерная платформа |
Дата выпуска | БГ/Л: февраль 1999 г. БГ/П: июнь 2007 г. БГ/В: ноябрь 2011 г. |
Снято с производства | 2015 |
Процессор | БГ/Л: PowerPC 440 БГ/П: PowerPC 450 БГ/В: PowerPC A2 |
Предшественник | IBM RS/6000 СП ; ККДОК |
Преемник | Саммит , Сьерра |
Blue Gene — это проект IBM , направленный на разработку суперкомпьютеров, способных достигать рабочей скорости в диапазоне петафлопс (PFLOPS) при низком энергопотреблении.
В рамках проекта было создано три поколения суперкомпьютеров: Blue Gene/L , Blue Gene/P и Blue Gene/Q . За время своего внедрения системы Blue Gene часто возглавляли ТОП500 [1] и Грин500 [2] рейтинги самых мощных и самых энергоэффективных суперкомпьютеров соответственно. Системы Blue Gene также постоянно занимают верхние позиции в списке Graph500 . [3] Проект был награжден Национальной медалью технологий и инноваций 2009 года . [4]
После Blue Gene/Q IBM сосредоточила свои усилия в области суперкомпьютеров на платформе OpenPower , используя ускорители, такие как FPGA и GPU, для решения проблемы убывающей отдачи, связанной с законом Мура . [5] [6]
История
[ редактировать ]На конференции Supercomputing 2020 была представлена видеопрезентация истории и технологии проекта Blue Gene. [7]
В декабре 1999 года IBM объявила о пятилетней исследовательской инициативе стоимостью 100 миллионов долларов США по созданию компьютера с массовым параллелизмом , который будет применяться для изучения биомолекулярных явлений, таких как сворачивание белков . [8] Исследования и разработки проводились большой междисциплинарной командой в Исследовательском центре IBM TJ Watson , первоначально возглавляемой Уильямом Р. Пуллибланком . [9] У проекта было две основные цели: углубить понимание механизмов сворачивания белков посредством крупномасштабного моделирования и изучить новые идеи в архитектуре и программном обеспечении массово-параллельных машин. Основные области исследований включали в себя: как использовать эту новую платформу для эффективного достижения своих научных целей, как сделать такие машины с массовым параллелизмом более удобными и как достичь целевых показателей производительности при разумных затратах с помощью новых машинных архитектур.
Первоначальный дизайн Blue Gene был основан на ранней версии архитектуры Cyclops64 , разработанной Монти Денно . Параллельно Алан Гара начал работать над расширением архитектуры QCDOC до суперкомпьютера более общего назначения. Министерство энергетики США начало финансировать разработку этой системы, и она стала известна как Blue Gene/L (L — свет). Разработка оригинальной архитектуры Blue Gene продолжалась под названием Blue Gene/C (C от Cyclops), а позже — Cyclops64.
Проектирование архитектуры и логики микросхем для систем Blue Gene было выполнено в Исследовательском центре IBM TJ Watson , проектирование микросхем было завершено, и чипы были изготовлены компанией IBM Microelectronics , а системы были построены в IBM в Рочестере, штат Миннесота .
В ноябре 2004 года система из 16 стоек , каждая из которых содержит 1024 вычислительных узла, заняла первое место в списке TOP500 с в тестах LINPACK . производительностью 70,72 терафлопс [1] от NEC Таким образом, он обогнал Earth Simulator , который с 2002 года удерживал титул самого быстрого компьютера в мире. С 2004 по 2007 год установка Blue Gene/L в LLNL [10] постепенно расширился до 104 стоек, достигнув пиковой производительности Linpack 478 терафлопс и 596 терафлопс. Установка LLNL BlueGene/L удерживала первую позицию в списке TOP500 в течение 3,5 лет, пока в июне 2008 года ее не обогнала система IBM Cell-based Roadrunner в Национальной лаборатории Лос-Аламоса , которая стала первой системой, преодолевшей отметку в 1 петафлопс.
Хотя установка LLNL была самой крупной установкой Blue Gene/L, за ней последовало множество более мелких установок. за ноябрь 2006 года В список TOP500 вошли 27 компьютеров с архитектурой eServer Blue Gene Solution . Например, три стойки Blue Gene/L располагались в Суперкомпьютерном центре Сан-Диего .
В то время как TOP500 измеряет производительность в одном тестовом приложении, Linpack, Blue Gene/L также установили рекорды производительности в более широком наборе приложений. Blue Gene/L был первым суперкомпьютером, когда-либо работавшим с производительностью более 100 терафлопс в реальном приложении, а именно в коде трехмерной молекулярной динамики (ddcMD), моделирующем затвердевание (процессы зарождения и роста) расплавленного металла под высоким давлением и температурой. условия. Это достижение было удостоено премии Гордона Белла в 2005 году .
В июне 2006 года NNSA и IBM объявили, что Blue Gene/L достигла производительности 207,3 терафлопс в квантово-химическом приложении ( Qbox ). [11] На выставке Суперкомпьютеров 2006 г. [12] Компания Blue Gene/L получила приз во всех классах наград HPC Challenge. [13] В 2007 году команда из Исследовательского центра IBM в Альмадене и Университета Невады запустила искусственную нейронную сеть, почти вполовину сложную, как мозг мыши, в течение секунды (сеть работала со скоростью 1/10 от нормальной скорости в течение секунды). 10 секунд). [14]
Имя
[ редактировать ]Название Blue Gene происходит от того, для чего он изначально был разработан: помочь биологам понять процессы сворачивания белков и развития генов . [15] «Синий» — традиционное прозвище, которое IBM использует для многих своих продуктов и самой компании . Первоначальный дизайн Blue Gene был переименован в Blue Gene/C и, в конечном итоге, в Cyclops64 . Буква «L» в Blue Gene/L происходит от слова «Light», поскольку первоначальное название этого дизайна было «Blue Light». Версия «P» была разработана в петашкале . «Q» — это просто буква после «P». [16]
Основные особенности
[ редактировать ]Суперкомпьютер Blue Gene/L был уникален в следующих аспектах: [17]
- Обмен скорости процессоров на снижение энергопотребления. Blue Gene/L использовала низкочастотные и маломощные встроенные ядра PowerPC с ускорителями операций с плавающей запятой. Хотя производительность каждого чипа была относительно низкой, система могла обеспечить более высокую энергоэффективность для приложений, которые могли использовать большое количество узлов.
- Два процессора на узел с двумя режимами работы: режим сопроцессора, в котором один процессор обрабатывает вычисления, а другой обеспечивает связь; и режим виртуального узла, в котором оба процессора доступны для выполнения пользовательского кода, но процессоры разделяют как вычислительную, так и коммуникационную нагрузку.
- Система-на-чипе. Компоненты были встроены в один чип для каждого узла, за исключением внешней DRAM объемом 512 МБ.
- Большое количество узлов (масштабируемое с шагом от 1024 до минимум 65 536).
- Трехмерный тор взаимодействует со вспомогательными сетями для глобальной связи (трансляции и сокращения), ввода-вывода и управления.
- Облегченная ОС на узел для минимальных накладных расходов системы (системного шума).
Архитектура
[ редактировать ]Архитектура Blue Gene/L была развитием архитектур QCDSP и QCDOC . Каждый вычислительный узел Blue Gene/L или узел ввода-вывода представлял собой одну ASIC со связанными с ней микросхемами памяти DRAM . В ASIC интегрированы два встроенных процессора PowerPC 440 с тактовой частотой 700 МГц , каждый из которых оснащен двухконвейерным модулем с плавающей запятой двойной точности (FPU), подсистемой кэша со встроенным контроллером DRAM и логикой для поддержки нескольких подсистем связи. . Двойные FPU обеспечили каждому узлу Blue Gene/L теоретическую пиковую производительность 5,6 GFLOPS (гигафлопс) . Два процессора не имели согласованного кэша друг с другом.
Вычислительные узлы были упакованы по два на каждую вычислительную карту, по 16 вычислительных карт (таким образом, 32 узла) плюс до двух узлов ввода-вывода на каждую узловую плату. Шкаф/стойка содержала 32 узловые платы. [18] За счет интеграции всех основных подсистем на одном кристалле и использования логики с низким энергопотреблением каждый вычислительный узел или узел ввода-вывода рассеивал около 17 Вт (включая DRAM). Низкое энергопотребление на узел позволило агрессивно разместить до 1024 вычислительных узлов плюс дополнительные узлы ввода-вывода в стандартной 19-дюймовой стойке в разумных пределах по электропитанию и воздушному охлаждению. Показатели производительности системы, выраженные в FLOPS на ватт , FLOPS на м 2 площади помещения и FLOPS на единицу стоимости, что позволило масштабировать до очень высокой производительности. При таком большом количестве узлов отказы компонентов были неизбежны. Система была способна электрически изолировать неисправные компоненты с точностью до половины стойки (512 вычислительных узлов), позволяя машине продолжать работать.
Каждый узел Blue Gene/L был подключен к трем параллельным сетям связи: тороидальной трехмерной сети для одноранговой связи между вычислительными узлами, коллективной сети для коллективной связи (широковещательная рассылка и сокращение операций) и глобальной сети прерываний для быстрых барьеров. . Узлы ввода-вывода, работающие под управлением Linux операционной системы , обеспечивали связь с хранилищем и внешними хостами через сеть Ethernet . Узлы ввода-вывода обрабатывали операции файловой системы от имени вычислительных узлов. Отдельная частная сеть управления Ethernet обеспечивала доступ к любому узлу для настройки, загрузки и диагностики.
Чтобы позволить нескольким программам работать одновременно, систему Blue Gene/L можно разделить на электронно изолированные наборы узлов. Число узлов в разделе должно быть положительным целым числом степени 2, причем не менее 2 5 = 32 узла. Чтобы запустить программу на Blue Gene/L, сначала нужно было зарезервировать раздел компьютера. Затем программа была загружена и запущена на всех узлах раздела, и ни одна другая программа не могла получить доступ к узлам внутри раздела, пока она использовалась. По завершении узлы разделов были освобождены для использования в будущих программах.
Вычислительные узлы Blue Gene/L использовали минимальную операционную систему, поддерживающую однопользовательскую программу. Поддерживалось только подмножество вызовов POSIX , и одновременно на узле в режиме сопроцессора мог выполняться только один процесс — или один процесс на каждый ЦП в виртуальном режиме. Программистам необходимо было реализовать зеленые потоки для имитации локального параллелизма. Разработка приложений обычно выполнялась на C , C++ или Fortran с использованием MPI для связи. Однако некоторые языки сценариев, такие как Ruby [19] и Питон [20] были перенесены на вычислительные узлы.
IBM опубликовала BlueMatter, приложение, разработанное для использования Blue Gene/L, с открытым исходным кодом. [21] Это служит для документирования того, как приложения использовали тор и коллективные интерфейсы, и может служить основой для других для тестирования суперкомпьютеров текущего поколения.
Синий Джин/П
[ редактировать ]В июне 2007 года IBM представила Blue Gene/P , второе поколение суперкомпьютеров серии Blue Gene, разработанное в результате сотрудничества IBM, LLNL и Аргоннской национальной лаборатории Лидерского вычислительного центра . [22]
Дизайн
[ редактировать ]Дизайн Blue Gene/P представляет собой развитие технологии Blue Gene/L. Каждый вычислительный чип Blue Gene/P содержит четыре процессорных ядра PowerPC 450 , работающих на частоте 850 МГц. Ядра когерентны к кэшу , и чип может работать как 4-поточный симметричный мультипроцессор (SMP). Подсистема памяти чипа состоит из небольших частных кэшей L2, центрального общего кэша L3 емкостью 8 МБ и двух контроллеров памяти DDR2 . Чип также интегрирует логику для связи между узлами, используя ту же сетевую топологию, что и Blue Gene/L, но с более чем вдвое большей пропускной способностью. Вычислительная карта содержит чип Blue Gene/P с 2 или 4 ГБ DRAM, содержащий «вычислительный узел». Пиковая производительность одного вычислительного узла составляет 13,6 гигафлопс. 32 вычислительные карты подключаются к узловой плате с воздушным охлаждением. Стойка . содержит 32 узловые платы (то есть 1024 узла, 4096 процессорных ядер) [23] Благодаря использованию множества небольших, маломощных и плотно упакованных микросхем Blue Gene/P превзошел по энергоэффективности другие суперкомпьютеры своего поколения, а при производительности 371 MFLOPS/Вт установки Blue Gene/P заняли первое место в Green500 списках или около него. 2007–2008 гг. [2]
Инсталляции
[ редактировать ]Ниже приведен неполный список установок Blue Gene/P. По состоянию на ноябрь 2009 года список TOP500 содержал 15 установок Blue Gene/P в 2 стойки (2048 узлов, 8192 процессорных ядра, 23,86 терафлопс Linpack ) и выше. [1]
- 12 ноября 2007 года первая установка Blue Gene/P, JUGENE , с 16 стойками (16 384 узла, 65 536 процессоров) работала в Forschungszentrum Jülich в Германии с производительностью 167 терафлопс. [24] На момент открытия это был самый быстрый суперкомпьютер в Европе и шестой по скорости в мире. В 2009 году JUGENE был модернизирован до 72 стоек (73 728 узлов, 294 912 процессорных ядер) со 144 терабайтами памяти и 6 петабайтами хранилища, а пиковая производительность достигла 1 петафлопс. Эта конфигурация включала новые воздухо-водяные теплообменники между стойками, что существенно снизило затраты на охлаждение. [25] JUGENE была закрыта в июле 2012 года и заменена системой Blue Gene/Q JUQUEEN .
- Система Intrepid с 40 стойками (40960 узлов, 163840 процессорных ядер) в Аргоннской национальной лаборатории заняла третье место в списке 500 лучших систем за июнь 2008 года. [26] Система Intrepid — один из основных ресурсов программы INCITE, в рамках которой процессорные часы присуждаются за «грандиозные» научные и инженерные проекты на рецензируемом конкурсе.
- В 2009 году Ливерморская национальная лаборатория Лоуренса установила установку Blue Gene/P «Dawn» на 36 стоек.
- Университет науки и технологий имени короля Абдаллы ( KAUST ) установил установку Blue Gene/P « Shaheen » с 16 стойками. В 2009 году
- был установлен модуль Blue Gene/P с 6 стойками В 2012 году в Университете Райса , который будет управляться совместно с Университетом Сан-Паулу . [27]
- Система Blue Gene/P со стойкой 2,5 является центральным процессором для проекта низкочастотной антенной решетки для радиоастрономии ( LOFAR ) в Нидерландах и соседних европейских странах. Это приложение использует возможности потоковой передачи данных устройства.
- Двухстоечная система Blue Gene/P была установлена в сентябре 2008 года в Софии , Болгария , и эксплуатируется Болгарской академией наук и Софийским университетом . [28]
- В 2010 году двухстоечный процессор Blue Gene/P с 8192 ядрами был установлен в Мельбурнском университете для инициативы по вычислениям в области наук о жизни штата Виктория . [29]
- В 2011 году двухстоечный Blue Gene/P был установлен в Кентерберийском университете в Крайстчерче, Новая Зеландия.
- В 2012 году двухстоечный Blue Gene/P был установлен в Университете Рутгерса в Пискатауэе, штат Нью-Джерси. Его назвали «Экскалибур» в честь талисмана Рутгерса, Алого Рыцаря. [30]
- был установлен одностоечный (1024 узла) сервер Blue Gene/P с объемом хранилища 180 ТБ . В 2008 году в Рочестерском университете в Рочестере, штат Нью-Йорк , [31]
- Первый Blue Gene/P в регионе АСЕАН был установлен в 2010 году в Университета Брунея-Даруссалама исследовательском центре , Центре UBD-IBM . Установка стимулировала исследовательское сотрудничество между университетом и IBM в области моделирования климата, которое, среди прочего, будет изучать влияние изменения климата на прогнозирование наводнений, урожайность сельскохозяйственных культур, возобновляемые источники энергии и здоровье тропических лесов в регионе. [32]
- В 2013 году одностоечный компьютер Blue Gene/P был передан в дар Департаменту науки и технологий для прогнозов погоды, борьбы со стихийными бедствиями, точного земледелия и здравоохранения. Он расположен в Национальном компьютерном центре в Дилимане, Кесон-Сити, под эгидой Базовый центр биоинформатики (CFB) Филиппинского геномного центра (PGC) в UP Diliman, Кесон-Сити. [33]
Приложения
[ редактировать ]- Веселин Топалов , претендент на звание чемпиона мира по шахматам 2010 года, подтвердил в интервью, что при подготовке к матчу использовал суперкомпьютер Blue Gene/P. [34]
- Компьютер Blue Gene/P использовался для моделирования примерно одного процента коры головного мозга человека, содержащей 1,6 миллиарда нейронов с примерно 9 триллионами связей. [35]
- Команда проекта IBM Kittyhawk перенесла Linux на вычислительные узлы и продемонстрировала типовые рабочие нагрузки Web 2.0, работающие в масштабе на Blue Gene/P. В их статье, опубликованной в журнале ACM Operating Systems Review, описывается драйвер ядра, который туннелирует Ethernet через древовидную сеть, что приводит к сквозному TCP/IP -соединению. [36] [37] При использовании стандартного программного обеспечения Linux, такого как MySQL , их результаты производительности на SpecJBB считаются одними из самых высоких за всю историю. [ нужна ссылка ]
- В 2011 году команда Университета Рутгерса, IBM и Техасского университета соединила установку KAUST Shaheen с установкой Blue Gene/P в Исследовательском центре IBM Watson в «федеративное высокопроизводительное вычислительное облако», выиграв конкурс IEEE SCALE 2011 с Приложение для оптимизации нефтяного пласта. [38]
Синий Джин/Q
[ редактировать ]Третий дизайн в серии Blue Gene, Blue Gene/Q , значительно расширил и усовершенствовал архитектуры Blue Gene/L и /P.
Дизайн
[ редактировать ]«Вычислительный чип» Blue Gene/Q основан на 64-битном процессорном ядре IBM A2 . Ядро процессора A2 является одновременно четырехпоточным и дополнено SIMD четырехвекторным двойной точности модулем с плавающей запятой (IBM QPX). Каждый вычислительный чип Blue Gene/Q содержит 18 таких процессорных ядер A2, работающих на частоте 1,6 ГГц. 16 ядер используются для вычислений приложений, а 17-е ядро используется для обработки вспомогательных функций операционной системы, таких как прерывания , асинхронный ввод-вывод , синхронизация MPI и RAS . 18-е ядро — это резервный производственный запас, используемый для увеличения производительности. Запасное ядро отключается до начала работы системы. Ядра процессора чипа связаны перекрестным переключателем с 32 МБ кэш-памяти eDRAM L2, работающей на половинной частоте ядра. Кэш L2 является многоверсионным — поддерживает транзакционную память и спекулятивное выполнение — и имеет аппаратную поддержку атомарных операций . [39] Промахи кэша L2 обрабатываются двумя встроенными контроллерами памяти DDR3, работающими на частоте 1,33 ГГц. Чип также интегрирует логику для межчиповой связи в конфигурации 5D- тора со скоростью связи между чипами 2 ГБ/с. Чип Blue Gene/Q производится по медной технологии SOI IBM по 45-нм техпроцессу. Он обеспечивает пиковую производительность 204,8 гигафлопс при потреблении около 55 Вт. Чип имеет размеры 19×19 мм (359,5 мм²) и содержит 1,47 миллиарда транзисторов. Завершая вычислительный узел, чип монтируется на вычислительную карту вместе с 16 ГБ DDR3 DRAM (т. е. по 1 ГБ на каждое ядро пользовательского процессора). [40]
Вопрос 32 [41] «Вычислительный ящик» содержит 32 вычислительных узла, каждый с водяным охлаждением. [42] «Промежуточная панель» (корпус) содержит 16 вычислительных ящиков Q32, что в общей сложности составляет 512 вычислительных узлов, электрически соединенных между собой в конфигурации 5D-тора (4x4x4x4x2). За пределами объединительной платы все соединения являются оптическими. Стойки имеют две промежуточные панели, то есть 32 вычислительных блока, что в общей сложности составляет 1024 вычислительных узла, 16 384 пользовательских ядра и 16 ТБ оперативной памяти. [42]
Отдельные ящики ввода-вывода, расположенные в верхней части стойки или в отдельной стойке, имеют воздушное охлаждение и содержат 8 вычислительных карт и 8 слотов расширения PCIe для InfiniBand или 10 Gigabit Ethernet . сетей [42]
Производительность
[ редактировать ]На момент анонса системы Blue Gene/Q в ноябре 2011 г. [43] начальная четырехстоечная система Blue Gene/Q (4096 узлов, 65536 ядер пользовательских процессоров) достигла 17-го места в TOP500. списке [1] с производительностью 677,1 Терафлопс Linpack, что превосходит первоначальную установку BlueGene/L на 104 стойки 2007 года, описанную выше. Та же четырехстоечная система заняла первое место в Graph500. списке [3] с более чем 250 GTEPS (гига пройденных ребер в секунду ). Системы Blue Gene/Q также возглавили список Green500 самых энергоэффективных суперкомпьютеров с производительностью до 2,1 GFLOPS/Вт . [2]
В июне 2012 года установки Blue Gene/Q заняли верхние позиции во всех трёх списках: TOP500 , [1] Граф500 [3] и Грин500 . [2]
Инсталляции
[ редактировать ]Ниже приведен неполный список установок Blue Gene/Q. По состоянию на июнь 2012 года в список TOP500 входило 20 установок Blue Gene/Q размером в 1/2 стойки (512 узлов, 8192 процессорных ядра, Linpack 86,35 терафлопс) и выше. [1] Имея (независимую от размера) энергоэффективность около 2,1 GFLOPS/Вт, все эти системы также заняли верхние строчки списка Green 500 за июнь 2012 года . [2]
- Система Blue Gene/Q под названием Sequoia была доставлена в Ливерморскую национальную лабораторию имени Лоуренса (LLNL) в начале 2011 года и была полностью развернута в июне 2012 года. Она является частью Программы расширенного моделирования и вычислений, в рамках которой проводится ядерное моделирование и передовые научные исследования. Он состоит из 96 стоек (содержащих 98 304 вычислительных узла с 1,6 миллиона процессорных ядер и 1,6 ПБ памяти), занимающих площадь около 3000 квадратных футов (280 м2). 2 ). [44] В июне 2012 года система была признана самым быстрым суперкомпьютером в мире. [45] [46] при пиковой производительности 20,1 PFLOPS , устойчивая производительность 16,32 PFLOPS (Linpack), потребляя до 7,9 мегаватт мощности. [1] В июне 2013 года его устойчивая производительность составляла 17,17 PFLOPS (Linpack). [1]
- Система Blue Gene/Q с производительностью 10 ПФЛОПС (пиковая) под названием Mira была установлена в Аргоннской национальной лаборатории в Аргоннском вычислительном центре в 2012 году. Она состоит из 48 стоек (49 152 вычислительных узла) с 70 ПБ дискового хранилища (470 ГБ/с). Пропускная способность ввода-вывода). [47] [48]
- JUQUEEN в Forschungzentrum Jülich представляет собой систему Blue Gene/Q с 28 стойками, которая с июня 2013 года по ноябрь 2015 года занимала первое место в Европе в рейтинге Top500. [1]
- Vulcan в Ливерморской национальной лаборатории имени Лоуренса (LLNL) представляет собой систему Blue Gene/Q с 24 стойками и производительностью 5 PFLOPS (пиковая), которая была введена в эксплуатацию в 2012 году и выведена из эксплуатации в 2019 году. [49] Vulcan обслуживал проекты лабораторной отрасли через Инновационный центр высокопроизводительных вычислений (HPC) в Ливерморе. [50] а также академическое сотрудничество в поддержку миссий Министерства энергетики и Национальной администрации по ядерной безопасности (NNSA). [51]
- Ферми в суперкомпьютерном центре CINECA , Болонья, Италия. [52] представляет собой систему Blue Gene/Q с 10 стойками и производительностью 2 PFLOPS (пиковая).
- В рамках DiRAC размещена на базе EPCC шестистоечная (6144 узла) система Blue Gene/Q в Эдинбургском университете. [53]
- Пятистоечная система Blue Gene/Q с дополнительным вычислительным оборудованием AMOS была установлена в Политехническом институте Ренсселера в 2013 году. [54] Система имела производительность 1048,6 терафлопс, это был самый мощный суперкомпьютер в любом частном университете и третий по мощности суперкомпьютер среди всех университетов в 2014 году. [55]
- Система Blue Gene/Q производительностью 838 терафлопс (пиковая) под названием Avoca была установлена в Инициативе по вычислениям в области наук о жизни штата Виктория в июне 2012 года. [56] Эта система является частью сотрудничества IBM и VLSCI, целью которого является улучшение диагностики, поиск новых целей для лекарств, совершенствование методов лечения и углубление нашего понимания болезней. [57] Система состоит из 4 стоек, с 350 ТБ хранилища, 65 536 ядер, 64 ТБ оперативной памяти. [58]
- Система Blue Gene/Q производительностью 209 терафлопс (пиковая) была установлена в Рочестерском университете в июле 2012 года. [59] Эта система является частью Центра вычислительных инноваций Центра медицинских наук, заархивированного 19 октября 2012 г. в Wayback Machine , который занимается применением высокопроизводительных вычислений в исследовательских программах в области медицинских наук . Система состоит из одной стойки (1024 вычислительных узла) с 400 ТБ . высокопроизводительным хранилищем емкостью [60]
- Система Blue Gene/Q с пиковой производительностью 209 терафлопс (172 терафлопс LINPACK) под названием Lemanicus была установлена в EPFL в марте 2013 года. [61] Эта система принадлежит Центру перспективного моделирования CADMOS ( [62] ), который является результатом сотрудничества трех основных исследовательских институтов на берегу Женевского озера во франкоязычной части Швейцарии: Университета Лозанны , Женевского университета и EPFL . Система состоит из одной стойки (1024 вычислительных узла) с 2,1 ПБ хранилища IBM GPFS-GSS.
- Полустоечная система Blue Gene/Q с производительностью около 100 терафлопс (пиковая) под названием Cumulus была установлена в Центре вычислительных ресурсов A*STAR в Сингапуре в начале 2011 года. [63]
Приложения
[ редактировать ]Рекордные научные приложения были запущены на BG/Q, первом из них, достигшем 10 петафлопс устойчивой производительности в . Система космологического моделирования HACC достигла почти 14 петафлопс при тестировании 3,6 триллионов частиц. [64] в то время как кардиоидный код, [65] [66] который моделирует электрофизиологию человеческого сердца, достиг почти 12 петафлопс при моделировании практически в реальном времени, оба на Sequoia . Полностью сжимаемый решатель потока также достиг 14,4 ПФЛОП/с (первоначально 11 ПФЛОП/с) на Sequoia, что составляет 72% от номинальной пиковой производительности машины. [67]
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Jump up to: а б с д и ж г час я «Ноябрь 2004 — ТОП500 суперкомпьютерных сайтов» . Top500.org . Проверено 13 декабря 2019 г.
- ^ Jump up to: а б с д и «Green500 — ТОП500 суперкомпьютерных сайтов» . Green500.org . Архивировано из оригинала 26 августа 2016 года . Проверено 13 октября 2017 г.
- ^ Jump up to: а б с «Список Graph500» . Архивировано из оригинала 27 декабря 2011 г.
- ^ Харрис, Марк (18 сентября 2009 г.). «Обама чествует суперкомпьютер IBM» . Techradar.com . Проверено 18 сентября 2009 г.
- ^ «Стратегия суперкомпьютеров меняется в мире без BlueGene» . Nextplatform.com . 14 апреля 2015 года . Проверено 13 октября 2017 г.
- ^ «IBM создаст суперкомпьютеры нового поколения Coral для Министерства энергетики — EE Times» . ЭТаймс . Архивировано из оригинала 30 апреля 2017 года . Проверено 13 октября 2017 г.
- ^ Конференция Supercomputing 2020, видеопрезентация премии Test of Time
- ^ «Голубой ген: взгляд на науку о белках с использованием петафлопсного суперкомпьютера» (PDF) . IBM Systems Journal . 40 (2). 2017-10-23.
- ^ «Разговор с мозгом, стоящим за Blue Gene» , BusinessWeek , 6 ноября 2001 г., заархивировано из оригинала 11 декабря 2014 г.
- ^ «БлюДжин/Л» . Архивировано из оригинала 18 июля 2011 г. Проверено 5 октября 2007 г.
- ^ «hpcwire.com» . Архивировано из оригинала 28 сентября 2007 года.
- ^ «SC06» . sc06.supercomputing.org . Проверено 13 октября 2017 г.
- ^ «Конкурс на премию HPC Challenge» . Архивировано из оригинала 11 декабря 2006 г. Проверено 3 декабря 2006 г.
- ^ «Мозг мыши, смоделированный на компьютере» . Новости Би-би-си. 27 апреля 2007 г. Архивировано из оригинала 25 мая 2007 г.
- ^ «IBM100 — Синий Джин» . 03.ibm.com . 7 марта 2012 года . Проверено 13 октября 2017 г.
- ^ Кункель, Джулиан М.; Людвиг, Томас; Мойер, Ганс (12 июня 2013 г.). Суперкомпьютеры: 28-я Международная суперкомпьютерная конференция, ISC 2013, Лейпциг, Германия, 16-20 июня 2013. Труды . Спрингер. ISBN 9783642387500 . Проверено 13 октября 2017 г. - через Google Книги.
- ^ «Голубой Джин» . Журнал исследований и разработок IBM . 49 (2/3). 2005.
- ^ Кисель, Линн. «Конфигурация BlueGene/L» . asc.llnl.gov . Архивировано из оригинала 17 февраля 2013 года . Проверено 13 октября 2017 г.
- ^ «Вычислительный узел Ruby для Bluegene/L» . www.ece.iastate.edu . Архивировано из оригинала 11 февраля 2009 года.
- ^ Уильям Скаллин (12 марта 2011 г.). Python для высокопроизводительных вычислений . Атланта, Джорджия.
- ↑ Исходный код Blue Matter, получено 28 февраля 2020 г.
- ^ «IBM утроила производительность самого быстрого и энергоэффективного суперкомпьютера в мире» . 27 июня 2007 г. Проверено 24 декабря 2011 г.
- ^ «Обзор проекта IBM Blue Gene/P». Журнал исследований и разработок IBM . 52 : 199–220. Январь 2008 г. doi : 10.1147/rd.521.0199 .
- ^ «Суперкомпьютеры: Юлих снова среди мировых лидеров» . Служба новостей IDG. 12 ноября 2007 г.
- ^ «Пресс-центр IBM - 10 февраля 2009 г. Новый петафлоп-суперкомпьютер IBM в немецком исследовательском центре Юлих станет самым мощным в Европе» . 03.ibm.com. 10 февраля 2009 г. Проверено 11 марта 2011 г.
- ^ «Суперкомпьютер Аргонны назван самым быстрым в мире по открытой науке, третьим в общем зачете» . Mcs.anl.gov . Архивировано из оригинала 8 февраля 2009 года . Проверено 13 октября 2017 г.
- ^ «Университет Райса и партнер IBM привезут в Техас первый суперкомпьютер Blue Gene» . news.rice.edu . Архивировано из оригинала 5 апреля 2012 г. Проверено 1 апреля 2012 г.
- ↑ У нас уже есть суперкомпьютер . Архивировано 23 декабря 2009 г. на Wayback Machine , Dir.bg, 9 сентября 2008 г.
- ^ «Пресс-центр IBM - 11 февраля 2010 г. IBM будет сотрудничать с ведущими австралийскими учреждениями, чтобы расширить границы медицинских исследований - Австралия» . 03.ibm.com. 11 февраля 2010 г. Проверено 11 марта 2011 г.
- ^ «Рутгерс получает оружие больших данных в суперкомпьютере IBM — Аппаратное обеспечение —» . Архивировано из оригинала 06 марта 2013 г. Проверено 7 сентября 2013 г.
- ^ «Университет Рочестера и IBM расширяют партнерство в поисках новых рубежей в области здравоохранения» . Медицинский центр Рочестерского университета. 11 мая 2012 г. Архивировано из оригинала 11 мая 2012 г.
- ^ «IBM и Университет Брунея-Даруссалама будут сотрудничать в исследованиях по моделированию климата» . Центр новостей IBM. 13 октября 2010 г. Проверено 18 октября 2012 г.
- ^ Ронда, Ренье Аллан. «Суперкомпьютер DOST для ученых уже работает» . Philstar.com . Проверено 13 октября 2017 г.
- ^ «Тренировка Топалова с суперкомпьютером Blue Gene P» . Players.chessdo.com . Архивировано из оригинала 19 мая 2013 года . Проверено 13 октября 2017 г.
- ^ Каку, Мичио. Физика будущего (Нью-Йорк: Doubleday, 2011), 91.
- ^ «Проект Киттихок: компьютер глобального масштаба» . Research.ibm.com . Проверено 13 октября 2017 г.
- ^ Аппаву, Джонатан; Улиг, Фолькмар; Уотерленд, Амос. «Проект Киттихок: создание компьютера глобального масштаба» (PDF) . Йорктаун-Хайтс, штат Нью-Йорк: Исследовательский центр IBM TJ Watson. Архивировано из оригинала 31 октября 2008 г. Проверено 13 марта 2018 г.
{{cite web}}
: CS1 maint: bot: исходный статус URL неизвестен ( ссылка ) - ^ «Эксперты под руководством Рутгерса собирают суперкомпьютерное облако, охватывающее весь мир» . Новости.rutgers.edu . 06.07.2011. Архивировано из оригинала 10 ноября 2011 г. Проверено 24 декабря 2011 г.
- ^ «Предположение о памяти вычислительного чипа Blue Gene/Q» . Проверено 23 декабря 2011 г.
- ^ «Вычислительный чип Blue Gene/Q» (PDF) . Архивировано из оригинала (PDF) 29 апреля 2015 г. Проверено 23 декабря 2011 г.
- ^ «Суперкомпьютер IBM Blue Gene/Q обеспечивает петамасштабные вычисления для высокопроизводительных вычислительных приложений» (PDF) . 01.ibm.com . Проверено 13 октября 2017 г.
- ^ Jump up to: а б с «IBM раскрывает 20 петафлопс BlueGene/Q super» . Регистр . 22 ноября 2010 г. Проверено 25 ноября 2010 г.
- ^ «IBM анонсирует суперкомпьютер мощностью 20 петафлопс» . Курцвейл. 18 ноября 2011 года . Проверено 13 ноября 2012 г.
IBM анонсировала суперкомпьютер Blue Gene/Q с пиковой производительностью 20 петафлопс
- ^ Фельдман, Майкл (3 февраля 2009 г.). «Лоуренс Ливермор готовится к 20-петафлопному Blue Gene/Q» . HPCwire. Архивировано из оригинала 12 февраля 2009 г. Проверено 11 марта 2011 г.
- ^ Б. Джонстон, Дональд (18 июня 2012 г.). «Суперкомпьютер Sequoia компании NNSA признан самым быстрым в мире» . Архивировано из оригинала 2 сентября 2014 г. Проверено 23 июня 2012 г.
- ^ «Пресс-релиз ТОП500» . Архивировано из оригинала 24 июня 2012 года.
- ^ «МИРА: Самый быстрый суперкомпьютер в мире — Аргоннский вычислительный комплекс» . Alcf.anl.gov . Проверено 13 октября 2017 г.
- ^ «Мира — Аргоннский вычислительный комплекс для руководства» . Alcf.anl.gov . Проверено 13 октября 2017 г.
- ^ «Вулкан — выведен из эксплуатации» . hpc.llnl.gov . Проверено 10 апреля 2019 г.
- ^ «Инновационный центр высокопроизводительных вычислений» . hpcinnovationcenter.llnl.gov . Проверено 13 октября 2017 г.
- ^ «Vulcan Лоуренса Ливермора обеспечивает вычислительную мощность 5 петафлопс для сотрудничества с промышленностью и научными кругами для развития науки и технологий» . Llnl.gov . 11 июня 2013 года. Архивировано из оригинала 9 декабря 2013 года . Проверено 13 октября 2017 г.
- ^ «Ибм-Ферми | Скай» . Архивировано из оригинала 30 октября 2013 г. Проверено 13 мая 2013 г.
- ^ «ДиРАК БлюДжин/Q» . epcc.ed.ac.uk.
- ^ «Ренсселер в петашкале: AMOS среди самых быстрых и мощных суперкомпьютеров в мире» . News.rpi.edu . Проверено 13 октября 2017 г.
- ^ Майкл Мулланейвар. «AMOS занимает первое место среди суперкомпьютеров в частных американских университетах» . News.rpi.edi . Проверено 13 октября 2017 г.
- ^ «Самый экологичный суперкомпьютер в мире приезжает в Мельбурн – The Melbourne Engineer» . Themelbourneengineer.eng.unimelb.edu.au/ . 16 февраля 2012 года. Архивировано из оригинала 2 октября 2017 года . Проверено 13 октября 2017 г.
- ^ «Мельбурнская биоинформатика — для всех исследователей и студентов биомедицинских и бионаучных исследовательских центров Мельбурна» . Мельбурн Биоинформатика . Проверено 13 октября 2017 г.
- ^ «Доступ к высокопроизводительным системам — Мельбурнская биоинформатика» . Vlsci.org.au . Проверено 13 октября 2017 г.
- ^ «Университет Рочестера открывает новую эру исследований в области здравоохранения» . Рочестер.edu . Проверено 13 октября 2017 г.
- ^ «Ресурсы — Центр комплексных исследовательских вычислений» . Circ.rochester.edu . Проверено 13 октября 2017 г.
- ^ «Домашняя страница EPFL BlueGene/L» . Архивировано из оригинала 10 декабря 2007 г. Проверено 10 марта 2021 г.
- ^ Утилизатор, Супер. «А предлагает» . Кадмос.орг . Архивировано из оригинала 10 января 2016 года . Проверено 13 октября 2017 г.
- ^ «Центр вычислительных ресурсов A*STAR» . Acrc.a-star.edu.sg . Архивировано из оригинала 20 декабря 2016 г. Проверено 24 августа 2016 г.
- ^ С. Хабиб; В. Морозов; Х. Финкель; А. Поуп; К. Хайтманн ; К. Кумаран; Т. Петерка; Дж. Инсли; Д. Дэниел; П. Фазель; Н. Фронтьер и З. Лукич (2012). «Вселенная в экстремальном масштабе: многопетафлопное моделирование неба на BG/Q». arXiv : 1211.4864 [ cs.DC ].
- ^ «Проект кардиоидного моделирования сердца» . Исследователь.watson.ibm.com . 25 июля 2016 года. Архивировано из оригинала 21 мая 2013 года . Проверено 13 октября 2017 г.
- ^ «Погружение в самое сердце моделирования высокопроизводительных вычислений» . Str.llnl.gov . Архивировано из оригинала 14 февраля 2013 года . Проверено 13 октября 2017 г.
- ^ Россинелли, Диего; Хиджазиалхоссейни, Бабак; Хаджидукас, Панайотис; Бекас, Костас; Куриони, Алессандро; Берч, Адам; Футрал, Скотт; Шмидт, Штеффен Дж.; Адамс, Николаус А.; Кумутсакос, Петрос (17 ноября 2013 г.). «11 моделей PFLOP/S кавитационного коллапса облаков» . Материалы Международной конференции по высокопроизводительным вычислениям, сетям, хранению и анализу . СК '13. стр. 1–13. дои : 10.1145/2503210.2504565 . ISBN 9781450323789 . S2CID 12651650 .