QPACE
POWER , PowerPC и Power ISA. Архитектуры |
---|
NXP (ранее Freescale и Motorola) |
ИБМ |
|
IBM/Нинтендо |
Другой |
Ссылки по теме |
Отменено выделено серым цветом , историческое — курсивом |
QPACE ( QCD Parallel Computing on the Cell Broadband Engine ) — это с массовым параллелизмом масштабируемый суперкомпьютер , предназначенный для приложений в решеточной квантовой хромодинамике .
Обзор
[ редактировать ]Суперкомпьютер QPACE — это исследовательский проект, реализованный несколькими академическими учреждениями в сотрудничестве с Лабораторией исследований и разработок IBM в Бёблингене, Германия, и другими промышленными партнерами, включая Eurotech , Knürr и Xilinx . Академическая проектная группа, состоящая из около 20 младших и старших ученых, в основном физиков, прибыла из Регенсбургского университета (руководитель проекта), Университета Вупперталя , DESY Zeuthen, Исследовательского центра Юлиха и Университета Феррары . Основная цель заключалась в разработке масштабируемой архитектуры, оптимизированной для приложений, которая превосходит промышленные продукты с точки зрения вычислительной производительности, соотношения цены и качества и энергоэффективности. Официально проект стартовал в 2008 году. Две установки были развернуты летом 2009 года. Окончательное проектирование было завершено в начале 2010 года. С тех пор QPACE используется для расчетов решеточной КХД . Архитектура системы также подходит для других приложений, которые в основном полагаются на связь с ближайшим соседом, например, решетка Больцмана. методы. [1]
В ноябре 2009 года QPACE возглавила список самых энергоэффективных суперкомпьютеров в мире Green500. [2] Титул был защищен в июне 2010 года, когда архитектура достигла энергетической сигнатуры 773 MFLOPS на ватт в тесте Linpack . [3] В списке Top500 самых мощных суперкомпьютеров QPACE занимал места со 110 по 112 в ноябре 2009 года и со 131 по 133 в июне 2010 года. [4] [5]
QPACE финансировался Немецким исследовательским фондом (DFG) в рамках SFB/TRR-55 и IBM . Дополнительный вклад внесли компании Eurotech , Knürr и Xilinx .
Архитектура
[ редактировать ]В 2008 году IBM выпустила PowerXCell 8i многоядерный процессор , улучшенную версию IBM Cell Broadband Engine , используемую, например, в PlayStation 3 . Процессор привлек большое внимание научного сообщества благодаря своей выдающейся производительности в операциях с плавающей запятой. [6] [7] [8] Это один из строительных блоков кластера IBM Roadrunner , который стал первой суперкомпьютерной архитектурой, преодолевшей барьер PFLOPS. Кластерные архитектуры на базе PowerXCell 8i обычно основаны на IBM BladeCenter, блейд-серверах соединенных стандартными сетями, такими как Infiniband . Для QPACE был выбран совершенно другой подход. специально разработанный сетевой сопроцессор, реализованный на FPGA Xilinx Virtex-5 Для соединения вычислительных узлов используется . FPGA — это перепрограммируемые полупроводниковые устройства, которые позволяют настраивать функциональное поведение по индивидуальному заказу. Сетевой процессор QPACE тесно связан с PowerXCell 8i через собственный интерфейс ввода-вывода Rambus.
Самый маленький строительный блок QPACE — это узловая карта, на которой размещены PowerXCell 8i и FPGA. Узловые карты монтируются на объединительных панелях, каждая из которых может содержать до 32 узловых карт. В одной стойке QPACE можно разместить до восьми объединительных плат , каждая из которых установлена на передней и задней стороне. Максимальное количество узловых карт в стойке — 256. Для достижения такой плотности упаковки QPACE использует решение с водяным охлаждением.
Шестнадцать узловых карт контролируются и контролируются отдельной картой администрирования, называемой корневой картой. Еще одна плата администрирования на стойку, называемая картой superroot, используется для мониторинга и управления источниками питания. Корневые и суперкорневые карты также используются для синхронизации вычислительных узлов.
Карточка узла
[ редактировать ]Сердцем QPACE является IBM PowerXCell 8i многоядерный процессор . На каждой узловой карте размещен один PowerXCell 8i, 4 ГБ DDR2 SDRAM с ECC , одна Xilinx Virtex-5 FPGA и семь сетевых трансиверов . Один приемопередатчик 1 Gigabit Ethernet подключает карту узла к сети ввода-вывода. Шесть 10-гигабитных трансиверов используются для передачи сообщений между соседними узлами в трехмерной тороидальной сетке .
Сетевой сопроцессор QPACE реализован на FPGA Xilinx Virtex-5, который напрямую подключен к интерфейсу ввода-вывода PowerXCell 8i. [9] [10] Функциональное поведение FPGA определяется языком описания оборудования и может быть изменено в любой момент за счет перезагрузки карты узла. Большинство объектов сетевого сопроцессора QPACE закодированы на VHDL .
Сети
[ редактировать ]Сетевой сопроцессор QPACE подключает PowerXCell 8i к трем сетям связи: [10] [11]
- Сеть тора — это высокоскоростной путь связи, который позволяет осуществлять связь с ближайшими соседями в трехмерной тороидальной сетке . Сеть Тор опирается на физический уровень 10 Gigabit Ethernet , а для передачи сообщений используется специально разработанный протокол связи, оптимизированный для небольших размеров сообщений. Уникальной особенностью конструкции торовой сети является поддержка связи с нулевым копированием между частными областями памяти, называемыми локальными хранилищами, элементов синергетической обработки (SPE) посредством прямого доступа к памяти . Задержка связи между двумя SPE на соседних узлах составляет 3 мкс. Пиковая пропускная способность на канал и направление составляет около 1 ГБ/с.
- Коммутируемый порт 1 Gigabit Ethernet используется для ввода-вывода файлов и обслуживания.
- Глобальная сеть сигналов представляет собой простую двухпроводную систему, организованную в виде древовидной сети. Эта сеть используется для оценки глобальных условий и синхронизации узлов.
Охлаждение
[ редактировать ]Вычислительные узлы суперкомпьютера QPACE охлаждаются водой. На каждой узловой карте должно рассеиваться примерно 115 Вт. [10] Охлаждающее решение основано на двухкомпонентной конструкции. Каждая узловая карта крепится к термокоробке, которая действует как большой радиатор для критически важных компонентов. Термобокс соединен с охлаждающей пластиной, которая подключена к контуру водяного охлаждения. Производительность холодильной плиты позволяет отводить тепло до 32 узлов. Узловые карты устанавливаются с обеих сторон холодильной пластины, т.е. по 16 узлов монтируются сверху и снизу холодильной пластины. Эффективность решения для охлаждения позволяет охлаждать вычислительные узлы теплой водой. Решение по охлаждению QPACE также повлияло на другие разработки суперкомпьютеров, такие как SuperMUC . [12]
Инсталляции
[ редактировать ]С 2009 года работают две одинаковые установки QPACE с четырьмя стойками:
Совокупная пиковая производительность составляет около 200 терафлопс в двойной точности и 400 терафлопс в одинарной точности. Установки эксплуатируются Регенсбургским университетом , Юлихским исследовательским центром и Вуппертальским университетом .
См. также
[ редактировать ]- QPACE2 , проект, следующий за QPACE.
- Суперкомпьютер
- Ячейка (микропроцессор)
- Межблочное соединение тора
- ПЛИС
- Решётчатая КХД
Ссылки
[ редактировать ]- ^ Л. Биферале и др., Решеточная гидродинамика Больцмана на суперкомпьютере QPACE , Procedia Computer Science 1 (2010) 1075
- ^ Список Green500, ноябрь 2009 г., http://www.green500.org/lists/green200911.
- ^ Список Green500, июнь 2010 г., http://www.green500.org/lists/green201006.
- ^ Список Top500, ноябрь 2009 г., «Архивная копия» . Архивировано из оригинала 17 октября 2012 года . Проверено 17 января 2013 г.
{{cite web}}
: CS1 maint: архивная копия в заголовке ( ссылка ) - ^ Список Top500, июнь 2010 г., «Архивная копия» . Архивировано из оригинала 17 октября 2012 года . Проверено 17 января 2013 г.
{{cite web}}
: CS1 maint: архивная копия в заголовке ( ссылка ) - ^ Дж. Биларди и др., Потенциал многопроцессорной обработки на кристалле для машин QCD , Конспект лекций по информатике 3769 (2005) 386
- ^ С. Уильямс и др., Потенциал клеточного процессора для научных вычислений , Материалы 3-й конференции по передовым технологиям вычислений (2006) 9
- ^ Г. Голдриан и др., QPACE: Параллельные вычисления квантовой хромодинамики на процессоре сотовой широкополосной связи , Вычисления в науке и технике 10 (2008) 46
- ^ И. Оуда, К. Шлейпен, Замечания по применению: Настройка интерфейса FPGA для силового процессора IBM , отчет IBM Research, 2008 г.
- ^ Jump up to: а б с Х. Байер и др., QPACE — параллельный компьютер QCD на базе процессоров Cell , Proceedings of Science (LAT2009) , 001
- ^ С. Солбриг, Синхронизация в QPACE , конференция STRONGnet, Кипр, 2010 г.
- ^ Б. Мишель и др., Aquasar: путь к оптимально эффективным центрам обработки данных. [ постоянная мертвая ссылка ] , 2011
- ^ Qpace - Qpace