Jump to content

QPACE

QPACE ( QCD Parallel Computing on the Cell Broadband Engine ) — это с массовым параллелизмом масштабируемый суперкомпьютер , предназначенный для приложений в решеточной квантовой хромодинамике .

Суперкомпьютер QPACE — это исследовательский проект, реализованный несколькими академическими учреждениями в сотрудничестве с Лабораторией исследований и разработок IBM в Бёблингене, Германия, и другими промышленными партнерами, включая Eurotech , Knürr и Xilinx . Академическая проектная группа, состоящая из около 20 младших и старших ученых, в основном физиков, прибыла из Регенсбургского университета (руководитель проекта), Университета Вупперталя , DESY Zeuthen, Исследовательского центра Юлиха и Университета Феррары . Основная цель заключалась в разработке масштабируемой архитектуры, оптимизированной для приложений, которая превосходит промышленные продукты с точки зрения вычислительной производительности, соотношения цены и качества и энергоэффективности. Официально проект стартовал в 2008 году. Две установки были развернуты летом 2009 года. Окончательное проектирование было завершено в начале 2010 года. С тех пор QPACE используется для расчетов решеточной КХД . Архитектура системы также подходит для других приложений, которые в основном полагаются на связь с ближайшим соседом, например, решетка Больцмана. методы. [1]

В ноябре 2009 года QPACE возглавила список самых энергоэффективных суперкомпьютеров в мире Green500. [2] Титул был защищен в июне 2010 года, когда архитектура достигла энергетической сигнатуры 773 MFLOPS на ватт в тесте Linpack . [3] В списке Top500 самых мощных суперкомпьютеров QPACE занимал места со 110 по 112 в ноябре 2009 года и со 131 по 133 в июне 2010 года. [4] [5]

QPACE финансировался Немецким исследовательским фондом (DFG) в рамках SFB/TRR-55 и IBM . Дополнительный вклад внесли компании Eurotech , Knürr и Xilinx .

Архитектура

[ редактировать ]

В 2008 году IBM выпустила PowerXCell 8i многоядерный процессор , улучшенную версию IBM Cell Broadband Engine , используемую, например, в PlayStation 3 . Процессор привлек большое внимание научного сообщества благодаря своей выдающейся производительности в операциях с плавающей запятой. [6] [7] [8] Это один из строительных блоков кластера IBM Roadrunner , который стал первой суперкомпьютерной архитектурой, преодолевшей барьер PFLOPS. Кластерные архитектуры на базе PowerXCell 8i обычно основаны на IBM BladeCenter, блейд-серверах соединенных стандартными сетями, такими как Infiniband . Для QPACE был выбран совершенно другой подход. специально разработанный сетевой сопроцессор, реализованный на FPGA Xilinx Virtex-5 Для соединения вычислительных узлов используется . FPGA — это перепрограммируемые полупроводниковые устройства, которые позволяют настраивать функциональное поведение по индивидуальному заказу. Сетевой процессор QPACE тесно связан с PowerXCell 8i через собственный интерфейс ввода-вывода Rambus.

Самый маленький строительный блок QPACE — это узловая карта, на которой размещены PowerXCell 8i и FPGA. Узловые карты монтируются на объединительных панелях, каждая из которых может содержать до 32 узловых карт. В одной стойке QPACE можно разместить до восьми объединительных плат , каждая из которых установлена ​​на передней и задней стороне. Максимальное количество узловых карт в стойке — 256. Для достижения такой плотности упаковки QPACE использует решение с водяным охлаждением.

Шестнадцать узловых карт контролируются и контролируются отдельной картой администрирования, называемой корневой картой. Еще одна плата администрирования на стойку, называемая картой superroot, используется для мониторинга и управления источниками питания. Корневые и суперкорневые карты также используются для синхронизации вычислительных узлов.

Карточка узла

[ редактировать ]

Сердцем QPACE является IBM PowerXCell 8i многоядерный процессор . На каждой узловой карте размещен один PowerXCell 8i, 4 ГБ DDR2 SDRAM с ECC , одна Xilinx Virtex-5 FPGA и семь сетевых трансиверов . Один приемопередатчик 1 Gigabit Ethernet подключает карту узла к сети ввода-вывода. Шесть 10-гигабитных трансиверов используются для передачи сообщений между соседними узлами в трехмерной тороидальной сетке .

Сетевой сопроцессор QPACE реализован на FPGA Xilinx Virtex-5, который напрямую подключен к интерфейсу ввода-вывода PowerXCell 8i. [9] [10] Функциональное поведение FPGA определяется языком описания оборудования и может быть изменено в любой момент за счет перезагрузки карты узла. Большинство объектов сетевого сопроцессора QPACE закодированы на VHDL .

Сетевой сопроцессор QPACE подключает PowerXCell 8i к трем сетям связи: [10] [11]

  • Сеть тора — это высокоскоростной путь связи, который позволяет осуществлять связь с ближайшими соседями в трехмерной тороидальной сетке . Сеть Тор опирается на физический уровень 10 Gigabit Ethernet , а для передачи сообщений используется специально разработанный протокол связи, оптимизированный для небольших размеров сообщений. Уникальной особенностью конструкции торовой сети является поддержка связи с нулевым копированием между частными областями памяти, называемыми локальными хранилищами, элементов синергетической обработки (SPE) посредством прямого доступа к памяти . Задержка связи между двумя SPE на соседних узлах составляет 3 мкс. Пиковая пропускная способность на канал и направление составляет около 1 ГБ/с.
  • Коммутируемый порт 1 Gigabit Ethernet используется для ввода-вывода файлов и обслуживания.
  • Глобальная сеть сигналов представляет собой простую двухпроводную систему, организованную в виде древовидной сети. Эта сеть используется для оценки глобальных условий и синхронизации узлов.

Охлаждение

[ редактировать ]

Вычислительные узлы суперкомпьютера QPACE охлаждаются водой. На каждой узловой карте должно рассеиваться примерно 115 Вт. [10] Охлаждающее решение основано на двухкомпонентной конструкции. Каждая узловая карта крепится к термокоробке, которая действует как большой радиатор для критически важных компонентов. Термобокс соединен с охлаждающей пластиной, которая подключена к контуру водяного охлаждения. Производительность холодильной плиты позволяет отводить тепло до 32 узлов. Узловые карты устанавливаются с обеих сторон холодильной пластины, т.е. по 16 узлов монтируются сверху и снизу холодильной пластины. Эффективность решения для охлаждения позволяет охлаждать вычислительные узлы теплой водой. Решение по охлаждению QPACE также повлияло на другие разработки суперкомпьютеров, такие как SuperMUC . [12]

Инсталляции

[ редактировать ]

С 2009 года работают две одинаковые установки QPACE с четырьмя стойками:

Совокупная пиковая производительность составляет около 200 терафлопс в двойной точности и 400 терафлопс в одинарной точности. Установки эксплуатируются Регенсбургским университетом , Юлихским исследовательским центром и Вуппертальским университетом .

См. также

[ редактировать ]
  1. ^ Л. Биферале и др., Решеточная гидродинамика Больцмана на суперкомпьютере QPACE , Procedia Computer Science 1 (2010) 1075
  2. ^ Список Green500, ноябрь 2009 г., http://www.green500.org/lists/green200911.
  3. ^ Список Green500, июнь 2010 г., http://www.green500.org/lists/green201006.
  4. ^ Список Top500, ноябрь 2009 г., «Архивная копия» . Архивировано из оригинала 17 октября 2012 года . Проверено 17 января 2013 г. {{cite web}}: CS1 maint: архивная копия в заголовке ( ссылка )
  5. ^ Список Top500, июнь 2010 г., «Архивная копия» . Архивировано из оригинала 17 октября 2012 года . Проверено 17 января 2013 г. {{cite web}}: CS1 maint: архивная копия в заголовке ( ссылка )
  6. ^ Дж. Биларди и др., Потенциал многопроцессорной обработки на кристалле для машин QCD , Конспект лекций по информатике 3769 (2005) 386
  7. ^ С. Уильямс и др., Потенциал клеточного процессора для научных вычислений , Материалы 3-й конференции по передовым технологиям вычислений (2006) 9
  8. ^ Г. Голдриан и др., QPACE: Параллельные вычисления квантовой хромодинамики на процессоре сотовой широкополосной связи , Вычисления в науке и технике 10 (2008) 46
  9. ^ И. Оуда, К. Шлейпен, Замечания по применению: Настройка интерфейса FPGA для силового процессора IBM , отчет IBM Research, 2008 г.
  10. ^ Jump up to: а б с Х. Байер и др., QPACE — параллельный компьютер QCD на базе процессоров Cell , Proceedings of Science (LAT2009) , 001
  11. ^ С. Солбриг, Синхронизация в QPACE , конференция STRONGnet, Кипр, 2010 г.
  12. ^ Б. Мишель и др., Aquasar: путь к оптимально эффективным центрам обработки данных. [ постоянная мертвая ссылка ] , 2011
  13. ^ Qpace - Qpace
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: d12c498ab854ebad2bdfab172cbd4fa9__1610459760
URL1:https://arc.ask3.ru/arc/aa/d1/a9/d12c498ab854ebad2bdfab172cbd4fa9.html
Заголовок, (Title) документа по адресу, URL1:
QPACE - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)