Суперкомпьютерная архитектура
Подходы к архитектуре суперкомпьютеров претерпели существенные изменения с момента появления первых систем в 1960-х годах. Ранние суперкомпьютеров архитектуры , впервые разработанные Сеймуром Креем, основывались на компактных инновационных конструкциях и локальном параллелизме для достижения превосходной пиковой производительности вычислений. [1] Однако со временем потребность в увеличении вычислительной мощности привела к эпохе массово-параллельных систем.
В то время как в суперкомпьютерах 1970-х годов использовалось всего несколько процессоров , в 1990-х начали появляться машины с тысячами процессоров, и к концу 20-го века суперкомпьютеры с массовым параллелизмом и десятками тысяч готовых коммерческих процессоров стали норма. Суперкомпьютеры XXI века могут использовать более 100 000 процессоров (некоторые из них являются графическими ), соединенных быстрыми соединениями. [2] [3]
На протяжении десятилетий управление плотностью тепла оставалось ключевым вопросом для большинства централизованных суперкомпьютеров. [4] [5] [6] Большое количество тепла, выделяемого системой, может иметь и другие последствия, например сокращение срока службы других компонентов системы. [7] Существовали различные подходы к управлению теплом: от прокачки фторинерта через систему до гибридной системы жидкостно-воздушного охлаждения или воздушного охлаждения с нормальной температурой кондиционирования воздуха . [8] [9]
Системы с огромным количеством процессоров обычно выбирают один из двух путей: в одном подходе, например, в распределенных вычислениях, вычислительная мощность большого количества компьютеров в распределенных, разнообразных административных доменах используется оппортунистически всякий раз, когда компьютер доступен. [10] В другом подходе большое количество процессоров используется в непосредственной близости друг от друга, например, в компьютерном кластере . В такой централизованной системе с массовым параллелизмом скорость и гибкость межсоединений становятся очень важными, и современные суперкомпьютеры используют различные подходы, начиная от усовершенствованных систем Infiniband и заканчивая трехмерными торическими межсоединениями . [11] [12]
Контекст и обзор
[ редактировать ]С конца 1960-х годов рост мощности и распространение суперкомпьютеров был впечатляющим, а основные архитектурные направления этих систем претерпели значительные изменения. В то время как первые суперкомпьютеры полагались на небольшое количество тесно связанных процессоров, которые имели доступ к общей памяти , суперкомпьютеры 21-го века используют более 100 000 процессоров, соединенных быстрыми сетями. [2] [3]
На протяжении десятилетий управление плотностью тепла оставалось ключевым вопросом для большинства централизованных суперкомпьютеров. [4] Девиз Сеймура Крея «Удалить тепло» был центральным в его философии дизайна и продолжает оставаться ключевым вопросом в архитектуре суперкомпьютеров, например, в крупномасштабных экспериментах, таких как Blue Waters . [4] [5] [6] Большое количество тепла, выделяемого системой, может иметь и другие последствия, например сокращение срока службы других компонентов системы. [7]
Существовали различные подходы к управлению теплом, например , Cray 2 прокачивал фторинерт через систему , тогда как System X использовал гибридную систему жидкостно-воздушного охлаждения, а Blue Gene/P охлаждался воздухом при обычных температурах кондиционирования воздуха . [8] [13] [14] Тепло суперкомпьютера «Аквасар» используется для обогрева университетского кампуса. [15] [16]
Плотность тепла, выделяемая суперкомпьютером, напрямую зависит от типа процессора, используемого в системе: более мощные процессоры обычно выделяют больше тепла, учитывая аналогичные базовые полупроводниковые технологии . [7] В то время как ранние суперкомпьютеры использовали несколько быстрых, плотно упакованных процессоров, которые использовали преимущества локального параллелизма (например, конвейерную обработку и векторную обработку ), со временем количество процессоров росло, и вычислительные узлы можно было размещать дальше, например, в компьютерном кластере . или могут быть географически рассредоточены в распределенных вычислениях . [2] [17] По мере роста числа процессоров в суперкомпьютере « частота отказов компонентов » становится серьёзной проблемой. Если суперкомпьютер использует тысячи узлов, каждый из которых может выйти из строя в среднем один раз в год, то в системе будет происходить сбой нескольких узлов . каждый день [9]
Поскольку цена/производительность графических процессоров общего назначения (GPGPU) улучшилась, ряд петафлопсных суперкомпьютеров, таких как Tianhe-I и Nebulae, начали полагаться на них. [18] Однако другие системы, такие как компьютер K, продолжают использовать традиционные процессоры, такие как конструкции на основе SPARC , и общая применимость GPGPU в высокопроизводительных вычислительных приложениях общего назначения была предметом споров, поскольку GPGPU можно настроить для оценки а в конкретных тестах его общая применимость к повседневным алгоритмам может быть ограничена, если не будут затрачены значительные усилия на настройку приложения под него. [19] Однако популярность графических процессоров набирает обороты, и в 2012 году суперкомпьютер Jaguar был преобразован в Titan путем замены центральных процессоров на графические процессоры. [20] [21] [22]
По мере увеличения количества независимых процессоров в суперкомпьютере становится важным то, как они получают доступ к данным в файловой системе , а также как они совместно используют вторичные ресурсы хранения и получают к ним доступ. ряд систем для распределенного управления файлами За прошедшие годы был разработан , например , IBM General Parallel File System , BeeGFS , Parallel Virtual File System , Hadoop и т. д. [23] [24] Ряд суперкомпьютеров из списка TOP100 , таких как Tianhe-I, используют Linux файловую систему Lustre . [4]
Ранние системы с несколькими процессорами
[ редактировать ]Компьютеры серии CDC 6600 были очень ранними попытками создания суперкомпьютеров и получили свое преимущество перед существующими системами, передав работу периферийным устройствам , освободив центральный процессор (ЦП) для обработки фактических данных. С компилятором FORTRAN из Миннесоты 6600 мог выдерживать 500 килофлопс при выполнении стандартных математических операций. [25]
Другие ранние суперкомпьютеры, такие как Cray 1 и Cray 2 , появившиеся позднее, использовали небольшое количество быстрых процессоров, которые работали согласованно и были равномерно подключены к самому большому объему общей памяти , которой можно было управлять в то время. [3]
Эти ранние архитектуры представили параллельную обработку на уровне процессора с такими инновациями, как векторная обработка , при которой процессор может выполнять несколько операций за один такт , вместо того, чтобы ждать последовательных циклов.
Со временем, по мере увеличения количества процессоров, возникли различные архитектурные проблемы.Две проблемы, которые необходимо решить по мере увеличения числа процессоров, — это распределение памяти и обработка. В подходе с распределенной памятью каждый процессор физически упакован рядом с некоторой локальной памятью. Память, связанная с другими процессорами, затем оказывается «дальше» в зависимости от пропускной способности и задержки параметров при неравномерном доступе к памяти .
В 1960-е годы конвейерная обработка рассматривалась как инновация, а к 1970-м годам использование векторных процессоров уже прочно утвердилось. К 1980-м годам во многих суперкомпьютерах использовались параллельные векторные процессоры. [2]
Относительно небольшое количество процессоров в ранних системах позволяло им легко использовать архитектуру общей памяти , которая позволяла процессорам получать доступ к общему пулу памяти. Вначале распространенным подходом было использование унифицированного доступа к памяти (UMA), при котором время доступа к ячейке памяти было одинаковым для разных процессоров. Использование неравномерного доступа к памяти (NUMA) позволяло процессору получать доступ к своей собственной локальной памяти быстрее, чем к другим областям памяти, в то время как архитектура памяти только с кэшем (COMA) позволяла использовать локальную память каждого процессора в качестве кэша, таким образом требующие координации при изменении значений памяти. [26]
По мере увеличения количества процессоров эффективная межпроцессорная связь и синхронизация на суперкомпьютере становятся проблемой. Для достижения этой цели можно использовать ряд подходов. Например, в начале 1980-х годов в Cray X-MP системе общие регистры использовались . При таком подходе все процессоры имели доступ к общим регистрам , которые не перемещали данные туда и обратно, а использовались только для межпроцессорной связи и синхронизации. Однако проблемы, связанные с управлением большим объемом общей памяти среди многих процессоров, привели к переходу к более распределенным архитектурам . [27]
Массивный централизованный параллелизм
[ редактировать ]В 1980-х годах, когда спрос на вычислительную мощность увеличился, началась тенденция к гораздо большему числу процессоров, что положило начало эпохе массово-параллельных систем с распределенной памятью и распределенными файловыми системами , учитывая, что архитектуры с общей памятью не могли масштабироваться до большое количество процессоров. [2] [28] Гибридные подходы, такие как распределенная общая память, также появились после первых систем. [29]
Подход компьютерной кластеризации соединяет ряд легкодоступных вычислительных узлов (например, персональных компьютеров, используемых в качестве серверов) через быструю частную локальную сеть . [30] Деятельность вычислительных узлов организуется «промежуточным программным обеспечением кластеризации», программным уровнем, который располагается над узлами и позволяет пользователям рассматривать кластер как в целом единую связную вычислительную единицу, например, посредством концепции единого образа системы . [30]
Кластеризация компьютеров основана на централизованном подходе к управлению, который делает узлы доступными в качестве организованных общих серверов . Он отличается от других подходов, таких как одноранговые или грид-вычисления , которые также используют множество узлов, но имеют гораздо более распределенный характер . [30] К 21 веку полугодовой список 500 самых быстрых суперкомпьютеров организации TOP500 часто включает в себя множество кластеров, например, самый быстрый в мире в 2011 году компьютер K с распределенной памятью и кластерной архитектурой. [31] [32]
Когда используется большое количество локальных полунезависимых вычислительных узлов (например, в кластерной архитектуре), скорость и гибкость межсоединений становятся очень важными. Современные суперкомпьютеры используют разные подходы к решению этой проблемы, например, Tianhe-1 использует собственную высокоскоростную сеть на базе Infiniband QDR, дополненную процессорами FeiTeng-1000 . [4] С другой стороны, система Blue Gene /L использует трехмерное торическое соединение со вспомогательными сетями для глобальной связи. [11] В этом подходе каждый узел соединен со своими шестью ближайшими соседями. Похожий тор использовался Cray T3E . [12]
Массивные централизованные системы иногда используют процессоры специального назначения, разработанные для конкретного приложения, и могут использовать микросхемы программируемых пользователем вентильных матриц (FPGA) для повышения производительности за счет принесения в жертву универсальности. Примеры суперкомпьютеров специального назначения включают Belle , [33] Темно-синий , [34] и Гидра , [35] для игры в шахматы , Гравитационная труба для астрофизики, [36] MDGRAPE-3 для расчета структуры белкамолекулярная динамика [37] и Глубокая трещина , [38] за взлом DES шифра .
Массивный распределенный параллелизм
[ редактировать ]Грид-вычисления используют большое количество компьютеров в распределенных, разнообразных административных доменах. Это оппортунистический подход, при котором ресурсы используются всякий раз, когда они доступны. [10] Примером может служить BOINC основанная на волонтерах . — оппортунистическая сеточная система, [39] Некоторые приложения BOINC достигли уровня в несколько петафлопс, используя около полумиллиона компьютеров, подключенных к Интернету, всякий раз, когда волонтерские ресурсы становятся доступными. [40] Однако результаты такого типа часто не появляются в рейтингах TOP500 , поскольку они не оцениваются в тесте Linpack общего назначения .
Хотя грид-вычисления добились успеха в параллельном выполнении задач, требовательные суперкомпьютерные приложения, такие как моделирование погоды или вычислительная гидродинамика, остались недоступными, отчасти из-за препятствий в надежном распределении большого количества задач, а также из-за надежной доступности ресурсов в данный момент времени. [39] [41] [42]
В квазиоппортунистических суперкомпьютерах большое количество географически разбросанных компьютеров управляется встроенными средствами защиты . [43] Квазиоппортунистический подход выходит за рамки добровольных вычислений в высокораспределенных системах, таких как BOINC , или общих сетевых вычислений в такой системе, как Globus, позволяя промежуточному программному обеспечению обеспечивать почти беспрепятственный доступ ко многим вычислительным кластерам, чтобы существующие программы на таких языках, как Фортран, или C может быть распределен между несколькими вычислительными ресурсами. [43]
Квазиоппортунистические суперкомпьютеры призваны обеспечить более высокое качество обслуживания, чем оппортунистическое совместное использование ресурсов . [44] Квазиоппортунистический подход позволяет выполнять требовательные приложения в компьютерных сетях путем заключения соглашений о распределении ресурсов по сетке; и отказоустойчивая передача сообщений для абстрактной защиты от сбоев базовых ресурсов, тем самым поддерживая некоторый оппортунизм, одновременно обеспечивая более высокий уровень контроля. [10] [43] [45]
Архитектурные тенденции XXI века
[ редактировать ]с воздушным охлаждением В суперкомпьютерной архитектуре IBM Blue Gene скорость процессора сочетается с низким энергопотреблением, что позволяет использовать большее количество процессоров при комнатной температуре с использованием обычного кондиционирования воздуха. [14] [46] Система Blue Gene/P второго поколения имеет процессоры со встроенной логикой связи между узлами. [47] Он энергоэффективен и достигает 371 MFLOPS/Вт . [48]
Компьютер K представляет собой однородный процессор с водяным охлаждением , распределенной системой памяти и кластерной архитектурой . [32] [49] В ней используется более 80 000 процессоров SPARC64 VIIIfx , каждый из которых имеет восемь ядер , всего более 700 000 ядер — почти вдвое больше, чем в любой другой системе. Он включает в себя более 800 шкафов, каждый из которых имеет 96 вычислительных узлов (каждый по 16 ГБ памяти) и 6 узлов ввода-вывода. Хотя он мощнее, чем следующие пять систем в списке TOP500 вместе взятые, при его производительности 824,56 MFLOPS/Вт он имеет самое низкое соотношение мощности и производительности среди всех современных крупных суперкомпьютерных систем. [50] [51] Последующая система для компьютера K, названная PRIMEHPC FX10, использует то же соединение шестимерного тора, но по-прежнему только один процессор на узел. [52]
В отличие от компьютера K, система Tianhe-1A использует гибридную архитектуру и объединяет центральные и графические процессоры. [4] Он использует более 14 000 процессоров общего назначения Xeon и более 7 000 (GPGPU) Nvidia Tesla графических процессоров общего назначения примерно на 3500 блейд-серверах . [53] Он имеет 112 компьютерных шкафов и 262 терабайта распределенной памяти; 2 петабайта дискового пространства реализованы посредством кластеризованных файлов Lustre . [54] [55] [56] [4] «Тяньхэ-1» использует собственную высокоскоростную сеть связи для соединения процессоров. [4] Запатентованная межсетевая сеть была основана на Infiniband QDR, дополненной процессорами FeiTeng-1000 китайского производства . [4] В случае межсоединения система в два раза быстрее, чем Infiniband, но медленнее, чем некоторые межсоединения на других суперкомпьютерах. [57]
Пределы конкретных подходов продолжают проверяться, поскольку границы достигаются посредством крупномасштабных экспериментов, например, в 2011 году IBM прекратила свое участие в петафлопсном проекте Blue Waters в Университете Иллинойса. [58] [59] Архитектура Blue Waters была основана на процессоре IBM POWER7 и предполагала иметь 200 000 ядер с петабайтом «глобально адресуемой памяти» и 10 петабайтами дискового пространства. [6] Цель обеспечения устойчивого петафлопа привела к выбору конструкции, оптимизирующей одноядерную производительность и, следовательно, меньшему количеству ядер. Тогда ожидалось, что меньшее количество ядер повысит производительность программ, которые плохо масштабируются для большого количества процессоров. [6] Большая глобально адресуемая архитектура памяти была направлена на эффективное решение проблем с адресацией памяти для программ одного и того же типа. [6] Ожидалось, что Blue Waters будет работать на постоянной скорости не менее одного петафлопа, а для управления теплом использовала особый подход к водяному охлаждению. За первые четыре года работы Национальный научный фонд потратил на проект около 200 миллионов долларов. Вскоре после этого IBM выпустила вычислительный узел Power 775, созданный на основе технологии этого проекта, но фактически отказалась от подхода Blue Waters. [58] [59]
Архитектурные эксперименты продолжаются в ряде направлений, например, система Cyclops64 использует подход «суперкомпьютер на кристалле», в сторону отказа от использования массивных распределенных процессоров. [60] [61] Каждый 64-битный чип Cyclops64 содержит 80 процессоров, а вся система использует глобально адресуемую архитектуру памяти. [62] Процессоры соединены перекрестным переключателем без внутренней блокировки и взаимодействуют друг с другом через глобальную чередующуюся память. нет кэша данных В архитектуре , но половину каждого банка SRAM можно использовать как блокнотную память. [62] Хотя этот тип архитектуры допускает неструктурированный параллелизм в динамически несмежной системе памяти, он также создает проблемы при эффективном сопоставлении параллельных алгоритмов с многоядерной системой. [61]
См. также
[ редактировать ]- Операционные системы для суперкомпьютеров
- Суперкомпьютеры в Китае
- Суперкомпьютеры в Европе
- История суперкомпьютеров
- Суперкомпьютеры в Индии
- Суперкомпьютеры в Японии
Ссылки
[ редактировать ]- ^ Сао-Цзе Чен; Гуан-Хуэй Линь; Пао-Анн Сюн; Ю-Хен Ху (9 февраля 2009 г.). Совместное проектирование аппаратного и программного обеспечения мультимедийной социальной платформы . Спрингер. стр. 70–72. ISBN 978-1-4020-9622-8 . Проверено 15 июня 2012 г.
- ^ Jump up to: а б с д и Хоффман, Аллан Р. (1989). Суперкомпьютеры: направления технологий и приложений . Вашингтон, округ Колумбия: Издательство Национальной академии. стр. 35–47. ISBN 978-0-309-04088-4 .
- ^ Jump up to: а б с д Хилл, Марк Д.; Джуппи, Норман П .; Сохи, Гуриндар (2000). Чтения по компьютерной архитектуре . Сан-Франциско: Морган Кауфманн. стр. 40–49. ISBN 978-1-55860-539-8 .
- ^ Jump up to: а б с д и ж г час я Ян, Сюэ-Цзюнь; Лу, Кай; Сун, Цзюнь-Цян; Цзинь-Шу (2011). Журнал компьютерных наук и технологий . 26 344–351. : 10.1007 /s02011-011-1137-8 . doi ( 3 ) :
- ^ Jump up to: а б Мюррей, Чарльз Дж. (1997). Супермены: история Сеймура Крея и технических волшебников, создавших суперкомпьютер . Нью-Йорк: Джон Уайли. стр. 133–135 . ISBN 978-0-471-04885-5 .
- ^ Jump up to: а б с д и Бисвас, Рупак, изд. (2010). Параллельная вычислительная гидродинамика: последние достижения и будущие направления: доклады 21-й Международной конференции по параллельной вычислительной гидродинамике . Ланкастер, Пенсильвания: Публикации DEStech. п. 401. ИСБН 978-1-60595-022-8 .
- ^ Jump up to: а б с Юнге Хуанг, изд. (2008). Развитие суперкомпьютерных исследований . Нью-Йорк: Издательство Nova Science. стр. 313–314. ISBN 978-1-60456-186-9 .
- ^ Jump up to: а б Тохи, МО; Хоссейн, Массачусетс; Шахид, Миннесота (2003). Параллельные вычисления для обработки и управления сигналами в реальном времени . Лондон [ua]: Спрингер. стр. 201–202. ISBN 978-1-85233-599-1 .
- ^ Jump up to: а б Вайди С. Сундерам, изд. (2005). Вычислительная наука - ICCS 2005. 5-я международная конференция, Атланта, Джорджия, США, 22-25 мая 2005 г.: материалы (1-е изд.). Берлин: Шпрингер. стр. 60–67. ISBN 978-3-540-26043-1 .
- ^ Jump up to: а б с Продан, Раду; Томас Фарингер (2007). Управление экспериментами по грид-вычислениям, интеграция инструментов и научные рабочие процессы . Берлин: Шпрингер. стр. 1–4. ISBN 978-3-540-69261-4 .
- ^ Jump up to: а б Найт, Уилл (27 июня 2007 г.). «IBM создает самый мощный компьютер в мире» . Новый учёный .
- ^ Jump up to: а б Адига, Северная Каролина; Блюмрич, Массачусетс; Чен, Д.; Котеус, П.; Гара, А.; Джампапа, Мэн; Гейдельбергер, П.; Сингх, С.; Штайнмахер-Буроу, Б.Д.; Таккен, Т.; Цао, М.; Вранас, П. (март 2005 г.). «Сеть межсоединений тора Blue Gene/L» (PDF) . Журнал исследований и разработок IBM . 49 (2.3): 265–276. дои : 10.1147/rd.492.0265 . Архивировано из оригинала (PDF) 15 августа 2011 г.
{{cite journal}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - ^ Варадараджан, С. (14 марта 2005 г.). «Основной доклад I: «Система X создает технологический суперкомпьютер Вирджинии» ». Материалы 13-й Международной конференции по компьютерным коммуникациям и сетям (IEEE Cat No 04EX969) ICCCN-04 . п. 1. дои : 10.1109/ICCCN.2004.1401570 . ISBN 978-0-7803-8814-7 . ISSN 1095-2055 .
- ^ Jump up to: а б Прикетт Морган, Тимоти (22 ноября 2010 г.). «IBM раскрывает 20 петафлопс BlueGene/Q super» . Регистр .
- ^ «Суперкомпьютер IBM с водяным охлаждением запускается в ETH Zurich» . HPCwire . Цюрих. 2 июля 2010 г. Архивировано из оригинала 13 августа 2012 г.
- ^ ЛаМоника, Мартин (10 мая 2010 г.). «Суперкомпьютер IBM с жидкостным охлаждением обогревает здание» . Зеленая технология . Cnet. Архивировано из оригинала 1 ноября 2013 года . Проверено 5 февраля 2012 г.
- ^ Хендерсон, Гарри (2008). «Суперкомпьютерная архитектура». Энциклопедия компьютерных наук и технологий . п. 217. ИСБН 978-0-8160-6382-6 .
- ^ Прикетт Морган, Тимоти (31 мая 2010 г.). «500 лучших супергероев – Рассвет графических процессоров» . Регистр .
- ^ Райнер Келлер; Дэвид Крамер; Ян-Филипп Вайс (1 декабря 2010 г.). Решение проблемы многоядерности: аспекты новых парадигм и технологий в параллельных вычислениях . Спрингер. стр. 118–121. ISBN 978-3-642-16232-9 . Проверено 15 июня 2012 г.
- ^ Поэт, Дэймон (11 октября 2011 г.). «Суперкомпьютер Titan компании Cray для ORNL может стать самым быстрым в мире» . Журнал ПК .
- ^ Фельдман, Майкл (11 октября 2011 г.). «Графические процессоры превратят Jaguar ORNL в титана с производительностью 20 петафлопс» . Провод HPC .
- ^ Прикетт Морган, Тимоти (11 октября 2011 г.). «Ок-Ридж меняет акцент Jaguar с центральных процессоров на графические процессоры» . Регистр .
- ^ Хай Сян Линь; Майкл Александр; Мартти Форселл, ред. (2010). Семинары по параллельной обработке Euro-Par 2009: HPPC, HeteroPar, PROPER, ROIA, UNICORE, VHPC, Делфт, Нидерланды, 25-28 августа 2009 г.; мастер-классы (интернет-издание под ред.). Берлин: Шпрингер. п. 345. ИСБН 978-3-642-14121-8 .
- ^ Райнер Думке; Рене Браунгартен; Гюнтер Бюрен (3 декабря 2008 г.). Измерение процессов разработки программного обеспечения и продуктов: международные конференции, IWSM 2008, MetriKon 2008 и Mensura 2008, Мюнхен, Германия, 18–19 ноября 2008 г.: Материалы . Спрингер. стр. 144–117. ISBN 978-3-540-89402-5 . Проверено 15 июня 2012 г.
- ^ Фриш, Майкл Дж. (декабрь 1972 г.). «Замечания по алгоритму 352 [S22], алгоритму 385 [S13], алгоритму 392 [D3]» . Коммуникации АКМ . 15 (12): 1074. дои : 10.1145/361598.361914 . S2CID 6571977 .
- ^ Эль-Ревини, Хешам; Мостафа Абд-эль-Барр (2005). Передовая компьютерная архитектура и параллельная обработка . Хобокен, Нью-Джерси: Wiley-Interscience. стр. 77–80. ISBN 978-0-471-46740-3 .
- ^ Джей Джей Донгарра; Л. Грандинетти; Дж. Ковалик; Г. Р. Жубер (13 сентября 1995 г.). Высокопроизводительные вычисления: технологии, методы и приложения . Эльзевир. стр. 123–125. ISBN 978-0-444-82163-8 . Проверено 15 июня 2012 г.
- ^ Грег Астфальк (1996). Приложения на компьютерах с усовершенствованной архитектурой . СИАМ. стр. 61–64. ISBN 978-0-89871-368-8 . Проверено 15 июня 2012 г.
- ^ Елица Протич; Мило Томашевич; Мило Томашевич; Велько Милутинович (1998). Распределенная разделяемая память: понятия и системы . Издательство Компьютерного общества IEEE. стр. ix–x. ISBN 978-0-8186-7737-3 . Проверено 15 июня 2012 г.
- ^ Jump up to: а б с Томоя Энокидо; Леонард Баролли; Макото Такидзава, ред. (2007). Сетевые информационные системы: первая международная конференция, NBiS 2007, Регенсбург, Германия, 3-7 сентября 2007 г.: материалы . Берлин: Шпрингер. п. 375. ИСБН 978-3-540-74572-3 .
- ^ Список TOP500 Чтобы просмотреть все кластеры в списке TOP500, выберите «кластер» в качестве архитектуры в «меню подсписка» на сайте TOP500.
- ^ Jump up to: а б Ёкокава, М.; Сёдзи, Фумиёси; Уно, Ацуя; Курокава, Мотоёси; Ватанабэ, Тадаши (22 августа 2011 г.). «Компьютер K: японский проект разработки суперкомпьютера следующего поколения». Международный симпозиум IEEE/ACM по маломощной электронике и дизайну . стр. 371–372. дои : 10.1109/ISLPED.2011.5993668 . ISBN 978-1-61284-658-3 . S2CID 13436840 .
- ^ Кондон, Дж. Х. и К. Томпсон, «Оборудование Belle Chess», В достижениях в компьютерных шахматах 3 (изд.MRBClarke), Pergamon Press, 1982.
- ^ Сюй, Фэн-сюн (2002). За Deep Blue: создание компьютера, который победил чемпиона мира по шахматам . Издательство Принстонского университета . ISBN 978-0-691-09065-8 .
- ^ Доннингер, Крилли; Ульф Лоренц (2004). «Шахматный монстр Гидра». Программируемая на месте логика и ее применение . Конспекты лекций по информатике. Том. 3203. стр. 927–932. дои : 10.1007/978-3-540-30117-2_101 . ISBN 978-3-540-22989-6 . S2CID 5467762 .
- ^ Макино, Дзюнъитиро; Макото Тайдзи (1998). Научное моделирование с помощью компьютеров специального назначения: системы GRAPE . Чичестер [ua]: Уайли. ISBN 978-0-471-96946-4 .
- ^ Пресс-релиз RIKEN, Завершение создания компьютерной системы производительностью один петафлопс для моделирования молекулярной динамики. Архивировано 2 декабря 2012 г. в Wayback Machine.
- ^ Фонд электронных границ (1998). Взлом DES – секреты исследования шифрования, политики прослушивания телефонных разговоров и проектирования чипов . Oreilly & Associates Inc. ISBN 978-1-56592-520-5 .
- ^ Jump up to: а б Вега, Франсиско Фернандес де Вега (2010). Эрик Канту-Пас (ред.). Параллельный и распределенный вычислительный интеллект (Online-Ausg. Ed.). Берлин: Springer-Verlag. стр. 65–68. ISBN 978-3-642-10674-3 .
- ^ Статистика BOIN, 2011 г. Архивировано 19 сентября 2010 г. на Wayback Machine.
- ^ Гуан Р. Гао, изд. (2010). Языки и компиляторы для параллельных вычислений: 22-й международный семинар, LCPC 2009, Ньюарк, Делавэр, США, 8-10 октября 2009 г., переработанные избранные статьи (1-е изд.). Берлин: Шпрингер. стр. 10–11. ISBN 978-3-642-13373-2 .
- ^ Марио Р. Гуаррачино, изд. (24 июня 2011 г.). Euro-par 2010, Семинары по параллельной обработке Heteropar, Hpcc, Hibb, Coregrid, Uchpc, Hpcf, Proper, Ccpi, Vhpc, Iscia, Италия, 31 августа – 3 сентября 2010 г. Берлин [ua]: Springer-Verlag New York Inc., стр. 274–277. ISBN 978-3-642-21877-4 .
- ^ Jump up to: а б с Кравцов, Валентин; Дэвид Кармели; Вернер Дубицкий; Ариэль Орда; Ассаф Шустер; Бенни Йошпа (2007). «Квазиоппортунистические суперкомпьютеры в гридах» . Международный симпозиум IEEE по высокопроизводительным распределенным вычислениям : 233–244.
- ^ Мариан Бубак, изд. (2008). Вычислительная наука -- ICCS 2008: 8-я международная конференция, Краков, Польша, 23-25 июня 2008 г.; разбирательства (Online-Ausg. Ed.). Берлин: Шпрингер. стр. 112–113. ISBN 978-3-540-69383-3 .
- ^ Габриэль Аллен , изд. (2009). Вычислительная наука - ICCS 2009: 9-я международная конференция, Батон-Руж, Луизиана, США, 25-27 мая 2009 г.; разбирательство . Берлин: Шпрингер. стр. 387–388. ISBN 978-3-642-01969-2 .
- ^ Кунья, Хосе К. (2005). Параллельная обработка Euro-Par 2005 . [Нью-Йорк]: Springer-Verlag Berlin/Heidelberg. стр. 560–567. ISBN 978-3-540-28700-1 .
- ^ «IBM утроила производительность самого быстрого и энергоэффективного суперкомпьютера в мире» . 27 июня 2007 г. Проверено 24 декабря 2011 г.
- ^ «Список Green500» . Архивировано из оригинала 26 августа 2016 г. Проверено 13 февраля 2020 г.
- ^ Список TOP500. Архивировано 20 января 2012 г. на Wayback Machine.
- ^ Такуми Маруяма (2009). SPARC64(TM) VIIIfx: восьмиядерный процессор Fujitsu нового поколения для вычислений в масштабе PETA (PDF) . Труды Hot Chips 21. Компьютерное общество IEEE.
- ^ «Передовой институт вычислительных наук RIKEN» (PDF) . РИКЕН . Архивировано из оригинала (PDF) 27 июля 2011 года . Проверено 20 июня 2011 г.
- ↑ Fujitsu представляет суперкомпьютер Post-K HPC Wire, 7 ноября 2011 г.
- ^ «MSN | Outlook, Office, Skype, Bing, последние новости и последние видео» . Архивировано из оригинала 7 октября 2010 г.
- ^ «Китай…» 28 октября 2010 г.
- ^ «Топ100...» 28 октября 2010 г.
- ^ «Тяньхэ-1А» . Архивировано из оригинала 20 апреля 2020 г. Проверено 5 февраля 2012 г.
- ^ Тибодо, Патрик (4 ноября 2010 г.). «США заявляют, что Китай строит «полностью местный» суперкомпьютер» . Компьютерный мир . Архивировано из оригинала 11 октября 2012 года . Проверено 5 февраля 2012 г.
- ^ Jump up to: а б The Register : IBM разрывает цепочку поставок суперпродукта Blue Waters
- ^ Jump up to: а б « Компьютерный бизнес Unix компании Statesman IBM переживает бум» . Архивировано из оригинала 6 августа 2011 г. Проверено 5 февраля 2012 г.
- ^ Ню, Янвэй; Цзян Ху; Кеннет Барнер ; Гуан Р. Гао (2005). «Моделирование производительности и оптимизация доступа к памяти на клеточной компьютерной архитектуре Cyclops64». Сетевые и параллельные вычисления . Конспекты лекций по информатике. Том. 3779. стр. 132–143. дои : 10.1007/11577188_18 . ISBN 978-3-540-29810-6 .
{{cite book}}
:|journal=
игнорируется ( помогите ) - ^ Jump up to: а б Тан, Гуанмин; Сридхар, Вугранам К.; Гао, Гуан Р. (13 ноября 2009 г.). «Анализ и результаты производительности централизации вычислений по посредничеству на IBM Cyclops64». Журнал суперкомпьютеров . 56 (1): 1–24. дои : 10.1007/s11227-009-0339-9 . S2CID 10976819 .
- ^ Jump up to: а б Хай Джин; Дэниел А. Рид; Вэньбинь Цзян (2005). Сетевые и параллельные вычисления: Международная конференция IFIP, NPC 2005, Пекин, Китай, 30 ноября – 3 декабря 2005 г.; Слушания . Биркхойзер. стр. 132–133. ISBN 978-3-540-29810-6 . Проверено 15 июня 2012 г.