Intel iPSC
Персональный суперкомпьютер Intel ( Intel iPSC ) представлял собой линейку параллельных компьютеров в 1980-х и 1990-х годах. На смену iPSC/1 пришел Intel iPSC/2 , а затем Intel iPSC/860 .
ИПСК/1
[ редактировать ]В 1984 году Джастин Раттнер стал менеджером группы Intel Scientific Computers в Бивертоне, штат Орегон . Он нанял команду, в которую входил математик Клив Молер . [1] В iPSC использовалась межсетевая топология соединений между процессорами Hypercube , вдохновленная исследовательским проектом Caltech Cosmic Cube . По этой причине в нем была настроена нумерация узлов со степенью двойки, что соответствует углам гиперкубов возрастающей размерности. [2]
Intel анонсировала iPSC/1 в 1985 году с от 32 до 128 узлов, соединенных через Ethernet в гиперкуб. Система управлялась персональным компьютером эпохи PC/AT под управлением Xenix , «менеджера куба». [3] Каждый узел имел ЦП 80286 с 80287 математическим сопроцессором , 512 КБ оперативной памяти и восемь портов Ethernet (семь для межсоединения гиперкуба и один для связи с менеджером куба). [1]
Интерфейс передачи сообщений под названием NX, разработанный Полом Пирсом, развивался на протяжении всего существования линейки iPSC. [4] Поскольку только менеджер кубов имел связь с внешним миром, разработка и отладка приложений были затруднены. [5]
Базовыми моделями были iPSC/d5 (пятимерный гиперкуб с 32 узлами), iPSC/d6 (шесть измерений с 64 узлами) и iPSC/d7 (семь измерений с 128 узлами). В каждом шкафу было по 32 узла, а цены на модель iPSC/d7 с четырьмя шкафами варьировались примерно до полумиллиона долларов. [1] Также были доступны модели с дополнительной памятью (iPSC-MX) и векторным процессором (iPSC-VX) трех размеров. Также был доступен четырехмерный гиперкуб (iPSC/d4) с 16 узлами. [6]
iPSC/1 называли первым параллельным компьютером, построенным из готовых коммерческих деталей. [7] Это позволило ему выйти на рынок примерно в то же время, что и его конкуренту из nCUBE , хотя проект nCUBE стартовал раньше. Каждый шкаф iPSC имел (общие) размеры 127 x 41 x 43 см. Общая производительность компьютера оценивалась в 2 млн FLOPS . Ширина памяти составляла 16 бит.
Серийный №1 iPSC/1 с 32 узлами был доставлен в Национальную лабораторию Ок-Ридж в 1985 году. [8] [9]
ИПСК/2
[ редактировать ]Intel iPSC/2 был анонсирован в 1987 году. Он был доступен в нескольких конфигурациях: базовая установка представляла собой один шкаф с 16 процессорами Intel 80386 с частотой 16 МГц, каждый с 4 МБ памяти и сопроцессором 80387 на одном модуле. [10] Операционная система и пользовательские программы загружались с управляющего ПК. Обычно этот компьютер представлял собой Intel 301 со специальной интерфейсной картой. Вместо Ethernet для соединения гиперкубов использовался специальный модуль прямого подключения с восемью каналами со скоростью передачи данных около 2,8 Мбайт/с каждый. [10] Специальное оборудование для межсоединений приводит к увеличению стоимости, но снижает задержки связи. [11] Программное обеспечение в процессоре управления называлось «Диспетчер системных ресурсов», а не «Менеджер куба». Система допускает расширение до 128 узлов, каждый с процессором и сопроцессором. [12]
Базовые модули можно обновить до версии SX (Scalar eXtension), добавив Weitek 1167 блок с плавающей запятой . [13] Другая конфигурация позволяла соединить каждый процессорный модуль с модулем VX (Vector eXtension) со специальными блоками умножения и сложения. Обратной стороной этого является то, что количество доступных слотов для интерфейсных карт уменьшается вдвое. Наличие нескольких шкафов в рамках одной системы iPSC/2 необходимо для запуска максимального количества узлов и обеспечения возможности их подключения к модулям VX. [14]
На узлах iPSC/2 работала собственная операционная система NX/2, а на хост-машине — System V или Xenix . [15] Узлы можно настроить как iPSC/1 без локального дискового хранилища или использовать одно из подключений модуля Direct-Connect с кластерной файловой системой (в то время называемой параллельной файловой системой). [14] [16] Использование как более быстрых узловых вычислительных элементов, так и системы межсоединений улучшило производительность приложений по сравнению с iPSC/1. [17] [18] Было построено около 140 систем iPSC/2. [19]
ИПСК/860
[ редактировать ]Intel анонсировала iPSC/860 в 1990 году. iPSC/860 состоял из 128 процессорных элементов, соединенных в гиперкуб, каждый элемент состоял из Intel i860 с частотой 40–50 МГц или Intel 80386 микропроцессора . [20] Память на узел была увеличена до 8 МБ и использован аналогичный модуль Direct-Connect, который ограничивал размер 128 узлами. [21]
Одним из заказчиков была Национальная лаборатория Ок-Риджа . [20] Производительность iPSC/860 анализировалась в нескольких исследовательских проектах. [22] [23] iPSC/860 также был исходной платформой для разработки механизма параллельной трассировки лучей Tachyon. [24] [25] он стал частью теста SPEC MPI 2007 и до сих пор широко используется. [26] На смену линейке iPSC пришел исследовательский проект Touchstone Delta в Калифорнийском технологическом институте , который превратился в Intel Paragon .
Ссылки
[ редактировать ]- ^ Jump up to: а б с Молер, Клив (28 октября 2013 г.). «Гиперкуб Intel, часть 1» . Проверено 4 ноября 2013 г.
- ^ «Персональный суперкомпьютер» . Музей истории компьютеров . Проверено 4 ноября 2013 г.
- ^ Пирс, Пол Р. «Intel iPSC/1» . Архивировано из оригинала 3 июня 2013 года . Проверено 4 ноября 2013 г.
- ^ Пирс, Пол (апрель 1994 г.). «Интерфейс передачи сообщений NX». Параллельные вычисления . 20 (4): 1285–1302. дои : 10.1016/0167-8191(94)90023-X .
- ^ Шедльбауэр, Мартин Дж. (1989). «Система управления вводом-выводом для гиперкуба iPSC/1» . Материалы 17-й ежегодной конференции ACM по информатике . п. 400. дои : 10.1145/75427 . ISBN 978-0-89791-299-0 .
- ^ http://delivery.acm.org/10.1145/70000/63074/p1207-orcutt.pdf [ мертвая ссылка ]
- ^ Пирс, Пол Р. «Другие артефакты в коллекции» . Архивировано из оригинала 3 июня 2013 года . Проверено 4 ноября 2013 г.
- ^ Райли, Бетси А. «История ORNL HPCC (подробности графика)» .
- ^ «История суперкомпьютеров» .
- ^ Jump up to: а б «Intel iPSC/2 (Рубик)» . Компьютерный музей . Католический университет жизни . Проверено 4 ноября 2013 г.
- ^ Хэтчер, Филип Дж.; Куинн, Майкл Джей (1991). Параллельное программирование данных на компьютерах MIMD . МТИ Пресс. п. 7. ISBN 9780262082051 .
- ^ Чауддхури, П. Пал (2008). Компьютерная организация и дизайн . Обучение PHI. п. 826. ИСБН 9788120335110 .
- ^ Равикумар, Си. Пи (1996). Параллельные методы проектирования топологии СБИС . Издательская группа Гринвуд. п. 183. ИСБН 9780893918286 .
- ^ Jump up to: а б Донгарра, Джек ; Дафф, Иэн С. (1991). «Компьютеры с передовой архитектурой» . В Адели, Ходжат (ред.). Суперкомпьютеры в инженерном анализе . ЦРК Пресс. стр. 51–54. ISBN 9780893918286 .
- ^ Пирс, Пол (1988). «Операционная система NX/2». Материалы третьей конференции по параллельным компьютерам и приложениям Hypercube. Архитектура, программное обеспечение, компьютерные системы и общие вопросы - . С 3 П. Том. 1. АКМ. стр. 384–390. дои : 10.1145/62297.62341 . ISBN 978-0-89791-278-5 . S2CID 45688408 .
- ^ Френч, Джеймс К.; Пратт, Терренс В.; Дас, Мриганка (май 1991 г.). «Измерение производительности параллельной системы ввода-вывода для Intel iPSC/2 Hypercube». Материалы конференции ACM SIGMETRICS 1991 года по измерению и моделированию компьютерных систем - SIGMETRICS '91 . АКМ. стр. 178–187. дои : 10.1145/107971.107990 . ISBN 978-0-89791-392-8 . S2CID 13899933 .
- ^ Арши, С.; Эсбери, Р.; Бранденбург, Дж.; Скотт, Д. (1988). «Улучшение производительности приложений на компьютере iPSC/2». Материалы третьей конференции по параллельным компьютерам и приложениям Hypercube. Архитектура, программное обеспечение, компьютерные системы и общие вопросы - . Том. 1. АКМ. стр. 149–154. дои : 10.1145/62297.62316 . ISBN 978-0-89791-278-5 . S2CID 46148117 .
- ^ Боманс, Люк; Руз, Дирк (сентябрь 1989 г.). «Сравнительный анализ мультипроцессора гиперкуба iPSC/2». Параллелизм: практика и опыт . 1 (1): 3–18. дои : 10.1002/cpe.4330010103 .
- ^ Гилберт Калб; Роберт Моксли, ред. (1992). «Коммерчески доступные системы» . Массовые параллельные, оптические и нейронные вычисления в США . ИОС Пресс. стр. 17–18. ISBN 9781611971507 .
- ^ Jump up to: а б Рамачандрамурти, Сиддхартхан (1996). «Руководство по iPSC/860» . Образовательный проект в области вычислительной науки в Национальной лаборатории Ок-Ридж . Проверено 4 ноября 2013 г.
- ^ Венкатакришнан, В. (1991). «Параллельные неявные методы для аэродинамических приложений на неструктурированных сетках» . В Киз, Дэвид Э.; Саад, Ю.; Трулар, Дональд Г. (ред.). Предметный параллелизм и методы декомпозиции задач в вычислительной науке и технике . СИАМ. п. 66. ИСБН 9781611971507 .
- ^ Беррендорф, Рудольф; Хелин, Юкка (май 1992 г.). «Оценка базовой производительности параллельного компьютера Intel iPSC/860». Параллелизм: практика и опыт . 4 (3): 223–240. дои : 10.1002/cpe.4330040303 .
- ^ Дуниган, TH (декабрь 1991 г.). «Производительность гиперкубов Intel iPSC/860 и Ncube 6400» . Параллельные вычисления . 17 (10–11): 1285–1302. дои : 10.1016/S0167-8191(05)80039-0 .
- ^ Стоун, Дж.; Андервуд, М. (1 июля 1996 г.). «Визуализация численного моделирования потока с использованием MPI». Слушания. Вторая конференция разработчиков MPI . стр. 138–141. CiteSeerX 10.1.1.27.4822 . дои : 10.1109/MPIDC.1996.534105 . ISBN 978-0-8186-7533-1 . S2CID 16846313 .
- ^ Стоун, Джон Э. (январь 1998 г.). Эффективная библиотека для параллельной трассировки лучей и анимации (магистратура). Факультет компьютерных наук, Университет Миссури-Ролла, апрель 1998 г.
- ^ Стоун, Дж. Э.; Исралевиц, Б.; Шультен, К. (1 августа 2013 г.). «Ранний опыт масштабирования работ по молекулярной визуализации и анализу VMD в голубой воде». 2013 Семинар по экстремальному масштабированию (XSW 2013) . стр. 43–50. CiteSeerX 10.1.1.396.3545 . дои : 10.1109/XSW.2013.10 . ISBN 978-1-4799-3691-5 . S2CID 16329833 .