Jump to content

Intel iPSC

(Перенаправлено с Intel iPSC/2 )

Персональный суперкомпьютер Intel ( Intel iPSC ) представлял собой линейку параллельных компьютеров в 1980-х и 1990-х годах. На смену iPSC/1 пришел Intel iPSC/2 , а затем Intel iPSC/860 .

В 1984 году Джастин Раттнер стал менеджером группы Intel Scientific Computers в Бивертоне, штат Орегон . Он нанял команду, в которую входил математик Клив Молер . [1] В iPSC использовалась межсетевая топология соединений между процессорами Hypercube , вдохновленная исследовательским проектом Caltech Cosmic Cube . По этой причине в нем была настроена нумерация узлов со степенью двойки, что соответствует углам гиперкубов возрастающей размерности. [2]

Intel iPSC-1 (1985) в Музее истории компьютеров (см. также другое фото )

Intel анонсировала iPSC/1 в 1985 году с от 32 до 128 узлов, соединенных через Ethernet в гиперкуб. Система управлялась персональным компьютером эпохи PC/AT под управлением Xenix , «менеджера куба». [3] Каждый узел имел ЦП 80286 с 80287 математическим сопроцессором , 512 КБ оперативной памяти и восемь портов Ethernet (семь для межсоединения гиперкуба и один для связи с менеджером куба). [1]

Интерфейс передачи сообщений под названием NX, разработанный Полом Пирсом, развивался на протяжении всего существования линейки iPSC. [4] Поскольку только менеджер кубов имел связь с внешним миром, разработка и отладка приложений были затруднены. [5]

Базовыми моделями были iPSC/d5 (пятимерный гиперкуб с 32 узлами), iPSC/d6 (шесть измерений с 64 узлами) и iPSC/d7 (семь измерений с 128 узлами). В каждом шкафу было по 32 узла, а цены на модель iPSC/d7 с четырьмя шкафами варьировались примерно до полумиллиона долларов. [1] Также были доступны модели с дополнительной памятью (iPSC-MX) и векторным процессором (iPSC-VX) трех размеров. Также был доступен четырехмерный гиперкуб (iPSC/d4) с 16 узлами. [6]

iPSC/1 называли первым параллельным компьютером, построенным из готовых коммерческих деталей. [7] Это позволило ему выйти на рынок примерно в то же время, что и его конкуренту из nCUBE , хотя проект nCUBE стартовал раньше. Каждый шкаф iPSC имел (общие) размеры 127 x 41 x 43 см. Общая производительность компьютера оценивалась в 2 млн FLOPS . Ширина памяти составляла 16 бит.

Серийный №1 iPSC/1 с 32 узлами был доставлен в Национальную лабораторию Ок-Ридж в 1985 году. [8] [9]

16-узловой параллельный компьютер Intel iPSC/2. 22 августа 1995 г.

Intel iPSC/2 был анонсирован в 1987 году. Он был доступен в нескольких конфигурациях: базовая установка представляла собой один шкаф с 16 процессорами Intel 80386 с частотой 16 МГц, каждый с 4 МБ памяти и сопроцессором 80387 на одном модуле. [10] Операционная система и пользовательские программы загружались с управляющего ПК. Обычно этот компьютер представлял собой Intel 301 со специальной интерфейсной картой. Вместо Ethernet для соединения гиперкубов использовался специальный модуль прямого подключения с восемью каналами со скоростью передачи данных около 2,8 Мбайт/с каждый. [10] Специальное оборудование для межсоединений приводит к увеличению стоимости, но снижает задержки связи. [11] Программное обеспечение в процессоре управления называлось «Диспетчер системных ресурсов», а не «Менеджер куба». Система допускает расширение до 128 узлов, каждый с процессором и сопроцессором. [12]

Базовые модули можно обновить до версии SX (Scalar eXtension), добавив Weitek 1167 блок с плавающей запятой . [13] Другая конфигурация позволяла соединить каждый процессорный модуль с модулем VX (Vector eXtension) со специальными блоками умножения и сложения. Обратной стороной этого является то, что количество доступных слотов для интерфейсных карт уменьшается вдвое. Наличие нескольких шкафов в рамках одной системы iPSC/2 необходимо для запуска максимального количества узлов и обеспечения возможности их подключения к модулям VX. [14]

На узлах iPSC/2 работала собственная операционная система NX/2, а на хост-машине — System V или Xenix . [15] Узлы можно настроить как iPSC/1 без локального дискового хранилища или использовать одно из подключений модуля Direct-Connect с кластерной файловой системой (в то время называемой параллельной файловой системой). [14] [16] Использование как более быстрых узловых вычислительных элементов, так и системы межсоединений улучшило производительность приложений по сравнению с iPSC/1. [17] [18] Было построено около 140 систем iPSC/2. [19]

Передняя панель параллельного компьютера Intel iPSC/860 с 32 узлами и механизмом параллельной трассировки лучей Tachyon . 22 августа 1995 г.

Intel анонсировала iPSC/860 в 1990 году. iPSC/860 состоял из 128 процессорных элементов, соединенных в гиперкуб, каждый элемент состоял из Intel i860 с частотой 40–50 МГц или Intel 80386 микропроцессора . [20] Память на узел была увеличена до 8 МБ и использован аналогичный модуль Direct-Connect, который ограничивал размер 128 узлами. [21]

Параллельный компьютер Intel iPSC/860 с 32 узлами и открытой передней дверцей, на котором показаны вычислительные узлы, узлы ввода-вывода и платы управления системой. 22 августа 1995 г.

Одним из заказчиков была Национальная лаборатория Ок-Риджа . [20] Производительность iPSC/860 анализировалась в нескольких исследовательских проектах. [22] [23] iPSC/860 также был исходной платформой для разработки механизма параллельной трассировки лучей Tachyon. [24] [25] он стал частью теста SPEC MPI 2007 и до сих пор широко используется. [26] На смену линейке iPSC пришел исследовательский проект Touchstone Delta в Калифорнийском технологическом институте , который превратился в Intel Paragon .

  1. ^ Jump up to: а б с Молер, Клив (28 октября 2013 г.). «Гиперкуб Intel, часть 1» . Проверено 4 ноября 2013 г.
  2. ^ «Персональный суперкомпьютер» . Музей истории компьютеров . Проверено 4 ноября 2013 г.
  3. ^ Пирс, Пол Р. «Intel iPSC/1» . Архивировано из оригинала 3 июня 2013 года . Проверено 4 ноября 2013 г.
  4. ^ Пирс, Пол (апрель 1994 г.). «Интерфейс передачи сообщений NX». Параллельные вычисления . 20 (4): 1285–1302. дои : 10.1016/0167-8191(94)90023-X .
  5. ^ Шедльбауэр, Мартин Дж. (1989). «Система управления вводом-выводом для гиперкуба iPSC/1» . Материалы 17-й ежегодной конференции ACM по информатике . п. 400. дои : 10.1145/75427 . ISBN  978-0-89791-299-0 .
  6. ^ http://delivery.acm.org/10.1145/70000/63074/p1207-orcutt.pdf [ мертвая ссылка ]
  7. ^ Пирс, Пол Р. «Другие артефакты в коллекции» . Архивировано из оригинала 3 июня 2013 года . Проверено 4 ноября 2013 г.
  8. ^ Райли, Бетси А. «История ORNL HPCC (подробности графика)» .
  9. ^ «История суперкомпьютеров» .
  10. ^ Jump up to: а б «Intel iPSC/2 (Рубик)» . Компьютерный музей . Католический университет жизни . Проверено 4 ноября 2013 г.
  11. ^ Хэтчер, Филип Дж.; Куинн, Майкл Джей (1991). Параллельное программирование данных на компьютерах MIMD . МТИ Пресс. п. 7. ISBN  9780262082051 .
  12. ^ Чауддхури, П. Пал (2008). Компьютерная организация и дизайн . Обучение PHI. п. 826. ИСБН  9788120335110 .
  13. ^ Равикумар, Си. Пи (1996). Параллельные методы проектирования топологии СБИС . Издательская группа Гринвуд. п. 183. ИСБН  9780893918286 .
  14. ^ Jump up to: а б Донгарра, Джек ; Дафф, Иэн С. (1991). «Компьютеры с передовой архитектурой» . В Адели, Ходжат (ред.). Суперкомпьютеры в инженерном анализе . ЦРК Пресс. стр. 51–54. ISBN  9780893918286 .
  15. ^ Пирс, Пол (1988). «Операционная система NX/2». Материалы третьей конференции по параллельным компьютерам и приложениям Hypercube. Архитектура, программное обеспечение, компьютерные системы и общие вопросы - . С 3 П. Том. 1. АКМ. стр. 384–390. дои : 10.1145/62297.62341 . ISBN  978-0-89791-278-5 . S2CID   45688408 .
  16. ^ Френч, Джеймс К.; Пратт, Терренс В.; Дас, Мриганка (май 1991 г.). «Измерение производительности параллельной системы ввода-вывода для Intel iPSC/2 Hypercube». Материалы конференции ACM SIGMETRICS 1991 года по измерению и моделированию компьютерных систем - SIGMETRICS '91 . АКМ. стр. 178–187. дои : 10.1145/107971.107990 . ISBN  978-0-89791-392-8 . S2CID   13899933 .
  17. ^ Арши, С.; Эсбери, Р.; Бранденбург, Дж.; Скотт, Д. (1988). «Улучшение производительности приложений на компьютере iPSC/2». Материалы третьей конференции по параллельным компьютерам и приложениям Hypercube. Архитектура, программное обеспечение, компьютерные системы и общие вопросы - . Том. 1. АКМ. стр. 149–154. дои : 10.1145/62297.62316 . ISBN  978-0-89791-278-5 . S2CID   46148117 .
  18. ^ Боманс, Люк; Руз, Дирк (сентябрь 1989 г.). «Сравнительный анализ мультипроцессора гиперкуба iPSC/2». Параллелизм: практика и опыт . 1 (1): 3–18. дои : 10.1002/cpe.4330010103 .
  19. ^ Гилберт Калб; Роберт Моксли, ред. (1992). «Коммерчески доступные системы» . Массовые параллельные, оптические и нейронные вычисления в США . ИОС Пресс. стр. 17–18. ISBN  9781611971507 .
  20. ^ Jump up to: а б Рамачандрамурти, Сиддхартхан (1996). «Руководство по iPSC/860» . Образовательный проект в области вычислительной науки в Национальной лаборатории Ок-Ридж . Проверено 4 ноября 2013 г.
  21. ^ Венкатакришнан, В. (1991). «Параллельные неявные методы для аэродинамических приложений на неструктурированных сетках» . В Киз, Дэвид Э.; Саад, Ю.; Трулар, Дональд Г. (ред.). Предметный параллелизм и методы декомпозиции задач в вычислительной науке и технике . СИАМ. п. 66. ИСБН  9781611971507 .
  22. ^ Беррендорф, Рудольф; Хелин, Юкка (май 1992 г.). «Оценка базовой производительности параллельного компьютера Intel iPSC/860». Параллелизм: практика и опыт . 4 (3): 223–240. дои : 10.1002/cpe.4330040303 .
  23. ^ Дуниган, TH (декабрь 1991 г.). «Производительность гиперкубов Intel iPSC/860 и Ncube 6400» . Параллельные вычисления . 17 (10–11): 1285–1302. дои : 10.1016/S0167-8191(05)80039-0 .
  24. ^ Стоун, Дж.; Андервуд, М. (1 июля 1996 г.). «Визуализация численного моделирования потока с использованием MPI». Слушания. Вторая конференция разработчиков MPI . стр. 138–141. CiteSeerX   10.1.1.27.4822 . дои : 10.1109/MPIDC.1996.534105 . ISBN  978-0-8186-7533-1 . S2CID   16846313 .
  25. ^ Стоун, Джон Э. (январь 1998 г.). Эффективная библиотека для параллельной трассировки лучей и анимации (магистратура). Факультет компьютерных наук, Университет Миссури-Ролла, апрель 1998 г.
  26. ^ Стоун, Дж. Э.; Исралевиц, Б.; Шультен, К. (1 августа 2013 г.). «Ранний опыт масштабирования работ по молекулярной визуализации и анализу VMD в голубой воде». 2013 Семинар по экстремальному масштабированию (XSW 2013) . стр. 43–50. CiteSeerX   10.1.1.396.3545 . дои : 10.1109/XSW.2013.10 . ISBN  978-1-4799-3691-5 . S2CID   16329833 .
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: b0f8aac3e3d8e4f5ee37032fe17defab__1709584260
URL1:https://arc.ask3.ru/arc/aa/b0/ab/b0f8aac3e3d8e4f5ee37032fe17defab.html
Заголовок, (Title) документа по адресу, URL1:
Intel iPSC - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)