Парситек
![]() | Эта статья может потребовать редактирования текста с точки зрения грамматики, стиля, связности, тона или орфографии . ( Апрель 2024 г. ) |
![]() | |
Тип бизнеса | Общественный |
---|---|
Доступно в | немецкий |
Основан | 1985 |
Штаб-квартира | , |
Обслуживаемая территория | Северная Америка , Южная Америка , Европа , Азиатско-Тихоокеанский регион |
Основатель(и) | Фальк-Дитрих Кюблер, Герхард Пайзе, Бернд Вольф |
Услуги | Системы контроля поверхности |
URL-адрес | http://www.parsytec.de |
Isra Vision Parsytec AG — компания Isra Vision , основанная в 1985 году как Parsytec ( технология параллельных систем ) в Аахене , Германия.
Parsytec стала известна в конце 1980-х — начале 1990-х годов как производитель параллельных систем на базе транспьютеров . Продукция варьировалась от одной транспьютера сменной платы для IBM PC до больших массово-параллельных систем с тысячами транспьютеров (или процессоров соответственно), таких как Parsytec GC. Некоторые источники называют последние масштабируемыми мультикомпьютерами размером с ультракомпьютер (smC) . [1] [2]
Являясь частью ISRA VISION AG, сегодня компания специализируется на решениях в области машинного зрения и промышленной обработки изображений. Продукция ISRA Parsytec используется для контроля качества и поверхности, особенно в металлургической и бумажной промышленности.
История
[ редактировать ]
В 1985 году компания Parsytec была основана Фальком-Дитрихом Кюблером, Герхардом Х. Пайзе и Берндом Вольфом в Аахене , Германия, на грант в размере 800 000 немецких марок от Федерального министерства исследований и технологий (BMFT) . [3]
В отличие от SUPRENUM , Parsytec напрямую нацелила свои системы ( распознавание образов ) на промышленные применения, такие как контроль поверхности. Таким образом, они не только имели значительную долю рынка в европейских научных кругах, но и могли привлечь множество промышленных клиентов. В их число входили многие клиенты за пределами Германии . В 1988 году экспорт составлял примерно треть оборота Parsytec. Показатели оборота были следующими: ноль в 1985 году, 1,5 миллиона немецких марок в 1986 году, 5,2 миллиона немецких марок в 1988 году, 9 миллионов немецких марок в 1989 году и 15 миллионов немецких марок в 1990 году, 17 миллионов долларов США в 1991 году.
Чтобы сосредоточить внимание Parsytec на исследованиях и разработках, была основана компания ParaCom, занимающаяся продажами и маркетингом бизнеса. Штаб-квартира Parsytec/ParaCom находилась в Аахене (Германия), однако у них были дочерние офисы продаж в Хемнице (Германия), Саутгемптоне (Великобритания), Чикаго (США), Санкт-Петербурге (Россия) и Москве (Россия). [4] В Японии машины продавала компания Matsushita . [3]
Между 1988 и 1994 годами компания Parsytec создала впечатляющую линейку компьютеров на базе транспьютеров , пиком которой стал «Parsytec GC» (GigaCluster), который был доступен в версиях, использующих от 64 до 16384 транспьютеров . [5]
Parsytec провела IPO в середине 1999 года на Немецкой фондовой бирже во Франкфурте .
30 апреля 2006 года основатель Фальк-Д. Кюблер покинул компанию. [6]
В июле 2007 года [7] 52.6% [8] компании Parsytec AG были приобретены ISRA VISION AG. Делистинг акций Parsytec с фондового рынка начался в декабре того же года. А с 18 апреля 2008 года акции Parsytec больше не котируются на фондовой бирже. [9]
В то время как в начале 1990-х годов в Parsytec работало около 130 человек, в 2012/2013 году в ISRA VISION Group работало более 500 сотрудников. [10]
Сегодня основным направлением деятельности ISRA Parsytec в составе группы ISRA VISION является разработка и распространение систем контроля поверхности полосовой продукции в металлургической и бумажной промышленности.
Продукты/Компьютеры
[ редактировать ]Ассортимент продукции Parsytec включал:
- Megaframe ( T414 / T800 ) --- по одной на плату, до десяти плат в стойке или в виде вставных плат.
- MultiCluster ( T800 ) --- до 64 процессоров в одной стойке.
- SuperCluster ( T800 ) --- от 16 до 1024 процессоров в одном кадре.
- GigaCluster (планируется: T9000 ; реализовано: T800 или MPC 601 ) --- от 64 до 16384 процессоров в «кубах»
- x'plorer ( T800 или MPC 601 )
- Когнитивный компьютер ( MPC 604 и Intel Pentium Pro )
- Мощная мышь ( MPC 604 )
Всего было отгружено около 700 автономных систем (СК и ГХ).
Вначале Parsytec участвовала в GPMIMD ( MIMD общего назначения ). [11] проект под эгидой ESPRIT [12] Оба проекта финансируются Европейской комиссии Директоратом по науке . Однако после существенных разногласий с другими участниками, Meiko , Parsys, Inmos и Telmat, по поводу выбора общей физической архитектуры, Parsytec вышла из проекта и анонсировала T9000 собственную машину на базе , то есть GC. Но из-за проблем Inmos с T9000 они были вынуждены перейти на ансамбль процессоров Motorola MPC 601 и Inmos T805 . Это привело к тому, что «гибридные» системы Parsytec (например, GC/PP) превратили транспьютеры в коммуникационные процессоры, в то время как вычислительная работа была переложена на PowerPC .
Кластерные системы Parsytec управлялись внешней рабочей станцией, обычно рабочей станцией SUN (например, Sun-4). [13] ).
Существует существенная путаница в названиях продуктов Parsytec. С одной стороны, это связано с архитектурой, а с другой – с вышеупомянутым отсутствием Inmos T9000 , которое вынудило Parsytec использовать вместо него T805 и PowerPC . Системы, оснащенные процессорами PowerPC , имели приставку «Power».
Что касается архитектуры систем GC, весь GigaCluster состоит из автономных GigaCubes. Базовым архитектурным элементом системы Parsytec был кластер, состоящий, среди прочего, из четырех транспьютеров/процессоров (т.е. кластер – это узел в классическом понимании).
Гигакуб (иногда называемый суперузлом/меганодом). [14] ) состоял из четырех кластеров (узлов) с 16 Inmos T805 транспьютерами (30 МГц), оперативной памятью (до 4 МБ на T805 ), плюс еще одним резервным T805 (дополнительный, таким образом, 17-й процессор), соединениями локального канала и четырьмя Inmos Маршрутизирующие чипы C004. Аппаратная отказоустойчивость обеспечивалась путем привязки каждого из T805 к отдельному C004. [15] Необычное написание слова x'plorer привело к созданию xPlorer, а Gigacluster иногда называют Gigacube или Grand Challenge.
Мегафрейм
[ редактировать ]Мегафрейм [16] [17] было названием продукта семейства модулей параллельной обработки на базе транспьютеров. [18] Некоторые из них можно было бы использовать для обновления IBM PC . [19] В качестве автономной системы система Megaframe может содержать до десяти процессорных модулей. Были доступны разные версии модулей, например, один с 32-битным транспьютером T414 , аппаратным обеспечением с плавающей запятой Motorola 68881 , 1 МБ (время доступа 80 наносекунд) ОЗУ и пропускной способностью 10 MIPS, или один с четырьмя 16-битными модулями. битовые транспьютеры T22x с 64 КБ ОЗУ. Также предлагались карты со специальными функциями, такими как графический процессор с разрешением 1280 x 1024 пикселей или «кластер» ввода-вывода с терминалом и интерфейсом SCSI . [20]
Мультикластер
[ редактировать ]Серия MultiCluster-1 представляла собой статически настраиваемые системы и могла быть адаптирована к конкретным требованиям пользователя, таким как количество процессоров, объем памяти и конфигурация ввода-вывода, а также топология системы. Требуемую топологию процессора можно настроить с помощью соединения UniLink; подается через специальную заднюю панель. Кроме того, были предусмотрены четыре внешние розетки.
В Multicluster-2 использовались блоки конфигурации сети (NCU), которые обеспечивали гибкие, динамически настраиваемые сети межсоединений. Многопользовательская среда может поддерживать до восьми пользователей при использовании программного обеспечения Parsytec с множественной виртуальной архитектурой. Конструкция NCU была основана на перекрестном переключателе Inmos C004, который обеспечивает полную перекрестную связь до 16 транспьютеров. К каждому NCU, состоящему из C004, подключено до 96 каналов UniLink, которые связывают как внутренние, так и внешние транспьютеры и другие подсистемы ввода-вывода. MultiCluster-2 предоставил возможность настраивать различные топологии фиксированных соединений, такие как древовидные или ячеистые структуры. [14]
Суперкластер
[ редактировать ]SuperCluster (изображение) имел иерархическую структуру на основе кластеров. Базовым блоком был T800 полностью подключенный кластер с 16 транспьютерами; более крупные системы имели дополнительные уровни NCU для формирования необходимых соединений. Программное обеспечение Network Configuration Manager (NCM) управляло NCU и динамически устанавливало необходимые соединения. Каждый транспьютер мог быть оснащен динамической оперативной памятью объемом от 1 до 32 МБ. с коррекцией одиночных ошибок и обнаружением двойных ошибок. [14]
Гига-кластер
[ редактировать ]GigaCluster (GC) — параллельный компьютер, выпущенный в начале 1990-х годов. Гига-кластер состоит из гига-кубов. [21]
Будучи разработанным для Inmos T9000 транспьютеров , он никогда не мог быть выпущен как таковой, поскольку сами транспьютеры Inmos T9000 так и не появились на рынке вовремя. Это привело к разработке GC/PP (PowerPlus), в котором два Motorola MPC 601 (80 МГц) использовались в качестве выделенных процессоров, поддерживаемых четырьмя транспьютерами T805 (30 МГц). [22]
Хотя GC/PP была гибридной системой, GC el («начальный уровень») была основана только на T805 . [23] [24] Предполагалось, что GC el можно будет модернизировать до транспьютеров T9000 (если бы они появились достаточно рано), таким образом став полноценным GC. Поскольку T9000 был эволюционным преемником T800 от Inmos , модернизация планировалась простой и понятной, потому что, во-первых, оба транспьютера использовали один и тот же набор команд, а, во-вторых, они также имели довольно похожее соотношение производительности вычислительной мощности и пропускной способности связи. Таким образом, теоретический коэффициент ускорения ожидался в 10 раз. [21] но в конце концов оно так и не было достигнуто.
Сетевая структура GC представляла собой двумерную решетку со скоростью связи между узлами (т.е. кластерами на жаргоне Parsytec) 20 Мбит/с. В то время концепция GC была исключительно модульной и, следовательно, масштабируемой.
Так называемый GigaCube представлял собой модуль, который уже представлял собой систему с одним гигафлопсом; более того, это был строительный блок для более крупных систем. Модуль (то есть куб на жаргоне Parsytec) содержал
- четыре кластера
из которых каждый был оснащен
- 16 транспьютеров (плюс еще один транспьютер для резервирования, что составляет 17 транспьютеров на кластер),
- 4 чипа маршрутизации червоточин ( C104 для запланированного T9000 и C004 для реализованного T805 ),
- выделенный источник питания и порты связи.
Объединив модули (или кубы соответственно) теоретически можно было соединить вместе до 16384 процессоров в очень мощную систему.
Типичными установками были:
Система | Количество процессоров | Количество гигакубов |
---|---|---|
ГК-1 | 64 | 1 |
ГК-2 | 256 | 4 |
ГК-3 | 1024 | 16 |
ГК-4 | 4096 | 48 |
ГК-5 | 16384 | 256 |
Две крупнейшие установки ГЦ, которые были фактически поставлены, имели 1024 процессора (16 модулей, по 64 транспьютера на модуль) и эксплуатировались в центрах обработки данных университетов Кельна и Падерборна. В октябре 2004 года последний был передан Форуму музеев Хайнца Никсдорфа. [25] где он сейчас неработоспособен.
Энергопотребление системы с 1024 процессорами составляло примерно 27 кВт, вес — почти тонну. В 1992 году стоимость системы составляла около 1,5 миллиона немецких марок . В то время как меньшие версии до GC-3 имели воздушное охлаждение, для более крупных систем водяное охлаждение было обязательным.
В 1992 году GC с 1024 процессорами попал в список TOP500. [26] из самых быстрых в мире суперкомпьютерных установок. Только в Германии это был 22-й из самых быстрых компьютеров.
В 1995 году в списке Top500 было девять компьютеров Parsytec, из которых две установки GC/PP 192 занимали 117 и 188 места в списке TOP500. [27]
А в 1996 году они еще занимали 230 и 231 места в списке ТОП500. [28] [29]
х'плорер
[ редактировать ]
Модель x'plorer выпускалась в двух версиях: первоначальная версия имела 16 транспьютеров , каждый из которых имел доступ к 4 МБ ОЗУ и назывался просто x'plorer. Позже, когда Parsytec вообще перешел на архитектуру PPC , он назывался POWERx'plorer и имел 8 MPC 601 процессоров . Обе модели поставлялись в одном великолепном настольном корпусе (разработанном Via 4 Design). [30] ).
В любой модели x'plorer представлял собой более или менее одиночный «срез» — Parsytec называл их кластером (изображение) — GigaCube (PPC или Transputer), который использовал 4 из этих кластеров в своей самой маленькой версии (GC-1). . Поэтому некоторые называют его «GC-0,25». [31]
POWERx'plorer был основан на 8 процессорах, расположенных в виде 2D-сетки. Каждый процессорный блок имел
- один MPC 601 с тактовой частотой 80 МГц, процессор
- 8 МБ локальной памяти и
- транспьютер для установления и поддержания линий связи. [32]
Когнитивный компьютер
[ редактировать ]Parsytec CC (Когнитивный компьютер) (изображение) Система [33] [34] представлял собой автономную единицу на уровне стойки для карт.
Подсистема стойки для карт CC обеспечивала систему всей инфраструктурой, включая электропитание и охлаждение. Система может быть сконфигурирована как стандартное 19- дюймовое монтируемое в стойку устройство, в которое можно устанавливать различные сменные модули высотой 6U.
Система CC [35] представлял собой параллельный компьютер с распределенной памятью и передачей сообщений, который во всем мире классифицируется как MIMD. параллельный компьютер компьютеры.
Было доступно две разные версии:
- CCe: на базе процессора Motorola MPC 604, работающего на частоте 133 МГц, с кэшем второго уровня объемом 512 КБ. Модули были соединены вместе на скорости 1 Гбит/с с использованием технологии высокоскоростного канала связи (HS) в соответствии со стандартом IEEE 1355 , позволяющей передавать данные со скоростью до 75 МБ/с. Контроллер связи был интегрирован в процессорные узлы через шину PCI . На системной плате использовался чип MPC 105 для обеспечения управления памятью, обновления DRAM и декодирования памяти для банков DRAM и/или флэш-памяти. Скорость шины [CPU] ограничена 66 МГц, тогда как максимальная скорость шины PCI составляла 33 МГц.
- CCi: на базе Intel Pentium Pro его основными элементами были две материнские платы на базе Pentium Pro (с частотой 266 МГц), которые были соединены между собой с помощью нескольких высокоскоростных сетей. Каждая сдвоенная материнская плата имела 128 Мбайт памяти. Каждый узел имел пиковую производительность 200 MFLOPS. Спектр продукции включал однопроцессорные или SMP-платы с системой до 144 узлов, большое разнообразие карт PCI, а также различные коммуникационные решения (Gigabit HS-Link, Myrinet, SCI, ATM или Fast-Ethernet). Операционные системы: Windows NT 4.0 и ParsyFRame (среда UNIX была необязательной). [36]
Во всех CC-системах узлы были напрямую подключены к одному и тому же маршрутизатору, в котором реализован активный аппаратный перекрестный коммутатор 8 на 8, обеспечивающий до 8 подключений по высокоскоростному каналу 40 МБ/с.
Что касается CCe, то программное обеспечение было основано на системе IBM AIX операционной 4.1 UNIX вместе со средой параллельного программирования Parsytec Embedded PARIX (EPX). [37] Таким образом, он объединил стандартную среду UNIX (компиляторы, инструменты, библиотеки) с передовой средой разработки программного обеспечения. Система была интегрирована в локальную сеть с использованием стандартного Ethernet. Таким образом, узел CC имел пиковую производительность 266 Мфлопс. Таким образом, пиковая производительность 8-узловой системы CC, установленной в Университетской больнице Женевы, составила 2,1 GFlops. [38]
Powermouse
[ редактировать ]Powermouse была еще одной масштабируемой системой, состоящей из модулей и отдельных компонентов. Это было прямое расширение системы x'plorer. [36] Каждый модуль (размеры: 9 см х 21 см х 45 см) содержал четыре процессора MPC 604 (200/300 МГц) и 64 МБ оперативной памяти, достигая пиковой производительности 2,4 Гфлопс/с. Отдельный коммуникационный процессор T425 ), оснащенный оперативной памятью 4 МБ, [39] контролировал поток данных в четырех направлениях к другим модулям системы. Пропускная способность одного узла составила 9 МБ/с.
Примерно за 35000 немецких марок базовая система, состоящая из 16 процессоров (т.е. четырех модулей), может обеспечить общую вычислительную мощность 9,6 Гфлопс/с. Как и всем продуктам Parsytec, Powermouse требовалась Sun Sparcstation в качестве внешнего интерфейса.
Все программное обеспечение ( PARIX с компиляторами и отладчиками C++ и Fortran 77 (альтернативно предоставляющими MPI или PVM в качестве пользовательских интерфейсов) было включено. [40]
Операционная система
[ редактировать ]В качестве операционной системы использовалась PARIX (расширения PARallel UniX). [41] (ПАРИКС Q8 для T80x транспьютеров и PARIX Т9 для Т9000 транспьютеров соответственно). На базе UNIX , PARIX [42] поддерживал удаленные вызовы процедур и соответствовал стандарту POSIX . PARIX предоставил функциональные возможности UNIX на внешнем интерфейсе (например, Sun SPARCstation , которую нужно было приобретать отдельно) с расширениями библиотеки для нужд параллельной системы на внутреннем интерфейсе, который и представлял собой сам продукт Parsytec (он был подключен к внешнему интерфейсу). которым он управлялся). Программный комплекс Parix включал в себя компоненты среды разработки программ (компиляторы, инструменты и т. д.) и среды выполнения (библиотеки). PARIX предлагал различные типы синхронной и асинхронной связи.
Кроме того, Parsytec предоставила среду параллельного программирования под названием Embedded PARIX (EPX). [37]
Для разработки параллельных приложений с использованием EPX потоки данных и функциональные задачи были распределены по сети узлов. Обработка данных между процессорам требовалось всего несколько системных вызовов. Были доступны стандартные процедуры синхронной связи, такие как отправка и получение, а также асинхронные системные вызовы. Полный набор вызовов EPX установил интерфейс прикладного программирования EPX ( API ). Пункт назначения для любой передачи сообщений определялся через виртуальный канал, который заканчивался в любом заданном пользователем процессе. Виртуальные каналы определялись пользователем и управлялись EPX. Фактическое программное обеспечение системы доставки сообщений использовало маршрутизатор. [38] Кроме того, можно также запустить COSY (параллельную операционную систему). [43] и Гелиосы на машинах. Helios из коробки поддерживает специальный механизм сброса Parsytec.
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Массивно-параллельные компьютеры: почему не параллельные компьютеры для масс? Дж. Белл на microsoft.com
- ^ Методы релаксации линий переменного направления на мультикомпьютерах Дж. Хофхаус и др., SIAM J. ScI. КОМПЬЮТ. Том. 17, № 2, стр. 454-478, март 1996 г.
- ^ Jump up to: а б Дуэль пожирателей чисел на zeit.de (немецкий)
- ^ Parsytec GmbH на new-npac.org
- ^ Parsytec Статья на GeekDot.com
- ^ Годовой отчет о финансовой деятельности за 2006 г. [ постоянная мертвая ссылка ] на сайте parsytec.de
- ↑ ISRA Vision приобретает Parsytec , 23 июля 2007 г., на finanznachrichten.de (немецкий).
- ^ ISRA VISION AG - Приобретение контрольного пакета акций Parsytec AG , 24 июля 2007 г., на equinet-ag.de (немецкий)
- ^ Связи с инвесторами в ISRA на parsytec.de
- ↑ Годовой отчет за 2012/2013 гг. , 5 мая 2014 г., на isravision.com.
- ^ Машины MIMD общего назначения на cordis.europa.eu
- ^ Европейская программа (ЕЭС) исследований и разработок в области информационных технологий (ESPRIT), 1984–1988 гг.
- ^ Структура характеристики параллельных систем для оценки производительности Эфстатиос Папаефстатиу (1995)
- ^ Jump up to: а б с Информационный бюллетень ESN 92-08 на dtic.mil
- ^ Решения Hypecube для сопряженных направлений, Дж. Э. Хартман (1991) на dtic.mil
- ^ MEGAFRAME TPM-1 - Документация по оборудованию, версия. 1.2 (1987) на classiccmp.org
- ^ MEGAFRAME MTM-2 - Документация по оборудованию, версия. 1.3 (1987) на classiccmp.org
- ^ Семья MEGAFRAME. Архивировано 10 февраля 2013 г., archive.today , май 1987 г., на Computerwoche.de (немецкий).
- ^ Домашняя страница транспьютера Рама Минакшисундарама на classiccmp.org
- ^ Транспьютерная система свободно настраивается. Архивировано 2 апреля 2008 г. на Wayback Machine, март 1987 г., на Computerwoche.de (немецкий).
- ^ Jump up to: а б о Gigacube Статья на GeekDot.com
- ^ Parsytec Power Plus на netlib.org
- ^ Программирование и применение параллельных компьютерных систем Parsytec SC и Parsytec GC/PP Б. Хайминг, 1996, Технический университет Гамбург-Харбург (немецкий)
- ^ Синтез массивных параллельных систем моделирования для оценки коммутационной активности в конечных автоматах. [ постоянная мертвая ссылка ] В. Бахманн и др., Дармштадтский технологический университет
- ^ Домашняя страница Хайнца Никсдорфа. форума музея
- ^ http://www.top500.org Список ТОП500
- ^ Список Top500 1996 г.
- ^ Конспекты лекций по прикладным параллельным вычислениям. Архивировано 16 августа 2010 г. на Wayback Machine на ocw.mit.edu.
- ^ Многое очень помогает: у новых суперкомпьютеров дешевые процессоры, как у соседнего ПК, но на zeit.de (немецкий) их тысячи.
- ^ Интернет-выставка iF - Через 4 Design на ifdesign.de
- ^ x'plorer Статья на GeekDot.com
- ^ Экспериментальное исследование совместного использования времени и пространства на PowerXplorer С. Бани-Ахмад, Журнал Ubiquitous Computing and Communication Journal Vol. 3 № 1
- ^ Серия Parsytec CC (Аппаратное обеспечение. Документация), версия 1.2 (1996) Parsytec GmbH
- ^ Серия Parsytec CC на netlib.org.
- ^ Target Machines. Архивировано 12 августа 2004 г. на Wayback Machine по адресу http://parallel.di.uoa.gr.
- ^ Jump up to: а б Аппаратное обеспечение для параллельных вычислений. Архивировано 16 июня 2012 г. на Wayback Machine на ssd.sscc.ru.
- ^ Jump up to: а б Встроенный Parix Ver. 1.9.2, Документация по программному обеспечению (1996 г.)
- ^ Jump up to: а б Реализация среды для моделирования методом Монте-Карло полностью трехмерной позитронной томографии на высокопроизводительной параллельной платформе Х. Заиди, Parallel Computing, Vol. 24 (1998), стр. 1523-1536.
- ↑ Система Parsytec Power Mouse в CSA. Архивировано 16 апреля 2013 г., archive.today , 15 декабря 1998 г., csa.ru.
- ^ Parsytec поставляет комплект для сборки параллельных компьютеров. Архивировано 10 февраля 2013 г. на archive.today , 19 сентября 1997 г., comuterwoche.de (немецкий).
- ^ Документация по программному обеспечению PARIX версии 1.2, март 1993 г.
- ^ Парикс на http://www.informatik.uni-osnabrueck.de
- ^ COSY - операционная система для высокопараллельных компьютеров Р. Бутенут на uni-paderborn.de (немецкий)
Внешние ссылки
[ редактировать ]- Домашняя страница ISRA VISION PARSYTEC AG
- Домашняя страница Транспьютера Рама Минакшисундарама на classiccmp.org
- 16 384 процессора приносят суперкомпьютер Transputer от Parsytec с производительностью 400 Гфлопс в качестве нового чемпиона мира Статья на Computerwoche.de (немецкий)
- О стратегии Parsytec Кюблера: «Через десять лет большинство компьютеров будут работать параллельно», 1 октября 1993 г., на Computerwoche.de (немецкий).
- Проект FTMPS: разработка и реализация методов отказоустойчивости для массово-параллельных систем [ постоянная мертвая ссылка ] Дж. Вунккс и др.
- Домашняя страница Via 4 Design