ТераГрид
Тип сайта | Научная поддержка |
---|---|
Доступно в | Английский |
URL-адрес | www |
Коммерческий | Нет |
Запущен | 2004 |
TeraGrid представляла собой -вычислительную инфраструктуру электронной науки грид , объединяющую ресурсы одиннадцати партнерских площадок. Проект стартовал в 2001 году и действовал с 2004 по 2011 год.
TeraGrid объединила высокопроизводительные компьютеры, ресурсы и инструменты данных, а также экспериментальное оборудование. Ресурсы включали более петафлопс вычислительных мощностей и более 30 петабайт оперативного и архивного хранилища данных с быстрым доступом и извлечением через высокопроизводительные компьютерные сети . Исследователи также могли получить доступ к более чем 100 базам данных по конкретным дисциплинам.
TeraGrid координировалась через Grid Infrastructure Group (GIG) Чикагского университета , работающую в партнерстве с сайтами поставщиков ресурсов в США.
История
[ редактировать ]США Национальный научный фонд (NSF) обратился с просьбой о создании «распределенной терамасштабной установки» к директору программы Ричарду Л. Хильдербрандту. [1] Проект TeraGrid был запущен в августе 2001 года с финансированием в размере 53 миллионов долларов США для четырех объектов: Национального центра суперкомпьютерных приложений (NCSA) при Университете Иллинойса в Урбана-Шампейн , Суперкомпьютерного центра Сан-Диего (SDSC) в Калифорнийском университете, Сан-Диего , Чикагского университета Аргоннская национальная лаборатория и Центр перспективных компьютерных исследований (CACR) Калифорнийского технологического института в Пасадене, Калифорния .
проект задумывался как расширяемая распределенная открытая система . С самого начала [2] В октябре 2002 года Питтсбургский суперкомпьютерный центр (PSC) в Университете Карнеги-Меллон и Университет Питтсбурга присоединились к TeraGrid в качестве новых крупных партнеров, когда NSF объявил о дополнительном финансировании в размере 35 миллионов долларов. Сеть TeraGrid была преобразована в рамках проекта ETF из ячеистой сети с 4 узлами в двухузловую магистральную сеть с точками подключения в Лос-Анджелесе и на объектах Starlight в Чикаго .
В октябре 2003 года NSF выделил 10 миллионов долларов на добавление четырех объектов к TeraGrid, а также на создание третьего сетевого узла в Атланте . Этими новыми объектами стали Национальная лаборатория Ок-Риджа (ORNL), Университет Пердью , Университет Индианы и Техасский центр перспективных вычислений (TACC) при Техасском университете в Остине .
Построение TeraGrid также стало возможным благодаря корпоративному партнерству с Sun Microsystems , IBM , Intel Corporation , Qwest Communications , Juniper Networks , Myricom , Hewlett-Packard Company и Oracle Corporation .
Строительство TeraGrid было завершено в октябре 2004 года, когда объект TeraGrid начал полную работу.
Операция
[ редактировать ]NSF В августе 2005 года недавно созданный отдел киберинфраструктуры продлил поддержку еще на пять лет, предоставив набор наград в размере 150 миллионов долларов. В него вошли 48 миллионов долларов на координацию и поддержку пользователей группы Grid Infrastructure Group в Чикагском университете , возглавляемой Чарли Кэтлеттом . [3] Используя высокопроизводительные сетевые соединения, TeraGrid включала в себя высокопроизводительные компьютеры, ресурсы и инструменты данных, а также высококлассные экспериментальные установки по всей территории США. Работу, поддерживаемую проектом, иногда называют электронной наукой . В 2006 году Школа информации Мичиганского университета начала исследование TeraGrid. [4]
В мае 2007 года интегрированные ресурсы TeraGrid включали более 250 терафлопс вычислительных мощностей и более 30 петабайт (квадриллионов байт) онлайнового и архивного хранилища данных с быстрым доступом и извлечением по высокопроизводительным сетям. Исследователи получили доступ к более чем 100 базам данных по конкретным дисциплинам. В конце 2009 года ресурсы TeraGrid выросли до 2 петафлопс вычислительной мощности и более 60 петабайт памяти. В середине 2009 года NSF продлил работу TeraGrid до 2011 года.
Переход на XSEDE
[ редактировать ]Последующий проект был одобрен в мае 2011 года. [5] В июле 2011 года партнерство из 17 учреждений объявило о создании среды экстремальных научных и инженерных открытий (XSEDE). NSF объявил о финансировании проекта XSEDE на пять лет на сумму 121 миллион долларов. [6] XSEDE возглавляет Джон Таунс из Иллинойса Университета Национального центра суперкомпьютерных приложений . [6]
Архитектура
[ редактировать ]Ресурсы TeraGrid интегрированы через сервис-ориентированную архитектуру , в которой каждый ресурс предоставляет «сервис», определенный с точки зрения интерфейса и работы. Вычислительные ресурсы используют набор программных пакетов под названием «Координированное программное обеспечение и услуги TeraGrid» (CTSS). CTSS обеспечивает знакомую пользовательскую среду во всех системах TeraGrid, позволяя ученым легче переносить код из одной системы в другую. CTSS также предоставляет интеграционные функции, такие как единый вход, удаленная отправка заданий, поддержка рабочих процессов, инструменты перемещения данных и т. д. CTSS включает в себя Globus Toolkit, Condor, программное обеспечение для распределенного учета и управления учетными записями, программное обеспечение для проверки и проверки, а также набор компиляторов. инструменты программирования и переменные среды .
TeraGrid использует выделенную оптоволоконную магистраль со скоростью 10 гигабит в секунду с концентраторами в Чикаго, Денвере и Лос-Анджелесе. Все сайты поставщиков ресурсов подключаются к магистральному узлу со скоростью 10 гигабит в секунду. Пользователи получали доступ к объекту через национальные исследовательские сети, такие как магистральная сеть Internet2 Abilene и National LambdaRail .
Использование
[ редактировать ]Пользователи TeraGrid в основном прибыли из университетов США. Насчитывается около 4000 пользователей в более чем 200 университетах. Академические исследователи в Соединенных Штатах могут получить ассигнования на исследования или разработки (примерно в «часах процессора») на основе краткого описания предстоящей работы. Более обширные ассигнования включают предложение, которое рассматривается в ходе ежеквартального процесса экспертной оценки. Все предложения по распределению обрабатываются через веб-сайт TeraGrid. Предлагающие выбирают научную дисциплину, которая наиболее точно описывает их работу, и это позволяет сообщать о распределении и использовании TeraGrid по научным дисциплинам. По состоянию на июль 2006 года научный профиль распределения и использования TeraGrid был следующим:
Выделено (%) | Использовал (%) | Научная дисциплина |
---|---|---|
19 | 23 | Молекулярные биологические науки |
17 | 23 | Физика |
14 | 10 | Астрономические науки |
12 | 21 | Химия |
10 | 4 | Исследование материалов |
8 | 6 | Химические, тепловые системы |
7 | 7 | Атмосферные науки |
3 | 2 | Передовые научные вычисления |
2 | 0.5 | Науки о Земле |
2 | 0.5 | Биологические и критические системы |
1 | 0.5 | Науки об океане |
1 | 0.5 | Междисциплинарная деятельность |
1 | 0.5 | Компьютерные и вычислительные исследования |
0.5 | 0.25 | Интегративная биология и нейронаука |
0.5 | 0.25 | Механические и структурные системы |
0.5 | 0.25 | Математические науки |
0.5 | 0.25 | Электрические и коммуникационные системы |
0.5 | 0.25 | Системы проектирования и производства |
0.5 | 0.25 | Экологическая биология |
Каждая из этих категорий дисциплин соответствует определенной программной области Национального научного фонда .
Начиная с 2006 года TeraGrid предоставляла услуги по конкретным приложениям партнерам Science Gateway , которые обслуживают (обычно через веб-портал) научные и образовательные сообщества, специализирующиеся на конкретных дисциплинах. С помощью программы Science Gateways TeraGrid стремится расширить доступ как минимум на порядок с точки зрения количества ученых, студентов и преподавателей, которые могут использовать TeraGrid.
Поставщики ресурсов
[ редактировать ]- Аргоннская национальная лаборатория (ANL) под управлением Чикагского университета и Министерства энергетики.
- Университет Индианы — Big Red — IBM BladeCenter JS21 кластер [7]
- Инициатива оптических сетей Луизианы (LONI) [8]
- Национальный центр атмосферных исследований (NCAR)
- Национальный центр суперкомпьютерных приложений (NCSA)
- Национальный институт вычислительных наук (NICS), которым управляет Университета Теннесси Национальная лаборатория Ок -Риджа .
- Окриджская национальная лаборатория (ORNL)
- Питтсбургский суперкомпьютерный центр (PSC), управляемый Университетом Питтсбурга и Университетом Карнеги-Меллон .
- Университет Пердью
- Суперкомпьютерный центр Сан-Диего (SDSC)
- Техасский центр перспективных вычислений (TACC)
Похожие проекты
[ редактировать ]- Распределенная европейская инфраструктура для суперкомпьютерных приложений (DEISA), объединяющая одиннадцать европейских суперкомпьютерных центров.
- Использование сетей для электронной науки (EGEE)
- Национальная исследовательская грид-инициатива (NAREGEGI) с участием нескольких суперкомпьютерных центров в Японии с 2003 г. [9]
- Open Science Grid — распределенная вычислительная инфраструктура для научных исследований.
- Extreme Science and Engineering Discovery Environment (XSEDE) — преемник TeraGrid
Ссылки
[ редактировать ]- ^ Распределенная терамасштабная установка (DTF) . Национальный научный фонд . Январь 2001 года . Проверено 23 сентября 2011 г.
{{cite book}}
:|work=
игнорируется ( помогите ) - ^ Чарли Кэтлетт (21 мая 2002 г.). Философия TeraGrid: создание открытого, расширяемого, распределенного объекта TeraScale . 2-й Международный симпозиум IEEE/ACM по кластерным вычислениям и сетям Grid. п. 8. дои : 10.1109/CCGRID.2002.1017101 . ISBN 0-7695-1582-7 .
- ^ «Премия TeraGrid стоимостью 150 миллионов долларов ознаменовывает новую эру научных вычислений» . Выпуск новостей . Национальный научный фонд. 17 августа 2005 года . Проверено 23 сентября 2011 г.
- ^ Энн Циммерман; Томас А. Финхолт (август 2008 г.). Отчет об оценочном исследовании TeraGrid, Часть 1: Результаты проекта (PDF) . Национальный научный фонд . Проверено 23 сентября 2011 г.
- ^ Национальный научный совет (26 мая 2011 г.). «Краткий отчет заседания 10-11 мая 2011 г.» (PDF) . Проверено 23 сентября 2011 г.
- ^ Jump up to: а б «Проект XSEDE предоставляет передовую киберинфраструктуру, цифровые услуги и опыт национальным ученым и инженерам» . Выпуск новостей . Национальный научный фонд. 25 июля 2011 года . Проверено 23 сентября 2011 г.
- ^ «Большой красный в IU» . rt.uits.iu.edu . Проверено 9 февраля 2015 г.
- ^ «LONI получает финансирование для исследования TeraGrid» (PDF) . Выпуск новостей . Университет штата Луизиана. 9 сентября 2009 г. Архивировано из оригинала (PDF) 26 июля 2011 г. . Проверено 23 сентября 2011 г.
- ^ С. Мацуокаэт; и др. (март 2005 г.). «Японский исследовательский проект вычислительных сетей: НАРЕГИ». Труды IEEE . 93 (3): 522–533. дои : 10.1109/JPROC.2004.842748 . S2CID 22562197 .
Внешние ссылки
[ редактировать ]- Веб-сайт ТераГрид
- «Архитектура ТераГрид» . Форум ТераГрид . 20 декабря 2007. Архивировано из оригинала 24 января 2009 года . Проверено 23 сентября 2011 г.