~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 698736C42E007B785359261232E9B2DC__1711572720 ✰
Заголовок документа оригинал.:
✰ Concurrent computing - Wikipedia ✰
Заголовок документа перевод.:
✰ Параллельные вычисления — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Concurrent_programming ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/69/dc/698736c42e007b785359261232e9b2dc.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/69/dc/698736c42e007b785359261232e9b2dc__translat.html ✰
Дата и время сохранения документа:
✰ 21.06.2024 05:25:14 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 27 March 2024, at 23:52 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Параллельные вычисления — Википедия Jump to content

Параллельные вычисления

Из Википедии, бесплатной энциклопедии

Параллельные вычисления — это форма вычислений , при которой несколько вычислений выполняются одновременно — в течение перекрывающихся периодов времени — а не последовательно — причем одно завершается до начала следующего.

Это свойство системы — будь то программа , компьютер или сеть — где для каждого процесса существует отдельная точка выполнения или «поток управления». — Параллельная система это система, в которой вычисление может выполняться, не дожидаясь завершения всех других вычислений. [1]

Параллельные вычисления — это форма модульного программирования . В его парадигме общие вычисления разбиваются на подвычисления, которые могут выполняться одновременно. Пионерами в области параллельных вычислений являются Эдсгер Дейкстра , Пер Бринч Хансен и К.АР Хоар . [2]

Введение [ править ]

Понятие параллельных вычислений часто путают с родственным, но отличным понятием параллельных вычислений . [3] [4] хотя оба могут быть описаны как «несколько процессов, выполняющихся в течение одного и того же периода времени ». При параллельных вычислениях выполнение происходит в один и тот же физический момент: например, на отдельных процессорах машины многопроцессорной с целью ускорения вычислений — параллельные вычисления невозможны на ( одноядерном ) одном процессоре, так как только один Вычисление может происходить в любой момент (в течение любого такта). [а] Напротив, параллельные вычисления состоят из перекрывающихся жизней процессов , но выполнение не обязательно происходит в один и тот же момент. Целью здесь является моделирование процессов во внешнем мире, которые происходят одновременно, например, когда несколько клиентов одновременно обращаются к серверу. Структурирование программных систем, состоящих из множества одновременно взаимодействующих частей, может быть полезно для решения сложных задач, независимо от того, могут ли эти части выполняться параллельно. [5] : 1 

Например, параллельные процессы могут выполняться на одном ядре, чередуя этапы выполнения каждого процесса через срезы с разделением времени : одновременно запускается только один процесс, и если он не завершается в течение своего интервала времени, он приостанавливается , другой процесс начинается или возобновляется, а затем возобновляется исходный процесс. Таким образом, несколько процессов одновременно выполняются на полпути, но в этот момент выполняется только один процесс. [ нужна цитата ]

Параллельные вычисления могут выполняться параллельно, [3] [6] например, назначив каждый процесс отдельному процессору или ядру процессора или распределив вычисления по сети.

Точное время выполнения задач в параллельной системе зависит от планирования , и задачи не всегда должны выполняться одновременно. Например, даны две задачи Т1 и Т2: [ нужна цитата ]

  • T1 может быть выполнен и завершен раньше T2 или наоборот (последовательный и последовательный)
  • T1 и T2 могут выполняться попеременно (последовательно и одновременно).
  • T1 и T2 могут выполняться одновременно в один и тот же момент времени (параллельно и одновременно).

Слово «последовательный» используется как антоним слов «параллельный» и «параллельный»; когда они явно различаются, параллельные/последовательные и параллельные/последовательные используются как противоположные пары. [7] Расписание, в котором задачи выполняются по одной (последовательно, без параллелизма), без чередования (последовательно, без параллелизма: ни одна задача не начинается, пока не завершится предыдущая задача), называется последовательным расписанием . Набор задач, которые можно планировать последовательно, является сериализуемым , что упрощает управление параллелизмом . [ нужна цитата ]

Координация доступа к общим ресурсам [ править ]

Основной проблемой при разработке параллельных программ является управление параллелизмом : обеспечение правильной последовательности взаимодействий или коммуникаций между различными вычислительными выполнениями и координация доступа к ресурсам, которые являются общими для всех исполнений. [6] Потенциальные проблемы включают состояния гонки , взаимоблокировки и нехватку ресурсов . Например, рассмотрим следующий алгоритм снятия средств с текущего счета, представленного общим ресурсом. balance:

bool   вывода  (  int   вывода  ) 
 { 
     if   (  баланс   >=   вывод  ) 
     { 
         баланс   -=   вывод  ; 
          вернуть   истину  ; 
      }  
     Вернуть   ложь  ; 
  } 

Предполагать balance = 500и два параллельных потока выполняют вызовы withdraw(300) и withdraw(350). Если строка 3 в обеих операциях выполняется до строки 5, обе операции обнаружат, что balance >= withdrawal оценивается как true, и выполнение перейдет к вычитанию суммы вывода. Однако, поскольку оба процесса осуществляют снятие средств, общая снимаемая сумма в конечном итоге превысит первоначальный баланс. Для решения подобных проблем с общими ресурсами можно использовать управление параллелизмом или неблокирующие алгоритмы .

Преимущества [ править ]

К преимуществам параллельных вычислений относятся:

  • Повышенная производительность программы — параллельное выполнение параллельной программы позволяет количеству задач, выполняемых за заданное время, увеличиваться пропорционально количеству процессоров в соответствии с законом Густавсона.
  • Высокая скорость реагирования на ввод/вывод — программы с интенсивным вводом/выводом в основном ждут завершения операций ввода или вывода. Параллельное программирование позволяет использовать время, которое было бы потрачено на ожидание, для другой задачи. [ нужна цитата ]
  • Более подходящая структура программы — некоторые проблемы и проблемные области хорошо подходят для представления в виде параллельных задач или процессов. [ нужна цитата ]

Модели [ править ]

, представленные в 1962 году, Сети Петри были первой попыткой систематизировать правила одновременного выполнения. Позже на их основе была построена теория потоков данных, и архитектуры потоков данных для физической реализации идей теории потоков данных были созданы . Начиная с конца 1970-х годов, исчисления процессов , такие как исчисление коммуникативных систем (CCS) и коммуникативных последовательных процессов (CSP), были разработаны, чтобы позволить алгебраические рассуждения о системах, состоящих из взаимодействующих компонентов. π -исчисление добавило возможность рассуждать о динамических топологиях.

Автоматы ввода-вывода были представлены в 1987 году.

Лампорта Логика, такая как TLA+ , и математические модели, такие как трассировки и диаграммы событий актеров , также были разработаны для описания поведения параллельных систем.

Программная транзакционная память заимствует из теории баз данных концепцию атомарных транзакций и применяет ее к доступу к памяти.

Модели согласованности [ править ]

Параллельные языки программирования и многопроцессорные программы должны иметь модель согласованности (также известную как модель памяти). Модель согласованности определяет правила выполнения операций с памятью компьютера и получения результатов.

Одной из первых моделей согласованности была Лесли Лэмпорта модель последовательной согласованности . Последовательная согласованность — это свойство программы, при котором ее выполнение дает те же результаты, что и последовательная программа. В частности, программа последовательно непротиворечива, если «результаты любого выполнения такие же, как если бы операции всех процессоров выполнялись в некотором последовательном порядке, а операции каждого отдельного процессора появляются в этой последовательности в порядке, заданном его программой». ". [8]

Реализация [ править ]

Для реализации параллельных программ можно использовать ряд различных методов, например реализацию каждого вычислительного выполнения как процесса операционной системы или реализацию вычислительных процессов как набора потоков внутри одного процесса операционной системы.

Взаимодействие и общение [ править ]

В некоторых параллельных вычислительных системах связь между параллельными компонентами скрыта от программиста (например, с помощью Futures ), тогда как в других она должна обрабатываться явно. Явное общение можно разделить на два класса:

Связь с общей памятью
Параллельные компоненты взаимодействуют, изменяя содержимое ячеек общей памяти (на примере Java и C# ). Этот стиль параллельного программирования обычно требует использования некоторой формы блокировки (например, мьютексов , семафоров или мониторов ) для координации между потоками. Программа, которая правильно реализует любой из них, называется потокобезопасной .
Передача сообщений
Параллельные компоненты взаимодействуют посредством обмена сообщениями (примерами являются MPI , Go , Scala , Erlang и occam ). Обмен сообщениями может осуществляться асинхронно или может использоваться синхронный стиль «рандеву», при котором отправитель блокируется до тех пор, пока сообщение не будет получено. Асинхронная передача сообщений может быть надежной или ненадежной (иногда называемой «отправь и молись»). Параллелизм с передачей сообщений, как правило, гораздо проще понять, чем параллелизм с общей памятью, и обычно считается более надежной формой параллельного программирования. [ нужна цитата ] Доступен широкий спектр математических теорий для понимания и анализа систем передачи сообщений, включая модель актера и различные исчисления процессов . Передача сообщений может быть эффективно реализована с помощью симметричной многопроцессорной обработки общей памяти или без нее с когерентностью кэша .

Общая память и параллельная передача сообщений имеют разные характеристики производительности. Обычно (хотя и не всегда) накладные расходы на память для каждого процесса и на переключение задач ниже в системе передачи сообщений, но накладные расходы на передачу сообщений больше, чем при вызове процедуры. Эти различия часто подавляются другими факторами производительности.

История [ править ]

Параллельные вычисления возникли на основе более ранних работ по железным дорогам и телеграфии 19-го и начала 20-го века, и некоторые термины относятся к этому периоду, например, семафоры. Они возникли для решения вопроса о том, как управлять несколькими поездами в одной и той же железнодорожной системе (избегая столкновений и максимизируя эффективность) и как обрабатывать несколько передач по заданному набору проводов (повышая эффективность), например, с помощью мультиплексирования с временным разделением (1870-е годы). ).

Академическое исследование параллельных алгоритмов началось в 1960-х годах, и Дейкстра (1965) считается первой статьей в этой области, идентифицирующей и решающей взаимное исключение . [9]

Распространенность [ править ]

Параллелизм широко распространен в вычислениях: от низкоуровневого оборудования на одном кристалле до всемирных сетей. Далее следуют примеры.

На уровне языка программирования:

На уровне операционной системы:

На сетевом уровне сетевые системы по своей природе обычно являются параллельными, поскольку состоят из отдельных устройств.

поддерживающие программирование Языки , параллельное

Языки параллельного программирования — это языки программирования, которые используют языковые конструкции для параллелизма . Эти конструкции могут включать многопоточность , поддержку распределенных вычислений , передачу сообщений , общие ресурсы (включая разделяемую память ) или фьючерсы и обещания . Такие языки иногда называют языками, ориентированными на параллелизм или языками программирования, ориентированными на параллелизм (COPL). [10]

Сегодня наиболее часто используемыми языками программирования, имеющими специальные конструкции для параллелизма, являются Java и C# . Оба этих языка в основном используют модель параллелизма с общей памятью, с блокировкой, обеспечиваемой мониторами (хотя модели передачи сообщений могут и были реализованы поверх базовой модели с общей памятью). Из языков, использующих модель параллелизма с передачей сообщений, Erlang в настоящее время, вероятно, наиболее широко используется в промышленности. [ нужна цитата ]

Многие языки параллельного программирования разрабатывались скорее как исследовательские языки (например, Pict ), а не как языки для производственного использования. Однако такие языки, как Erlang , Limbo и occam, в разное время за последние 20 лет использовались в промышленности. Неисчерпывающий список языков, которые используют или предоставляют средства параллельного программирования:

  • Ada — общего назначения, со встроенной поддержкой передачи сообщений и параллелизма на основе мониторинга.
  • Алеф — параллельный, с потоками и передачей сообщений, для системного программирования в ранних версиях Plan 9 от Bell Labs.
  • Алиса — расширение Standard ML , добавляет поддержку параллелизма через фьючерсы.
  • Ateji PX — расширение для Java с параллельными примитивами, вдохновленное π-исчислением.
  • Axum — специфичный для предметной области, параллельный, на основе модели актера и общеязыковой среды выполнения .NET с использованием синтаксиса, подобного C.
  • BMDFM — двоичная модульная машина потока данных
  • C++ — библиотеки поддержки потоков и сопрограмм. [11] [12]
  • (C omega) — для исследований, расширяет C#, использует асинхронную связь.
  • C# — поддерживает параллельные вычисления с использованием блокировки, доходности, а также начиная с версии 5.0, в которой представлены ключевые слова async и await.
  • Clojure — современный функциональный диалект Lisp на Java . платформе
  • Concurrent Clean — функциональное программирование, похожее на Haskell.
  • Параллельные коллекции (CnC). Обеспечивает неявный параллелизм, независимый от модели памяти, путем явного определения потока данных и управления.
  • Параллельный Haskell — ленивый, чисто функциональный язык, выполняющий параллельные процессы в общей памяти.
  • Concurrent ML — параллельное расширение Standard ML.
  • Параллельный Паскаль Пер Бринч Хансен
  • Карри
  • D мультипарадигмальный язык системного программирования с явной поддержкой параллельного программирования ( модель актора )
  • E — использует обещания для предотвращения взаимоблокировок
  • ECMAScript — использует обещания для асинхронных операций.
  • Eiffel — через механизм SCOOP , основанный на концепции «Проектирование по контракту».
  • Elixir — динамический и функциональный язык метапрограммирования, работающий на виртуальной машине Erlang.
  • Erlang — использует синхронную или асинхронную передачу сообщений без общей памяти.
  • FAUST — функция реального времени, для обработки сигналов компилятор обеспечивает автоматическое распараллеливание через OpenMP или специальный , перехватывающий работу. планировщик
  • Фортран coarrays и do concurrent являются частью стандарта Fortran 2008.
  • Go — для системного программирования с моделью параллельного программирования на основе CSP.
  • Haskell — параллельный и параллельный язык функционального программирования. [13]
  • Хьюма - функциональный, параллельный, для сред с ограниченным пространством и временем, где автоматные процессы описываются шаблонами синхронных каналов и передачей сообщений.
  • Io — параллелизм на основе актеров
  • Янус — имеет отдельные спрашивающие и говорящие логические переменные, каналы сумок; носит чисто декларативный характер
  • Java — класс потока или интерфейс Runnable.
  • Джулия — «Примитивы параллельного программирования: задачи, асинхронное ожидание, каналы». [14]
  • JavaScript — через веб-воркеры , в среде браузера, обещания и обратные вызовы .
  • JoCaml — на основе параллельных и распределенных каналов, расширение OCaml , реализует исчисление соединений процессов.
  • Присоединиться к Java — параллельно, на основе Java языка
  • Джоуль — на основе потока данных, общение посредством передачи сообщений.
  • Джойс — параллельное обучение, построенное на Concurrent Pascal с функциями CSP Пера Бринча Хансена.
  • LabVIEW — графический, поток данных, функции — это узлы графа, данные — это проводники между узлами; включает объектно-ориентированный язык
  • Лимбо — родственник Алефа , для системного программирования в Inferno (операционная система)
  • Локомотивный BASIC — вариант BASIC Amstrad содержит команды EVERY и AFTER для параллельных подпрограмм.
  • MultiLisp вариант схемы расширен для поддержки параллелизма.
  • Модуль-2 — для системного программирования, автор Н. Вирт, как преемник Паскаля с встроенной поддержкой сопрограмм.
  • Modula-3 — современный член семейства Algol с обширной поддержкой потоков, мьютексов и условных переменных.
  • Newsqueak — для исследований, где каналы являются первоклассной ценностью; предшественник Алефа
  • occam — сильно зависит от взаимодействия последовательных процессов (CSP).
  • Орк - сильно конкурентный, недетерминированный, основанный на алгебре Клини.
  • Оз-Моцарт — мультипарадигма, поддерживает параллелизм с общим состоянием и передачей сообщений, а также фьючерсы.
  • ParaSail — объектно-ориентированный, параллельный, без указателей, условий гонки.
  • Pict Милнера. — по сути, исполняемая реализация π-исчисления
  • Raku по умолчанию включает классы для потоков, промисов и каналов. [15]
  • Python — использует параллелизм на основе потоков и параллелизм на основе процессов. [16]
  • Reia — использует асинхронную передачу сообщений между объектами без общего доступа.
  • Red/System — для системного программирования на базе Rebol.
  • Rust — для системного программирования, использующего передачу сообщений с семантикой перемещения, разделяемую неизменяемую память и разделяемую изменяемую память. [17]
  • Scala — общего назначения, предназначенный для выражения общих шаблонов программирования кратким, элегантным и типобезопасным способом.
  • SequenceL — функционал общего назначения, основными целями проектирования являются простота программирования, ясность и читаемость кода, автоматическое распараллеливание для обеспечения производительности на многоядерном оборудовании и доказуемое отсутствие условий гонки .
  • СР — для исследований
  • SuperPascal — параллельный, для обучения, основанный на Concurrent Pascal и Joyce Пера Бринча Хансена.
  • Swift — встроенная поддержка структурированного написания асинхронного и параллельного кода. [18]
  • Юникон — для исследований
  • TNSDL — для развития телекоммуникационного обмена использует асинхронную передачу сообщений.
  • Язык описания оборудования VHSIC ( VHDL ) — IEEE STD-1076.
  • XC — подмножество языка C с расширенным параллелизмом, разработанное XMOS , основанное на взаимодействии последовательных процессов , встроенных конструкциях для программируемого ввода-вывода.

Многие другие языки обеспечивают поддержку параллелизма в виде библиотек на уровне, примерно сопоставимом с приведенным выше списком.

См. также [ править ]

Примечания [ править ]

  1. ^ Это игнорирует внутренний параллелизм ядра процессора, такой как конвейерная обработка или векторизованные инструкции. Одноядерная машина с одним процессором может быть способна к некоторому параллелизму, например, с сопроцессором , но процессор сам по себе не может.

Ссылки [ править ]

  1. ^ Концепции операционной системы , 9-е издание, Авраам Зильбершац. «Глава 4: Потоки»
  2. ^ Хансен, Пер Бринч, изд. (2002). Происхождение параллельного программирования . дои : 10.1007/978-1-4757-3472-0 . ISBN  978-1-4419-2986-0 . S2CID   44909506 .
  3. ^ Перейти обратно: а б Пайк, Роб (11 января 2012 г.). «Конкуренция — это не параллелизм». Конференция Waza , 11 января 2012 г. Получено с http://talks.golang.org/2012/waza.slide (слайды) и http://vimeo.com/49718712 (видео).
  4. ^ «Параллелизм против параллелизма» . Хаскелл Вики .
  5. ^ Шнайдер, Фред Б. (6 мая 1997 г.). О параллельном программировании . Спрингер. ISBN  9780387949420 .
  6. ^ Перейти обратно: а б Бен-Ари, Мордехай (2006). Принципы параллельного и распределенного программирования (2-е изд.). Аддисон-Уэсли. ISBN  978-0-321-31283-9 .
  7. ^ Паттерсон и Хеннесси, 2013 , с. 503.
  8. ^ Лэмпорт, Лесли (1 сентября 1979 г.). «Как создать многопроцессорный компьютер, который правильно выполняет многопроцессные программы». Транзакции IEEE на компьютерах . С-28 (9): 690–691. дои : 10.1109/TC.1979.1675439 . S2CID   5679366 .
  9. ^ «Награда за влиятельную работу PODC: 2002» , Симпозиум ACM по принципам распределенных вычислений , получено 24 августа 2009 г.
  10. ^ Армстронг, Джо (2003). «Создание надежных распределенных систем при наличии ошибок в программном обеспечении» (PDF) .
  11. ^ https://en.cppreference.com/w/cpp/header/thread
  12. ^ https://en.cppreference.com/w/cpp/header/coroutine
  13. ^ Марлоу, Саймон (2013) Параллельное и параллельное программирование в Haskell: методы многоядерного и многопоточного программирования ISBN   9781449335946
  14. ^ https://juliacon.talkfunnel.com/2015/21-concurrent-and-parallel-programming-in-julia Параллельное и параллельное программирование в Julia
  15. ^ «Параллельность» . docs.perl6.org . Проверено 24 декабря 2017 г.
  16. ^ Документация » Стандартная библиотека Python » Параллельное выполнение
  17. ^ Блюм, Бен (2012). «Типебезопасное общее изменяемое состояние» . Проверено 14 ноября 2012 г.
  18. ^ «Параллельность» . 2022 . Проверено 15 декабря 2022 г.

Источники [ править ]

  • Паттерсон, Дэвид А.; Хеннесси, Джон Л. (2013). Организация и проектирование компьютера: аппаратно-программный интерфейс . Серия Моргана Кауфмана по компьютерной архитектуре и дизайну (5-е изд.). Морган Кауфманн. ISBN  978-0-12407886-4 .

Дальнейшее чтение [ править ]

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 698736C42E007B785359261232E9B2DC__1711572720
URL1:https://en.wikipedia.org/wiki/Concurrent_programming
Заголовок, (Title) документа по адресу, URL1:
Concurrent computing - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)