Jump to content

Рейд

RAID ( / r d / ; « избыточный массив недорогих дисков » [1] или " избыточный массив независимых дисков " [2] данных ) — это технология виртуализации хранения , которая объединяет несколько компонентов физических дисков в одну или несколько логических единиц в целях избыточности данных , повышения производительности или того и другого. Это контрастирует с предыдущей концепцией высоконадежных дисковых накопителей для мейнфреймов, называемой «один большой дорогой диск» (SLED). [3] [1]

Данные распределяются по дискам одним из нескольких способов, называемых уровнями RAID, в зависимости от требуемого уровня избыточности и производительности. Различные схемы или схемы распределения данных обозначаются словом «RAID», за которым следует номер, например RAID 0 или RAID 1. Каждая схема или уровень RAID обеспечивает различный баланс между ключевыми целями: надежностью , доступностью и надежностью . производительность и емкость . Уровни RAID выше RAID 0 обеспечивают защиту от неисправимых ошибок чтения секторов , а также от сбоев целых физических дисков.

Термин «RAID» был изобретен Дэвидом Паттерсоном , Гартом Гибсоном и Рэнди Кацем в Калифорнийском университете в Беркли в 1987 году . На конференции они утверждали, что самые производительные дисковые накопители для мейнфреймов того времени могли бы превзойти по производительности ряд недорогих накопителей, которые были разработаны для растущего рынка персональных компьютеров . Хотя количество сбоев будет увеличиваться пропорционально количеству дисков, при настройке резервирования надежность массива может значительно превысить надежность любого большого одиночного диска. [4]

Хотя эта терминология еще не использовалась, технологии пяти уровней RAID, названные в статье за ​​июнь 1988 года, использовались в различных продуктах до публикации статьи. [3] включая следующее:

  • Зеркальное отображение (RAID 1) было хорошо распространено в 1970-х годах, включая, например, Tandem NonStop Systems .
  • В 1977 году Норман Кен Оучи из IBM подал патент на то, что впоследствии было названо RAID 4. [5]
  • Примерно в 1983 году DEC начала поставку зеркальных дисков RA8X (теперь известных как RAID 1) как часть своей подсистемы HSC50. [6]
  • В 1986 году Кларк и др. Компания IBM подала патент на то, что впоследствии было названо RAID 5. [7]
  • Примерно в 1988 году компания Thinking Machines DataVault использовала коды исправления ошибок (теперь известные как RAID 2) в массиве дисков. [8] Похожий подход использовался в начале 1960-х годов на IBM 353 . [9] [10]

Позже производители отрасли изменили определение аббревиатуры RAID, чтобы обозначить «избыточный массив независимых дисков». [2] [11] [12] [13]

Многие уровни RAID используют схему защиты от ошибок, называемую « четность », широко используемый метод в информационных технологиях для обеспечения отказоустойчивости в заданном наборе данных. Большинство из них используют простой XOR , но RAID 6 использует две отдельные четности, основанные соответственно на сложении и умножении в определенном поле Галуа или коррекции ошибок Рида-Соломона . [14]

RAID также может обеспечить безопасность данных с помощью твердотельных накопителей (SSD) без затрат на систему, состоящую только из твердотельных накопителей. Например, быстрый SSD можно зеркалировать с помощью механического накопителя. Чтобы эта конфигурация обеспечила значительное преимущество в скорости, необходим соответствующий контроллер, который использует быстрый SSD для всех операций чтения. Adaptec называет это «гибридным RAID». [15]

Стандартные уровни

[ редактировать ]
Серверы хранения данных с 24 жесткими дисками каждый и встроенными аппаратными RAID-контроллерами, поддерживающими различные уровни RAID.

Первоначально существовало пять стандартных уровней RAID, но появилось множество вариаций, включая несколько вложенных уровней и множество нестандартных уровней (в основном проприетарных ). Уровни RAID и связанные с ними форматы данных стандартизированы Ассоциацией производителей сетей хранения данных (SNIA) в стандарте Common RAID Disk Drive Format (DDF): [16] [17]

  • RAID 0 на уровне блоков состоит из чередования , но без зеркалирования или контроля четности . По сравнению с составным томом емкость тома RAID 0 такая же; это сумма емкостей накопителей в комплекте. Но поскольку при чередовании содержимое каждого файла распределяется по всем дискам в наборе, выход из строя любого диска приводит к потере всего тома RAID 0 и всех файлов. Для сравнения, составной том сохраняет файлы на исправных дисках. Преимущество RAID 0 заключается в том, что пропускная способность операций чтения и записи в любой файл умножается на количество дисков, поскольку, в отличие от составных томов, чтение и запись выполняются одновременно . [11] Ценой является повышенная уязвимость к сбоям дисков: поскольку выход из строя любого диска в конфигурации RAID 0 приводит к потере всего тома, средняя частота сбоев тома возрастает с увеличением количества подключенных дисков.
  • RAID 1 состоит из зеркального отображения данных без контроля четности и чередования. Данные записываются одинаково на два или более дисков, в результате чего создается «зеркальный набор» дисков. Таким образом, любой запрос на чтение может быть обслужен любым накопителем в наборе. Если запрос передается на каждый диск в наборе, он может обслуживаться тем диском, который первым обращается к данным (в зависимости от времени поиска и задержки вращения ), что повышает производительность. Устойчивая пропускная способность чтения, если контроллер или программное обеспечение оптимизированы для этого, приближается к сумме пропускных способностей каждого диска в наборе, как и для RAID 0. Фактическая пропускная способность чтения большинства реализаций RAID 1 ниже, чем у самого быстрого диска. Пропускная способность записи всегда ниже, поскольку каждый диск необходимо обновлять, а самый медленный диск ограничивает производительность записи. Массив продолжает работать до тех пор, пока функционирует хотя бы один диск. [11]
  • RAID 2 состоит из чередования битов с выделенной четностью кода Хэмминга . Все вращения шпинделя диска синхронизированы, а данные чередуются таким образом, что каждый последовательный бит находится на другом диске. Четность кода Хэмминга рассчитывается по соответствующим битам и сохраняется как минимум на одном накопителе четности. [11] Этот уровень имеет только историческое значение; хотя он использовался на некоторых ранних машинах (например, « Мыслящих машинах СМ-2»), [18] по состоянию на 2014 год он не используется ни в одной коммерчески доступной системе. [19]
  • RAID 3 состоит из чередования на уровне байтов с выделенной четностью. Все вращения шпинделей дисков синхронизированы, а данные чередуются таким образом, что каждый последовательный байт находится на другом диске. Четность рассчитывается по соответствующим байтам и сохраняется на специальном диске четности. [11] Хотя реализации существуют, [20] RAID 3 на практике обычно не используется.
  • RAID 4 состоит из чередования на уровне блоков с выделенной четностью. Этот уровень ранее использовался NetApp , но теперь в значительной степени заменен собственной реализацией RAID 4 с двумя дисками четности, называемой RAID-DP . [21] Основным преимуществом RAID 4 по сравнению с RAID 2 и 3 является параллелизм ввода-вывода: в RAID 2 и 3 одна операция чтения ввода-вывода требует чтения всей группы дисков с данными, тогда как в RAID 4 достаточно одной операции ввода-вывода. не нужно распространяться на все диски с данными. В результате больше операций ввода-вывода может выполняться параллельно, что повышает производительность небольших передач. [1]
  • RAID 5 состоит из чередования на уровне блоков с распределенной четностью. В отличие от RAID 4, информация о четности распределяется между дисками, поэтому для работы требуется присутствие всех дисков, кроме одного. В случае выхода из строя одного диска последующие чтения могут быть рассчитаны на основе распределенной четности, так что данные не будут потеряны. RAID 5 требует как минимум трех дисков. [11] Как и все концепции с одинарной четностью, большие реализации RAID 5 подвержены системным сбоям из-за тенденций, касающихся времени восстановления массива и вероятности отказа диска во время восстановления (см. раздел « Увеличение времени восстановления и вероятности сбоя » ниже). [22] Восстановление массива требует чтения всех данных со всех дисков, что создает вероятность отказа второго диска и потери всего массива.
  • RAID 6 состоит из чередования на уровне блоков с двойной распределенной четностью. Двойная четность обеспечивает отказоустойчивость до двух вышедших из строя дисков. Это делает большие группы RAID более практичными, особенно для систем с высокой доступностью, поскольку восстановление дисков большой емкости занимает больше времени. Для RAID 6 требуется минимум четыре диска. Как и в случае с RAID 5, отказ одного диска приводит к снижению производительности всего массива до тех пор, пока неисправный диск не будет заменен. [11] С помощью массива RAID 6, используя диски от разных источников и производителей, можно смягчить большинство проблем, связанных с RAID 5. Чем больше емкость дисков и чем больше размер массива, тем важнее становится выбор вместо этого RAID 6. RAID 5. [23] RAID 10 также сводит к минимуму эти проблемы. [24]

Вложенный (гибридный) RAID

[ редактировать ]

В том, что первоначально называлось гибридным RAID , [25] многие контроллеры хранения позволяют вкладывать уровни RAID. Элементами RAID могут быть как отдельные диски, так и сами массивы. Массивы редко вложены более чем на один уровень.

Последний массив известен как верхний массив. Когда верхний массив имеет RAID 0 (например, в RAID 1+0 и RAID 5+0), большинство поставщиков опускают знак «+» (что дает RAID 10 и RAID 50 соответственно).

  • RAID 0+1: создает две полосы и зеркально отображает их. Если происходит сбой одного диска, это означает, что одно из зеркал отказало, и на этом этапе оно эффективно работает как RAID 0 без избыточности. Во время восстановления возникает значительно более высокий риск, чем при RAID 1+0, поскольку необходимо считывать все данные со всех дисков в оставшейся полосе, а не только с одного диска, что увеличивает вероятность неисправимой ошибки чтения (URE) и значительно расширяет возможности восстановления. окно восстановления. [26] [27] [28]
  • RAID 1+0: (см. RAID 10 ) создает чередующийся набор из серии зеркальных дисков. Массив может выдержать потерю нескольких дисков до тех пор, пока ни одно зеркало не потеряет все свои диски. [29]
  • JBOD RAID N+N: с помощью JBOD ( просто группы дисков ) можно объединять диски, а также тома, такие как наборы RAID. При большей емкости накопителей задержка записи и время восстановления резко возрастают (особенно, как описано выше, при использовании RAID 5 и RAID 6). Разделив больший набор RAID N на более мелкие подмножества и объединив их с помощью линейного JBOD, [ нужны разъяснения ] время записи и восстановления будет сокращено. Если аппаратный RAID-контроллер не поддерживает вложение линейного JBOD в RAID N, то линейный JBOD может быть достигнут с помощью программного RAID на уровне ОС в сочетании с отдельными томами подмножества RAID N, созданными в одном или нескольких аппаратных RAID-контроллерах. Помимо резкого увеличения скорости, это дает еще и существенное преимущество: возможность запустить линейный JBOD с небольшим набором дисков и иметь возможность в дальнейшем (со временем) расширить общий набор дисками разного размера. размер появится на рынке). Есть еще одно преимущество в виде аварийного восстановления (в случае сбоя подмножества RAID N данные на других подмножествах RAID N не теряются, что сокращает время восстановления). [ нужна ссылка ]

Нестандартные уровни

[ редактировать ]

Возможны многие конфигурации, отличные от базовых пронумерованных уровней RAID, и многие компании, организации и группы создали свои собственные нестандартные конфигурации, во многих случаях предназначенные для удовлетворения специализированных потребностей небольшой нишевой группы. К таким конфигурациям относятся следующие:

  • Linux MD RAID 10 предоставляет общий драйвер RAID, который в своей «ближней» компоновке по умолчанию использует стандартный RAID 1 с двумя дисками и стандартный RAID 1+0 с четырьмя дисками; однако он может включать любое количество дисков, включая нечетные числа. Благодаря «дальнему» расположению MD RAID 10 может работать как с чередованием, так и с зеркалированием, даже при наличии всего двух дисков. f2 макет; при этом выполняется зеркалирование с чередующимся чтением, обеспечивая производительность чтения RAID 0. Обычный RAID 1, предоставляемый программным RAID Linux , не чередует чтения, но может выполнять чтение параллельно. [29] [30] [31]
  • Hadoop имеет систему RAID, которая генерирует файл четности путем выполнения операции xor последовательности блоков в одном файле HDFS. [32]
  • BeeGFS , параллельная файловая система, имеет возможности внутреннего чередования (сравнимы с файловым RAID0) и репликации (сравнимы с файловым RAID10) для объединения пропускной способности и емкости нескольких серверов и обычно основана на базовом RAID для создания диска. провалы прозрачны.
  • Декластеризованный RAID распределяет две (или более) копии данных по всем дискам (возможно, сотням) подсистемы хранения, сохраняя при этом достаточную свободную емкость, чтобы обеспечить выход из строя нескольких дисков. Рассеяние основано на алгоритмах, которые создают видимость произвольности. При выходе из строя одного или нескольких дисков недостающие копии восстанавливаются в эту резервную емкость, опять же произвольно. Поскольку восстановление выполняется со всех оставшихся дисков и на них, оно работает намного быстрее, чем при использовании традиционного RAID, что снижает общее воздействие на клиентов системы хранения.

Реализации

[ редактировать ]

Распределением данных по нескольким дискам можно управлять либо с помощью специального компьютерного оборудования , либо с помощью программного обеспечения . Программное решение может быть частью операционной системы, частью встроенного ПО и драйверов, поставляемых со стандартным контроллером диска (так называемый «программный RAID с аппаратной поддержкой»), или оно может полностью находиться внутри аппаратного контроллера RAID.

Аппаратное обеспечение

[ редактировать ]

Аппаратные RAID-контроллеры можно настроить через BIOS карты или дополнительное ПЗУ до загрузки операционной системы , а после загрузки операционной системы собственные у производителя каждого контроллера доступны утилиты настройки. В отличие от контроллеров сетевых интерфейсов для Ethernet , которые обычно можно настроить и обслуживать полностью с помощью общих парадигм операционной системы, таких как ifconfig в Unix , без необходимости использования каких-либо сторонних инструментов, каждый производитель каждого RAID-контроллера обычно предоставляет свои собственные проприетарные программные инструменты. для каждой операционной системы, которую они планируют поддерживать, что обеспечивает привязку к поставщику и способствует возникновению проблем с надежностью. [33]

Например, во FreeBSD для доступа к конфигурации RAID-контроллеров Adaptec пользователям необходимо включить уровень совместимости с Linux и использовать инструменты Linux от Adaptec. [34] потенциально ставя под угрозу стабильность, надежность и безопасность их установки, особенно в долгосрочной перспективе. [33]

Некоторые другие операционные системы реализовали свои собственные общие структуры для взаимодействия с любым RAID-контроллером и предоставляют инструменты для мониторинга состояния тома RAID, а также облегчения идентификации дисков посредством мигания светодиода, управления сигналами тревоги и назначения дисков горячего резервирования изнутри операционной системы без необходимость перезагрузки в BIOS карты. Например, именно такой подход был использован OpenBSD в 2005 году с ее псевдо-устройством bio(4) и утилитой bioctl , которые обеспечивают статус тома и позволяют управлять светодиодами/сигнализациями/горячим резервированием, а также датчиками (включая датчик привода) . ) для мониторинга здоровья; [35] впоследствии этот подход был принят и расширен NetBSD в 2007 году. [36]

Программное обеспечение

[ редактировать ]

Программные реализации RAID предусмотрены многими современными операционными системами . Программный RAID может быть реализован как:

  • Уровень, который абстрагирует несколько устройств, обеспечивая тем самым одно виртуальное устройство (например, Linux ядра md и softraid OpenBSD).
  • Более универсальный менеджер логических томов (входит в состав большинства операционных систем серверного класса, таких как Veritas или LVM ).
  • Компонент файловой системы (например, ZFS , Spectrum Scale или Btrfs ).
  • Уровень, который находится над любой файловой системой и обеспечивает защиту пользовательских данных с помощью четности (например, RAID-F). [37]

Некоторые продвинутые файловые системы предназначены для организации данных на нескольких устройствах хранения напрямую, без помощи стороннего менеджера логических томов:

  • ZFS поддерживает эквиваленты RAID 0, RAID 1, RAID 5 (RAID-Z1) с одинарной четностью, RAID 6 (RAID-Z2) с двойной четностью и версию с тройной четностью (RAID-Z3), также называемую RAID 7. . [38] Поскольку он всегда чередуется с виртуальными устройствами верхнего уровня, он поддерживает эквиваленты вложенных уровней RAID 1+0, 5+0 и 6+0 (а также чередующиеся наборы тройной четности), но не другие вложенные комбинации. ZFS — это собственная файловая система для Solaris и illumos , а также доступна для FreeBSD и Linux. Реализации ZFS с открытым исходным кодом активно разрабатываются в рамках зонтичного проекта OpenZFS . [39] [40] [41] [42] [43]
  • Spectrum Scale , изначально разработанный IBM для потоковой передачи мультимедиа и масштабируемой аналитики, поддерживает схемы защиты декластеризованных RAID до n+3. Особенностью является приоритет динамического восстановления, который выполняется с минимальным воздействием в фоновом режиме до тех пор, пока фрагмент данных не достигнет избыточности n+0, и в этом случае этот фрагмент быстро перестраивается как минимум до уровня n+1. Кроме того, Spectrum Scale поддерживает RAID 1 для городских сетей. [44]
  • Btrfs поддерживает RAID 0, RAID 1 и RAID 10 (RAID 5 и 6 находятся в стадии разработки). [45] [46]
  • Изначально XFS была разработана как интегрированный менеджер томов, поддерживающий объединение, зеркалирование и чередование нескольких физических устройств хранения данных. [47] Однако в реализации XFS в ядре Linux отсутствует встроенный менеджер томов. [48]

Многие операционные системы предоставляют реализации RAID, в том числе следующие:

  • Hewlett-Packard компании Операционная система OpenVMS поддерживает RAID 1. Зеркальные диски, называемые «теневым набором», могут располагаться в разных местах для облегчения аварийного восстановления. [49]
  • от Apple MacOS и macOS Server поддерживают RAID 0, RAID 1 и RAID 1+0. [50] [51]
  • FreeBSD поддерживает RAID 0, RAID 1, RAID 3 и RAID 5, а также все вложения через GEOM и ccd. модули [52] [53] [54]
  • Linux md поддерживает RAID 0, RAID 1, RAID 4, RAID 5, RAID 6 и все вложения. [55] Также поддерживаются определенные операции изменения формы/размера/расширения. [56]
  • Microsoft Windows поддерживает RAID 0, RAID 1 и RAID 5 с использованием различных программных реализаций. Диспетчер логических дисков , представленный в Windows 2000 , позволяет создавать тома RAID 0, RAID 1 и RAID 5 с использованием динамических дисков , но это было ограничено только профессиональными и серверными выпусками Windows до выпуска Windows 8 . [57] [58] Windows XP можно модифицировать, чтобы разблокировать поддержку RAID 0, 1 и 5. [59] В Windows 8 и Windows Server 2012 появилась функция, похожая на RAID, известная как Storage Spaces , которая также позволяет пользователям указывать зеркалирование, четность или отсутствие избыточности для каждой папки. Эти параметры аналогичны RAID 1 и RAID 5, но реализованы на более высоком уровне абстракции. [60]
  • NetBSD поддерживает RAID 0, 1, 4 и 5 посредством своей программной реализации под названием RAIDframe. [61]
  • OpenBSD поддерживает RAID 0, 1 и 5 посредством своей программной реализации, называемой softraid. [62]

В случае сбоя загрузочного диска система должна быть достаточно сложной, чтобы иметь возможность загружаться с оставшегося диска или дисков. Например, рассмотрим компьютер, диск которого настроен как RAID 1 (зеркальные диски); если первый диск в массиве выходит из строя, то загрузчик первого этапа может оказаться недостаточно сложным, чтобы попытаться загрузить загрузчик второго этапа со второго диска в качестве резервного варианта. Загрузчик второго этапа для FreeBSD способен загружать ядро ​​из такого массива. [63]

На основе прошивки и драйверов

[ редактировать ]
Контроллер SATA 3.0 , обеспечивающий функциональность RAID посредством фирменной прошивки и драйверов.

Программно-реализованный RAID не всегда совместим с процессом загрузки системы и, как правило, непрактичен для настольных версий Windows. Однако аппаратные RAID-контроллеры дороги и проприетарны. Чтобы восполнить этот пробел, были представлены недорогие «RAID-контроллеры», которые не содержат выделенного чипа RAID-контроллера, а просто стандартный чип контроллера накопителя или встроенную в набор микросхем функцию RAID с проприетарной прошивкой и драйверами. Во время ранней загрузки RAID реализуется микропрограммой, и после полной загрузки операционной системы управление берут на себя драйверы. Следовательно, такие контроллеры могут не работать, если для операционной системы хоста недоступна поддержка драйверов. [64] Примером может служить технология Intel Rapid Storage , реализованная на многих материнских платах потребительского уровня. [65] [66]

Поскольку требуется минимальная аппаратная поддержка, эту реализацию также называют «программным RAID с аппаратной поддержкой». [67] [68] [69] «гибридная модель» RAID, [69] или даже «фейковый RAID». [70] Если поддерживается RAID 5, аппаратное обеспечение может иметь аппаратный ускоритель XOR. Преимущество этой модели перед чисто программным RAID заключается в том, что при использовании режима резервирования загрузочный диск защищен от сбоев (из-за встроенного ПО) во время процесса загрузки даже до того, как драйверы операционной системы возьмут на себя управление. [69]

Честность

[ редактировать ]

Очистка данных (называемая в некоторых средах патрульным чтением ) включает периодическое чтение и проверку RAID-контроллером всех блоков массива, включая те, к которым нет иного доступа. Это обнаруживает плохие блоки перед использованием. [71] Очистка данных проверяет наличие поврежденных блоков на каждом устройстве хранения в массиве, а также использует избыточность массива для восстановления поврежденных блоков на одном диске и переназначения восстановленных данных запасным блокам в другом месте диска. [72]

Часто RAID-контроллер настроен на «отбрасывание» компонентного диска (то есть предполагает, что компонентный диск вышел из строя), если диск не отвечает в течение восьми секунд или около того; это может привести к тому, что контроллер массива откажется от исправного диска, поскольку этому диску не было предоставлено достаточно времени для завершения процедуры восстановления внутренней ошибки. Следовательно, использование потребительских дисков с RAID может быть рискованным, а диски так называемого «корпоративного класса» ограничивают время восстановления после ошибки, чтобы снизить риск. [ нужна ссылка ] Раньше для настольных накопителей Western Digital было специальное исправление. Утилита под названием WDTLER.exe ограничивала время восстановления диска после ошибок. Утилита включила TLER (восстановление ошибок с ограничением по времени) , что ограничивает время восстановления после ошибок семью секундами. Примерно в сентябре 2009 года Western Digital отключила эту функцию в своих накопителях для настольных ПК (например, в линейке Caviar Black), что сделало такие накопители непригодными для использования в конфигурациях RAID. [73] Однако накопители корпоративного класса Western Digital поставляются с завода с включенным TLER. Подобные технологии используют Seagate, Samsung и Hitachi. Поэтому для использования без RAID диск корпоративного класса с коротким временем ожидания восстановления после ошибки, которое нельзя изменить, менее подходит, чем диск для настольных ПК. [73] В конце 2010 года программа Smartmontools начала поддерживать настройку ATA Error Recovery Control, что позволило этому инструменту настраивать многие жесткие диски настольного класса для использования в конфигурациях RAID. [73]

Хотя RAID может защитить от сбоя физического диска, данные по-прежнему подвергаются воздействию оператора, программного обеспечения, оборудования и вирусов. Во многих исследованиях ошибка оператора рассматривается как частая причина неисправностей. [74] [75] например, оператор сервера заменяет неправильный диск в неисправном RAID и при этом отключает систему (даже временно). [76]

Массив может быть перегружен катастрофическим сбоем, превышающим его возможности восстановления, и весь массив подвергается риску физического повреждения в результате пожара, стихийного бедствия или действий человека, однако резервные копии могут храниться за пределами объекта. Массив также уязвим к сбою контроллера, поскольку не всегда возможно перенести его на новый, другой контроллер без потери данных. [77]

Слабые стороны

[ редактировать ]

Коррелированные отказы

[ редактировать ]

На практике приводы часто имеют один и тот же возраст (с одинаковым износом) и эксплуатируются в одной и той же среде. Поскольку многие сбои дисков происходят из-за механических проблем (которые более вероятны на старых дисках), это нарушает предположения о независимой и одинаковой частоте отказов среди дисков; сбои на самом деле статистически коррелируют. [11] На практике вероятность второго сбоя до восстановления первого (вызывающего потерю данных) выше, чем вероятность случайного сбоя. При исследовании около 100 000 дисков вероятность выхода из строя двух дисков в одном кластере в течение одного часа была в четыре раза выше, чем предсказывалось экспоненциальным статистическим распределением , которое характеризует процессы, в которых события происходят непрерывно и независимо с постоянной средней скоростью. Вероятность двух сбоев за один и тот же 10-часовой период оказалась в два раза выше, чем предсказывалось экспоненциальным распределением. [78]

Неустранимые ошибки чтения во время восстановления

[ редактировать ]

Неустранимые ошибки чтения (URE) представляют собой сбои чтения секторов, также известные как скрытые ошибки сектора (LSE). Соответствующий показатель оценки носителя, частота неисправимых битовых ошибок (UBE), обычно гарантированно составляет менее одного бита из 10. 15 [ оспаривается обсуждаем ] для накопителей корпоративного класса ( SCSI , FC , SAS или SATA) и менее одного бита из 10. 14 [ оспаривается обсуждаем ] для дисков настольного класса (IDE/ATA/PATA или SATA). Увеличение емкости дисков и большие экземпляры RAID 5 привели к тому, что максимальная частота ошибок оказалась недостаточной для обеспечения успешного восстановления из-за высокой вероятности возникновения такой ошибки на одном или нескольких оставшихся дисках во время перестроения набора RAID. [11] [ устаревший источник ] [79] При перестроении схемы на основе четности, такие как RAID 5, особенно подвержены воздействию URE, поскольку они влияют не только на сектор, в котором они встречаются, но и на реконструированные блоки, использующие этот сектор для вычисления четности. [80]

Схемы двойной защиты на основе четности, такие как RAID 6, пытаются решить эту проблему, обеспечивая избыточность, которая допускает сбои двух дисков; Недостатком таких схем является повышенный штраф за запись — количество раз, когда к носителю данных необходимо обращаться в течение одной операции записи. [81] Схемы, которые дублируют (зеркалируют) данные по принципу «диск-диск», такие как RAID 1 и RAID 10, имеют меньший риск со стороны URE, чем те, которые используют вычисление четности или зеркалирование между чередующимися наборами. [24] [82] Очистка данных , как фоновый процесс, может использоваться для обнаружения и восстановления URE, эффективно снижая риск их возникновения во время восстановления RAID и возникновения сбоев двух дисков. Восстановление URE включает в себя переназначение затронутых базовых секторов диска с использованием пула переназначения секторов диска; В случае обнаружения URE во время фоновой очистки избыточность данных, обеспечиваемая полностью работоспособным набором RAID, позволяет восстановить недостающие данные и перезаписать их в переназначенный сектор. [83] [84]

Увеличение времени восстановления и вероятности отказа

[ редактировать ]

Емкость накопителя росла гораздо быстрее, чем скорость передачи данных, а количество ошибок по сравнению с этим снизилось лишь немного. Таким образом, восстановление дисков большей емкости может занять часы, а то и дни, в течение которых другие диски могут выйти из строя или могут возникнуть необнаруженные ошибки чтения. Время восстановления также ограничено, если весь массив все еще работает с пониженной емкостью. [85] Учитывая массив только с одним резервным диском (что применимо к уровням RAID 3, 4 и 5, а также к «классическому» RAID 1 с двумя дисками), отказ второго диска приведет к полному отказу массива. отдельных дисков Несмотря на то, что среднее время безотказной работы (MTBF) со временем увеличилось, это увеличение не поспевает за увеличением емкости дисков. Время восстановления массива после сбоя одного диска, а также вероятность второго сбоя во время восстановления со временем увеличились. [22]

Некоторые комментаторы заявили, что RAID 6 в этом отношении является лишь «помощью», поскольку он лишь отодвигает проблему еще дальше. [22] Однако, согласно исследованию NetApp , проведенному Берриманом и др. в 2006 году, вероятность сбоя снижается примерно в 3800 раз (по сравнению с RAID 5) при правильной реализации RAID 6 даже при использовании обычных дисков. [86] [ цитата не найдена ] Тем не менее, если наблюдаемые сейчас технологические тенденции останутся неизменными, в 2019 году у массива RAID 6 будет такая же вероятность выхода из строя, как и у его аналога RAID 5 в 2010 году. [86] [ ненадежный источник? ]

Схемы зеркалирования, такие как RAID 10, имеют ограниченное время восстановления, поскольку для них требуется копия одного вышедшего из строя диска, по сравнению со схемами четности, такими как RAID 6, которые требуют копирования всех блоков дисков в наборе массива. Схемы тройной четности или тройное зеркалирование были предложены в качестве одного из подходов к повышению устойчивости к сбою дополнительного диска во время такого длительного восстановления. [86] [ ненадежный источник? ]

атомарность

[ редактировать ]

Сбой системы или другое прерывание операции записи может привести к состояниям, в которых четность не соответствует данным из-за неатомарности процесса записи, так что четность не может быть использована для восстановления в случае сбоя диска. Обычно это называют дырой записи , которая является известной проблемой повреждения данных в старых и младших RAID-массивах, вызванной прерыванием записи на диск. [87] Дыру записи можно устранить несколькими способами:

  • Ведение журнала упреждающей записи .
    • Для этой цели в аппаратных RAID-системах используется встроенный энергонезависимый кэш. [88]
    • Для этой цели mdadm может использовать специальное устройство ведения журналов (чтобы избежать снижения производительности, обычно твердотельные накопители и NVM ). предпочтительны [89] [90]
  • Напишите журнал намерений . mdadm использует «растровое изображение намерения записи». Если он обнаружит какое-либо местоположение, помеченное как неполно записанное при запуске, он повторно синхронизирует его. Он закрывает дыру для записи, но не защищает от потери передаваемых данных, в отличие от полного WAL. [88] [91]
  • Частичный паритет. mdadm может сохранить «частичную четность», которая в сочетании с измененными фрагментами восстанавливает исходную четность. Это закроет дыру для записи, но опять же не защитит от потери данных при передаче. [92]
  • Динамический размер полосы. RAID-Z гарантирует, что каждый блок представляет собой отдельную полосу, поэтому каждый блок является полным. Транзакционная семантика копирования при записи ( COW ) защищает метаданные, связанные с полосами. [93] Недостатком является фрагментация ввода-вывода. [94]
  • Избегание перезаписи используемых полос. bcachefs , который использует копирующий сборщик мусора, выбирает этот вариант. COW снова защищает ссылки на чередующиеся данные. [94]

Дыра записи — это малопонятный и редко упоминаемый режим отказа для избыточных систем хранения, которые не используют транзакционные функции. Исследователь баз данных Джим Грей написал: «Обновление на месте — это ядовитое яблоко» на заре коммерциализации реляционных баз данных. [95]

Надежность кэша записи

[ редактировать ]

Существуют опасения по поводу надежности кэша записи, особенно в отношении устройств, оснащенных кэшем обратной записи , который представляет собой систему кэширования, которая сообщает данные как записанные, как только они записываются в кэш, а не когда они записываются в неиспользуемый кэш. -летучая среда. Если в системе произойдет сбой питания или другой серьезный сбой, данные могут быть безвозвратно потеряны из кэша, не дойдя до энергонезависимого хранилища. По этой причине хорошие реализации кэша с обратной записью включают такие механизмы, как резервное питание от батареи, для сохранения содержимого кэша при сбоях системы (включая сбои питания) и очистки кэша во время перезапуска системы. [96]

См. также

[ редактировать ]
  1. ^ Jump up to: а б с Паттерсон, Дэвид ; Гибсон, Гарт А .; Кац, Рэнди (1988). Аргументы в пользу резервных массивов недорогих дисков (RAID) (PDF) . Конференции СИГМОД . Проверено 03 января 2024 г.
  2. ^ Jump up to: а б «Термин RAID, первоначально называвшийся «избыточным массивом недорогих дисков», был впервые опубликован в конце 1980-х годов Паттерсоном, Гибсоном и Кацем из Калифорнийского университета в Беркли. (Консультативный совет RAID с тех пор заменил термин «недорогой» на «независимый». )» «Основы сети хранения данных»; Мета Гупта; Сиско Пресс; ISBN   978-1-58705-065-7 ; Приложение А.
  3. ^ Jump up to: а б Кац, Рэнди Х. (октябрь 2010 г.). «RAID: личные воспоминания о том, как хранилище стало системой» (PDF) . eecs.umich.edu . Компьютерное общество IEEE . Проверено 18 января 2015 г. Мы не были первыми, кому пришла в голову идея заменить то, что Паттерсон назвал медленным большим дорогим диском (SLED), массивом недорогих дисков. Например, концепция зеркалирования дисков, впервые предложенная компанией Tandem, была хорошо известна, и некоторые продукты хранения данных уже были построены на основе массивов небольших дисков.
  4. ^ Хейс, Фрэнк (17 ноября 2003 г.). «История до сих пор» . Компьютерный мир . Проверено 18 ноября 2016 г. Паттерсон вспомнил начало своего проекта RAID в 1987 году. [...] 1988: Дэвид А. Паттерсон возглавляет команду, которая определяет стандарты RAID для повышения производительности, надежности и масштабируемости.
  5. ^ Патент США 4092732 , Норман Кен Оучи, «Система восстановления данных, хранящихся в неисправном блоке памяти», выдан 30 мая 1978 г.  
  6. ^ «Техническое руководство по аппаратному обеспечению HSC50/70» (PDF) . ДЕК . Июль 1986 г., стр. 29, 32. Архивировано из оригинала (PDF) 4 марта 2016 г. Проверено 3 января 2014 г.
  7. ^ Патент США 4761785 , Брайан Э. Кларк и др., «Распространение четности для улучшения доступа к хранилищу», выдан 2 августа 1988 г.  
  8. ^ Патент США 4899342 , Дэвид Поттер и др., «Метод и устройство для работы с многоэлементным массивом памяти», выдан 6 февраля 1990 г.   См. также The Connection Machine (1988).
  9. ^ «Система обработки данных IBM 7030: Справочное руководство» (PDF) . bitsavers.trailing-edge.com . ИБМ . 1960. с. 157 . Проверено 17 января 2015 г. Поскольку большое количество бит обрабатывается параллельно, практично использовать биты проверки и исправления ошибок (ECC), а каждый 39-битный байт состоит из 32 битов данных и семи битов ECC. Биты ECC сопровождают все данные, передаваемые на высокоскоростные диски или с них, и при чтении используются для исправления одиночной ошибки в байте и обнаружения двойных и большинства множественных ошибок в байте.
  10. ^ «IBM Stretch (также известная как система обработки данных IBM 7030)» . броухаха.com . 18 июня 2009 г. Проверено 17 января 2015 г. Типичная система обработки данных IBM 7030 могла состоять из следующих блоков: [...] IBM 353 Disk Storage Unit – аналогично IBM 1301 Disk File, но намного быстрее. 2 097 152 (2 ^ 21) 72-битных слова (64 бита данных и 8 бит ECC), 125 000 слов в секунду
  11. ^ Jump up to: а б с д и ж г час я Чен, Питер; Ли, Эдвард; Гибсон, Гарт; Кац, Рэнди; Паттерсон, Дэвид (1994). «RAID: высокопроизводительное и надежное вторичное хранилище». Обзоры вычислительной техники ACM . 26 (2): 145–185. CiteSeerX   10.1.1.41.3889 . дои : 10.1145/176979.176981 . S2CID   207178693 .
  12. ^ Дональд, Л. (2003). MCSA/MCSE 2006 JumpStart Основы компьютера и сети (2-е изд.). Глазго: СИБЕКС.
  13. ^ Хау, Денис (ред.). Избыточные массивы независимых дисков от FOLDOC . Факультет вычислительной техники Имперского колледжа . Проверено 10 ноября 2011 г. {{cite book}}: |work= игнорируется ( помогите )
  14. ^ Докинз, Билл и Джонс, Арнольд. «Спецификация общего формата данных RAID-диска». Архивировано 24 августа 2009 г. в Wayback Machine [Ассоциация индустрии сетей хранения данных], Колорадо-Спрингс, 28 июля 2006 г. Проверено 22 февраля 2011 г.
  15. ^ «Решения Adaptec Hybrid RAID» (PDF) . Адаптек.com . Адаптек. 2012 . Проверено 7 сентября 2013 г.
  16. ^ «Стандарт общего формата дисков RAID (DDF)» . SNIA.org . СНИА . Проверено 26 августа 2012 г.
  17. ^ «Словарь СНИА» . SNIA.org . СНИА . Проверено 24 августа 2010 г.
  18. ^ Таненбаум, Эндрю С. Структурированная компьютерная организация, 6-е изд . п. 95.
  19. ^ Хеннесси, Джон; Паттерсон, Дэвид (2006). Компьютерная архитектура: количественный подход, 4-е изд . п. 362. ИСБН  978-0123704900 .
  20. ^ «Справочник FreeBSD, глава 20.5 GEOM: Модульная платформа преобразования дисков» . Проверено 20 декабря 2012 г.
  21. ^ Уайт, Джей; Лют, Крис (май 2010 г.). «RAID-DP: Реализация NetApp RAID с двойной четностью для защиты данных. Технический отчет NetApp TR-3298» . Проверено 2 марта 2013 г.
  22. ^ Jump up to: а б с Ньюман, Генри (17 сентября 2009 г.). «Дни рейда могут быть сочтены» . Форум EnterpriseStorage . Проверено 7 сентября 2010 г.
  23. ^ «Почему RAID 6 перестает работать в 2019 году» . ЗДНет . 22 февраля 2010 г. Архивировано из оригинала 15 августа 2010 г.
  24. ^ Jump up to: а б Лоу, Скотт (16 ноября 2009 г.). «Как защитить себя от неисправимых ошибок чтения (URE), связанных с RAID. Techrepublic» . Проверено 1 декабря 2012 г.
  25. ^ Виджаян, С.; Сельвамани, С.; Виджаян, С. (1995). «Дисковый массив с двойным перекрестием: высоконадежная архитектура гибридного RAID» . Материалы Международной конференции по параллельной обработке 1995 года: Том 1 . ЦРК Пресс . стр. I – 146 и далее . ISBN  978-0-8493-2615-8 – через Google Книги .
  26. ^ «Почему RAID 1+0 лучше, чем RAID 0+1?» . aput.net . Проверено 23 мая 2016 г.
  27. ^ «RAID 10 против RAID 01 (RAID 1+0 против RAID 0+1) с помощью диаграммы» . www.thegeekstuff.com . Проверено 23 мая 2016 г.
  28. ^ «Сравнение RAID 10 и RAID 01 | SMB IT Journal» . www.smbitjournal.com . 30 июля 2014 года . Проверено 23 мая 2016 г.
  29. ^ Jump up to: а б Джеффри Б. Лейтон: «Введение в Nested-RAID: RAID-01 и RAID-10» [узурпировал] , Журнал Linux, 6 января 2011 г.
  30. ^ «Производительность, инструменты и общие вопросы» . tldp.org . Проверено 25 декабря 2013 г.
  31. ^ «Главная страница – Linux-рейд» . osdl.org. 20 августа 2010 г. Архивировано из оригинала 5 июля 2008 г. Проверено 24 августа 2010 г.
  32. ^ «Рейд Hdfs» . Hadoopblog.blogspot.com. 28 августа 2009 г. Проверено 24 августа 2010 г.
  33. ^ Jump up to: а б «3.8: «Хакеры затерянного рейда» » . Песни релиза OpenBSD . OpenBSD . 01.11.2005 . Проверено 23 марта 2019 г.
  34. ^ Лонг, Скотт; Адаптек, Инк (2000). «aac(4) — драйвер контроллера Adaptec AdvancedRAID» . Перекрестная ссылка BSD . FreeBSD . , «aac — драйвер контроллера Adaptec AdvancedRAID». Страницы руководства FreeBSD . FreeBSD.
  35. ^ Раадт, Тео де (9 сентября 2005 г.). «Поддержка управления RAID появится в OpenBSD 3.8» . misc@ (список рассылки). OpenBSD .
  36. ^ Муренин, Константин А. (21 мая 2010 г.). «1.1. Мотивация; 4. Драйверы датчиков; 7.1. NetBSD envsys/sysmon». Аппаратные датчики OpenBSD — мониторинг окружающей среды и управление вентиляторами ( диссертация на степень магистра математики ). Университет Ватерлоо : UWSpace. hdl : 10012/5234 . Идентификатор документа: ab71498b6b1a60ff817b29d56997a418.
  37. ^ «RAID через файловую систему» . Архивировано из оригинала 09.11.2013 . Проверено 22 июля 2014 г.
  38. ^ «Производительность, емкость и целостность ZFS Raidz» . www.calomel.org . Проверено 26 июня 2017 г.
  39. ^ «ZFS-иллюмос» . иллюмос.орг . 15 сентября 2014 г. Архивировано из оригинала 15 марта 2019 г. Проверено 23 мая 2016 г.
  40. ^ «Создание и удаление пулов устройств хранения данных ZFS – Руководство по администрированию ZFS Oracle Solaris» . Корпорация Оракл . 01 апреля 2012 г. Проверено 27 июля 2014 г.
  41. ^ «20.2. Файловая система Z (ZFS)» . freebsd.org . Архивировано из оригинала 3 июля 2014 г. Проверено 27 июля 2014 г.
  42. ^ «Double Parity RAID-Z (raidz2) (Руководство по администрированию Solaris ZFS)» . Корпорация Оракл . Проверено 27 июля 2014 г.
  43. ^ «RAIDZ с тройной четностью (raidz3) (Руководство по администрированию Solaris ZFS)» . Корпорация Оракл . Проверено 27 июля 2014 г.
  44. ^ Динадхаялан, Вира (2011). «Общая параллельная файловая система (GPFS) Native RAID» (PDF) . Используйте Nix.org . ИБМ . Проверено 28 сентября 2014 г.
  45. ^ «Btrfs Wiki: список функций» . 07.11.2012 . Проверено 16 ноября 2012 г.
  46. ^ «Btrfs Wiki: Журнал изменений» . 01.10.2012 . Проверено 14 ноября 2012 г.
  47. ^ Траутман, Филип; Мостек, Джим. «Масштабируемость и производительность современных файловых систем» . linux-xfs.sgi.com . Архивировано из оригинала 22 апреля 2015 г. Проверено 17 августа 2015 г.
  48. ^ «Настройка Linux RAID – XFS» . ядро.орг . 05.10.2013 . Проверено 17 августа 2015 г.
  49. ^ Хьюлетт Паккард Энтерпрайз. «Документ поддержки HPE — Центр поддержки HPE» . support.hpe.com .
  50. ^ «Mac OS X: Как объединить наборы RAID в Дисковой утилите» . Проверено 4 января 2010 г.
  51. ^ «Файловые системы сервера Apple Mac OS X» . Проверено 23 апреля 2008 г.
  52. ^ «Страница руководства администратора системы FreeBSD для GEOM(8)» . Проверено 19 марта 2009 г.
  53. ^ «Список рассылки freebsd-geom — новый класс / geom_raid5» . 6 июля 2006 г. Проверено 19 марта 2009 г.
  54. ^ «Руководство по интерфейсам ядра FreeBSD для CCD(4)» . Проверено 19 марта 2009 г.
  55. ^ «Практическое руководство по программному обеспечению RAID» . Проверено 10 ноября 2008 г.
  56. ^ «mdadm(8) — справочная страница Linux» . Linux.Die.net . Проверено 20 ноября 2014 г.
  57. ^ «Поддержка Windows Vista для жестких дисков с большим сектором» . Майкрософт . 29 мая 2007 г. Архивировано из оригинала 3 июля 2007 г. Проверено 8 октября 2007 г.
  58. ^ «Невозможно выбрать или отформатировать раздел жесткого диска при попытке установить Windows Vista, Windows 7 или Windows Server 2008 R2» . Майкрософт . 14 сентября 2011 года. Архивировано из оригинала 3 марта 2011 года . Проверено 17 декабря 2009 г.
  59. ^ «Использование Windows XP для создания RAID 5» . Аппаратное обеспечение Тома . 19 ноября 2004 года . Проверено 24 августа 2010 г.
  60. ^ Синофски, Стивен (5 января 2012 г.). «Виртуализация хранилища для обеспечения масштабируемости, отказоустойчивости и эффективности» . Блог о создании Windows 8. Архивировано из оригинала 9 мая 2013 года . Проверено 6 января 2012 г.
  61. ^ Мецгер, Перри (12 мая 1999 г.). «Объявление о выпуске NetBSD 1.4» . NetBSD.org . Фонд NetBSD . Проверено 30 января 2013 г.
  62. ^ «Справочная страница OpenBSD softraid» . OpenBSD.org . Проверено 3 февраля 2018 г.
  63. ^ «Справочник по FreeBSD» . Глава 19 GEOM: Модульная платформа преобразования дисков . Проверено 19 марта 2009 г.
  64. ^ «Часто задаваемые вопросы по SATA RAID» . Ata.wiki.kernel.org. 08 апреля 2011 г. Проверено 26 августа 2012 г.
  65. ^ «Red Hat Enterprise Linux – Руководство администратора хранилища – Типы RAID» . redhat.com .
  66. ^ Рассел, Чарли; Кроуфорд, Шэрон; Эдни, Эндрю (2011). Работа с Windows Small Business Server 2011 Essentials . О'Рейли Медиа, Инк. с. 90. ИСБН  978-0-7356-5670-3 – через Google Книги .
  67. ^ Блок, Уоррен. «19.5. Программные RAID-устройства» . freebsd.org . Проверено 27 июля 2014 г.
  68. ^ Круц, Рональд Л.; Конли, Джеймс (2007). Основы сетевой безопасности Wiley Pathways . Джон Уайли и сыновья . п. 422. ИСБН  978-0-470-10192-6 – через Google Книги .
  69. ^ Jump up to: а б с «Аппаратный RAID или программный RAID: какая реализация лучше всего подходит для моего приложения? Технический документ Adaptec» (PDF) . Adaptec.com .
  70. ^ Смит, Грегори (2010). PostgreSQL 9.0: высокая производительность . Packt Publishing Ltd. с. 31. ISBN  978-1-84951-031-8 – через Google Книги .
  71. ^ Ульф Троппенс, Вольфганг Мюллер-Фридт, Райнер Эркенс, Райнер Волафка, Нильс Хауштайн. Объяснение сетей хранения: основы и применение Fibre Channel SAN, NAS, ISCSI, InfiniBand и FCoE. Джон Уайли и сыновья, 2009. стр.39.
  72. ^ Компьютеры Dell, «Справочное патрулирование», чтение для RAID-контроллеров Dell PowerEdge, Дрю Хабас и Джон Сибер, перепечатано из Dell Power Solutions, февраль 2006 г. http://www.dell.com/downloads/global/power/ps1q06-20050212-Habas. PDF
  73. ^ Jump up to: а б с «Контроль восстановления ошибок с помощью Smartmontools» . 2009. Архивировано из оригинала 28 сентября 2011 года . Проверено 29 сентября 2017 г.
  74. ^ Грей, Джим (октябрь 1990 г.). «Перепись доступности системы Tandem в период с 1985 по 1990 год» (PDF) . Транзакции IEEE о надежности . 39 (4). ИИЭР: 409–418. дои : 10.1109/24.58719 . S2CID   2955525 . Архивировано из оригинала (PDF) 20 февраля 2019 г.
  75. ^ Мерфи, Брендан; Гент, Тед (1995). «Надежность измерительной системы и программного обеспечения с использованием автоматизированного процесса сбора данных». Международная компания по обеспечению качества и надежности . 11 (5): 341–353. дои : 10.1002/qre.4680110505 .
  76. ^ Паттерсон, Д., Хеннесси, Дж. (2009), 574.
  77. ^ «Приключения RAID-миграции» . 10 июля 2007 года . Проверено 10 марта 2010 г.
  78. ^ Сбои дисков в реальном мире: что для вас означает MTTF в 1 000 000 часов? Бьянка Шредер и Гарт А. Гибсон
  79. ^ Харрис, Робин (27 февраля 2010 г.). «Перестанет ли RAID 6 работать в 2019 году?» . StorageMojo.com . ТехноQWAN . Проверено 17 декабря 2013 г.
  80. ^ Дж. Л. Хафнер, В. Динадхаялан, К. Рао и Дж. А. Томлин. «Матричные методы восстановления потерянных данных в стирающих кодах. Конференция USENIX по технологиям файлов и хранения , 13–16 декабря 2005 г.
  81. ^ Миллер, Скотт Алан (5 января 2016 г.). «Понимание производительности RAID на различных уровнях» . Зона восстановления . StorageCraft . Проверено 22 июля 2016 г.
  82. ^ Кагель, Арт С. (2 марта 2011 г.). «RAID 5 против RAID 10 (или даже RAID 3 или RAID 4)» . Wonderas.com . Архивировано из оригинала 3 ноября 2014 года . Проверено 30 октября 2014 г.
  83. ^ Бейкер, М.; Шах, М.; Розенталь, DSH; Руссопулос, М.; Маниатис, П.; Джули, Т.; Бунгале, П. (апрель 2006 г.). «Свежий взгляд на надежность долговременного цифрового хранения». Материалы 1-й Европейской конференции ACM SIGOPS/EuroSys по компьютерным системам, 2006 г. стр. 221–234. дои : 10.1145/1217935.1217957 . ISBN  1595933220 . S2CID   7655425 .
  84. ^ Байравасундарам, Л.Н.; Гудсон, Греция; Пасупати, С.; Шиндлер, Дж. (12–16 июня 2007 г.). «Анализ скрытых ошибок секторов в дисковых накопителях» (PDF) . Материалы международной конференции ACM SIGMETRICS 2007 г. по измерению и моделированию компьютерных систем . стр. 289–300. дои : 10.1145/1254882.1254917 . ISBN  9781595936394 . S2CID   14164251 .
  85. ^ Паттерсон, Д., Хеннесси, Дж. (2009). Компьютерная организация и дизайн . Нью-Йорк: Издательство Морган Кауфманн. стр. 604–605.
  86. ^ Jump up to: а б с Левенталь, Адам (1 декабря 2009 г.). «RAID с тройной четностью и не только. Очередь ACM, Ассоциация вычислительной техники» . Проверено 30 ноября 2012 г.
  87. ^ « Дыра записи» в RAID5, RAID6, RAID1 и других массивах» . Команда ЗАР . Проверено 15 февраля 2012 г.
  88. ^ Jump up to: а б Данти, Гионатан. «дыра записи: какие уровни RAID затронуты?» . Ошибка сервера .
  89. ^ «АНОНС: mdadm 3.4 — инструмент для управления md Soft RAID под Linux [LWN.net]» . lwn.net .
  90. ^ «Журнал для MD/RAID5 [LWN.net]» . lwn.net .
  91. ^ md(4) Linux программиста Руководство – Специальные файлы
  92. ^ «Журнал частичной четности» . Документация ядра Linux .
  93. ^ Бонвик, Джефф (17 ноября 2005 г.). «РЕЙД-З» . Блог Джеффа Бонвика . Блоги Oracle . Архивировано из оригинала 16 декабря 2014 г. Проверено 1 февраля 2015 г.
  94. ^ Jump up to: а б Оверстрит, Кент (18 декабря 2021 г.). «bcachefs: Принципы работы» (PDF) . Проверено 10 мая 2023 г.
  95. ^ Джим Грей: Концепция транзакции: достоинства и ограничения. Архивировано 11 июня 2008 г. в Wayback Machine (приглашенный доклад) VLDB 1981 : 144–154.
  96. ^ «Определение кэша обратной записи в словаре SNIA» . www.snia.org .
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: bc6d9b58b4ec2c27cc0f9a29309725b5__1720186620
URL1:https://arc.ask3.ru/arc/aa/bc/b5/bc6d9b58b4ec2c27cc0f9a29309725b5.html
Заголовок, (Title) документа по адресу, URL1:
RAID - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)