Jump to content

Цеф (программное обеспечение)

(Перенаправлено из CephFS )
Хранилище Ceph
Оригинальный автор(ы) Хранилище чернил ( Сейдж Вейл , Иегуда Саде Вайнрауб, Грегори Фарнум, Джош Дургин, Сэмюэл Джаст, Видо ден Холландер)
Разработчик(и) Red Hat , Intel , CERN , Cisco , Fujitsu , SanDisk , Canonical и SUSE [ 1 ]
Стабильная версия
18.2.0 [ 2 ]  Отредактируйте это в Викиданных (Риф) / 3 августа 2023 г.
Репозиторий
Написано в С++ , Питон [ 3 ]
Операционная система Линукс , ФриБСД , [ 4 ] Окна [ 5 ]
Тип Хранилище распределенных объектов
Лицензия LGPLv2.1 [ 6 ]
Веб-сайт цеф .что

Ceph (произносится / ˈ s ɛ f / ) — это бесплатная с открытым исходным кодом программно-определяемая хранения данных платформа , которая обеспечивает объектное хранилище , [ 7 ] блочное хранилище и файловое хранилище, построенное на общей основе распределенного кластера. Ceph обеспечивает полностью распределенную работу без единой точки отказа и масштабируемость до эксабайтного уровня и доступен бесплатно. Начиная с версии 12 (Luminous), Ceph не полагается на какую-либо другую традиционную файловую систему и напрямую управляет жесткими дисками и твердотельными накопителями с помощью собственного хранилища данных BlueStore и может предоставлять POSIX файловую систему .

Ceph реплицирует данные с отказоустойчивостью , [ 8 ] с использованием стандартного оборудования и Ethernet IP и не требует специальной аппаратной поддержки. Ceph отличается высокой доступностью и обеспечивает надежную надежность данных посредством таких методов, как репликация, стирающее кодирование , снимки и клонирования. По своей конструкции система является одновременно самовосстанавливающейся и самоуправляемой , что сводит к минимуму время администрирования и другие затраты.

Крупномасштабные производственные развертывания Ceph включают CERN , [ 9 ] [ 10 ] ОВХ [ 11 ] [ 12 ] [ 13 ] [ 14 ] и Цифровой Океан . [ 15 ] [ 16 ]

Высокоуровневый обзор внутренней организации Ceph [ 17 ] : 4 

Ceph использует пять различных типов демонов : [ 17 ]

  • Кластерные мониторы ( ceph-mon ), которые отслеживают активные и вышедшие из строя узлы кластера, конфигурацию кластера и информацию о размещении данных и глобальном состоянии кластера.
  • OSD ( ceph-osd ), которые управляют устройствами хранения больших объемов данных напрямую через серверную часть BlueStore, [ 18 ] который с момента выпуска v12.x заменяет хранилище файлов [ 19 ] серверная часть, которая была реализована поверх традиционной файловой системы)
  • Серверы метаданных ( ceph-mds ), которые поддерживают и обеспечивают доступ к индексным дескрипторам и каталогам внутри файловой системы CephFS.
  • HTTP- шлюзы ( ceph-rgw ), которые предоставляют уровень хранения объектов как интерфейс, совместимый с Amazon S3 или OpenStack Swift. API-интерфейсами
  • Менеджеры ( ceph-mgr ), которые выполняют задачи мониторинга, учета и обслуживания кластера, а также взаимодействуют с внешними системами мониторинга и управления (например, балансировщиком, информационной панелью, Prometheus , плагином Zabbix). [ 20 ]

Все они полностью распределены и могут быть развернуты на отдельных выделенных серверах или в конвергентной топологии . Клиенты с разными потребностями напрямую взаимодействуют с соответствующими компонентами кластера. [ 21 ]

Ceph распределяет данные по нескольким устройствам хранения и узлам для достижения более высокой пропускной способности аналогично RAID . адаптивная балансировка нагрузки , благодаря чему часто используемые службы могут реплицироваться на большее количество узлов. Поддерживается [ 22 ]

По состоянию на сентябрь 2017 г. , BlueStore — это серверная система хранения данных по умолчанию и рекомендуемая для производственных сред. [ 23 ] что обеспечивает лучшую задержку и возможность настройки, чем более старая серверная часть Filestore, а также позволяет избежать недостатков хранилища на основе файловой системы, включающего дополнительные уровни обработки и кэширования. Серверная часть Filestore будет прекращена с момента выпуска Reef в середине 2023 года. XFS была рекомендованной базовой файловой системой для OSD Filestore, а Btrfs можно было использовать на свой страх и риск. Файловые системы ext4 не рекомендовались из-за ограниченной емкости метаданных. [ 24 ] Серверная часть BlueStore по-прежнему использует XFS для небольшого раздела метаданных. [ 25 ]

Объектное хранилище S3

[ редактировать ]
Диаграмма архитектуры, показывающая отношения между компонентами платформы хранения Ceph.

Ceph реализует распределенное хранилище объектов через РАДОС Шлюз ( ceph-rgw ), который предоставляет базовый уровень хранения через интерфейс, совместимый с Amazon S3 или OpenStack Swift .

Развертывания Ceph RGW легко масштабируются и часто используют большие и плотные носители данных для массовых случаев использования, которые включают большие данные (хранилище данных), резервное копирование и архивирование , Интернет вещей , носители, видеозапись и образы развертывания для виртуальных машин и контейнеров . [ 26 ]

Библиотеки программного обеспечения Ceph предоставляют клиентским приложениям прямой доступ к надежной объектно-ориентированной системе хранения данных автономного распределенного хранилища объектов (RADOS). Чаще используются библиотеки для блочного устройства RADOS Ceph (RBD), шлюза RADOS и файловой системы Ceph служб . Таким образом, администраторы могут поддерживать свои устройства хранения данных в единой системе, что упрощает репликацию и защиту данных.

librados Программные библиотеки обеспечивают доступ к C , C++ , Java , PHP и Python . Шлюз RADOS также предоставляет хранилище объектов как интерфейс RESTful , который может представлять собой как собственные API-интерфейсы Amazon S3 , так и OpenStack Swift .

Блочное хранилище

[ редактировать ]

Ceph может предоставлять клиентам с тонким предоставлением блочные устройства . Когда приложение записывает данные в Ceph с использованием блочного устройства, Ceph автоматически распределяет и реплицирует данные по кластеру. (RBD) Ceph Блочное устройство RADOS также интегрируется с виртуальными машинами на основе ядра (KVM).

Блочное хранилище Ceph может быть развернуто на традиционных жестких дисках и/или твердотельных накопителях , которые связаны с блочным хранилищем Ceph для сценариев использования, включая базы данных, виртуальные машины, анализ данных, искусственный интеллект и машинное обучение. Клиентам блочного хранилища часто требуется высокая пропускная способность и IOPS , поэтому при развертывании Ceph RBD все чаще используются твердотельные накопители с интерфейсами NVMe .

«RBD» построен на основе базовой системы хранения объектов RADOS Ceph, которая предоставляет интерфейс librados и файловую систему CephFS. Поскольку RBD построен на librados, RBD наследует возможности librados, включая клонирование и снимки . Распределяя тома по кластеру, Ceph повышает производительность для образов больших блочных устройств.

«Ceph-iSCSI» — это шлюз, который обеспечивает доступ к распределенному блочному хранилищу высокой доступности с серверов Microsoft Windows и VMware vSphere или клиентов, поддерживающих протокол iSCSI . При использовании ceph-iscsi на одном или нескольких хостах шлюза iSCSI образы Ceph RBD становятся доступными как логические единицы (LU), связанные с целями iSCSI, к которым можно получить доступ опционально с балансировкой нагрузки и высокой доступностью.

Поскольку конфигурация ceph-iscsi хранится в хранилище объектов Ceph RADOS, хосты шлюзов ceph-iscsi по своей сути не имеют постоянного состояния и, таким образом, могут быть заменены, расширены или сокращены по желанию. В результате Ceph Storage позволяет клиентам запускать по-настоящему распределенную, высокодоступную, отказоустойчивую и самовосстанавливающуюся корпоративную технологию хранения данных на стандартном оборудовании и платформе с полностью открытым исходным кодом.

Блочное устройство можно виртуализировать, предоставляя блочное хранилище виртуальным машинам на таких платформах виртуализации, как Openshift , OpenStack , Kubernetes , OpenNebula , Ganeti , Apache CloudStack и Proxmox Virtual Environment .

Хранение файлов

[ редактировать ]

Файловая система Ceph (CephFS) работает поверх той же основы RADOS, что и службы хранения объектов и блочных устройств Ceph. Сервер метаданных CephFS (MDS) предоставляет службу, которая сопоставляет каталоги и имена файлов файловой системы с объектами, хранящимися в кластерах RADOS. Кластер серверов метаданных может расширяться или сжиматься, а также может динамически перебалансировать ранги метаданных файловой системы для равномерного распределения данных между узлами кластера. Это обеспечивает высокую производительность и предотвращает большие нагрузки на отдельные хосты внутри кластера.

Клиенты монтируют POSIX -совместимую файловую систему с помощью клиента ядра Linux . более старый клиент на базе FUSE Также доступен . Серверы работают как обычные демоны Unix .

Хранилище файлов Ceph часто связано со сбором журналов, обменом сообщениями и хранением файлов.

Панель управления

[ редактировать ]
Целевая страница информационной панели Ceph (2023 г.)

С 2018 года также существует проект веб-интерфейса Dashboard, который помогает управлять кластером. Он разрабатывается сообществом Ceph на LGPL-3 и использует Ceph-mgr, Python , Angular framework и Grafana . [ 27 ] Целевая страница была обновлена ​​в начале 2023 года. [ 28 ]

Предыдущие панели мониторинга были разработаны, но сейчас закрыты: Calamari (2013–2018), OpenAttic (2013–2019), VSM (2014–2016), Inkscope (2015–2016) и Ceph-Dash (2015–2017). [ 29 ]

малиновый

[ редактировать ]

Начиная с 2019 года проект Crimson переопределяет путь к данным OSD. Цель Crimson — минимизировать задержку и нагрузку на процессор. Современные устройства хранения данных и интерфейсы, включая NVMe и 3D XPoint, стали намного быстрее, чем жесткие диски SAS/SATA и даже твердотельные накопители , но производительность процессора отстает. Более того crimson-osd задуман как обратно совместимая замена цеф-осд . Хотя Crimson может работать с серверной частью BlueStore (через AlienStore), для целей тестирования вместе с CyanStore также разрабатывается новая собственная реализация ObjectStore под названием SeaStore. Одной из причин создания SeaStore является то, что поддержка транзакций в серверной части BlueStore обеспечивается RocksDB , которую необходимо повторно реализовать для достижения лучшего параллелизма. [ 30 ] [ 31 ] [ 32 ]

Ceph был создан Сейджем Вейлом для его докторской диссертации . [ 33 ] который консультировался профессором Скоттом А. Брандтом из Инженерной школы Джека Баскина Калифорнийского университета в Санта-Крус (UCSC) и спонсировался Программой расширенного моделирования и вычислений (ASC), включая Национальную лабораторию Лос-Аламоса (LANL), Сандия. Национальные лаборатории (SNL) и Ливерморская национальная лаборатория Лоуренса (LLNL). [ 34 ] Первая строка кода, которая в конечном итоге стала частью Ceph, была написана Сейджем Вейлом в 2004 году во время летней стажировки в LLNL, где он работал над управлением метаданными масштабируемой файловой системы (известной сегодня как Ceph MDS). [ 35 ] В 2005 году в рамках летнего проекта, инициированного Скоттом А. Брандтом и возглавляемого Карлосом Мальцаном, Сейдж Вейл создал полнофункциональный прототип файловой системы, получивший название Ceph. Ceph дебютировал вместе с Sage Weil, проведя две презентации в ноябре 2006 г., одну на USENIX OSDI 2006. [ 36 ] и еще один на SC '06. [ 37 ]

После окончания учебы осенью 2007 года Вейл продолжал работать над Ceph на постоянной основе, а основная команда разработчиков расширилась, включив в себя Йехуду Саде Вайнрауба и Грегори Фарнума. 19 марта 2010 г. Линус Торвальдс объединил клиент Ceph с ядром Linux версии 2.6.34. [ 38 ] [ 39 ] который был выпущен 16 мая 2010 года. В 2012 году Вейл создал Inktank Storage для профессиональных услуг и поддержки Ceph. [ 40 ] [ 41 ]

В апреле 2014 года Red Hat приобрела Inktank, передав большую часть разработки Ceph собственными силами, чтобы сделать его производственной версией для предприятий с поддержкой (горячая линия) и постоянным обслуживанием (новые версии). [ 42 ]

В октябре 2015 года был сформирован Консультативный совет сообщества Ceph, чтобы помочь сообществу в продвижении направления технологии программно-определяемого хранилища с открытым исходным кодом. В состав уставного консультативного совета входят члены сообщества Ceph из глобальных ИТ-организаций, которые поддерживают проект Ceph, в том числе представители Red Hat , Intel , Canonical , CERN , Cisco , Fujitsu , SanDisk и SUSE . [ 43 ]

В ноябре 2018 года Linux Foundation запустил Ceph Foundation в качестве преемника Консультативного совета сообщества Ceph. В число основателей Ceph Foundation входили Amihan, Canonical , China Mobile , DigitalOcean , Intel , OVH , ProphetStor Data Services, Red Hat , SoftIron, SUSE , Western Digital , XSKY Data Technology и ZTE . [ 44 ]

В марте 2021 года SUSE прекратила выпуск продукта Enterprise Storage, включающего Ceph, в пользу Rancher . Longhorn от [ 45 ] а прежний веб-сайт Enterprise Storage был обновлен, в котором говорилось: «SUSE переориентировала усилия по хранению данных на обслуживание наших стратегических клиентов SUSE Enterprise Storage и больше не занимается активной продажей SUSE Enterprise Storage». [ 46 ]

История выпусков

[ редактировать ]
История выпусков
Имя Выпускать Первый выпуск Конец
жизнь
Вехи
Аргонавт Старая версия, больше не поддерживается: 0.48. 3 июля 2012 г. Первый крупный «стабильный» выпуск
Бобтейл Старая версия, больше не поддерживается: 0.56. 1 января 2013 г.
Каракатица Старая версия, больше не поддерживается: 0.61. 7 мая 2013 г. ceph-deploy стабилен
Пельмени Старая версия, больше не поддерживается: 0.67. 14 августа 2013 г. май 2015 г. пространство имен, регион, мониторинг REST API
Император Старая версия, больше не поддерживается: 0.72. 9 ноября 2013 г. май 2014 г. репликация в нескольких центрах обработки данных для RGW
Светлячок Старая версия, больше не поддерживается: 0.80. 7 мая 2014 г. апрель 2016 г. стирающее кодирование, многоуровневое кэширование, первичное сходство, серверная часть OSD «ключ/значение» (экспериментальная), автономный RGW (экспериментальная)
Гигант Старая версия, больше не поддерживается: 0.87. 29 октября 2014 г. апрель 2015 г.
Молоток Старая версия, больше не поддерживается: 0.94. 7 апреля 2015 г. август 2017 г.
Адский Старая версия, больше не поддерживается: 9.2.0. 6 ноября 2015 г. апрель 2016 г.
Драгоценность Старая версия, больше не поддерживается: 10.2.0. 21 апреля 2016 г. 2018-06-01 Стабильная CephFS, экспериментальная серверная часть OSD под названием BlueStore, демоны больше не запускаются от имени пользователя root.
Кракен Старая версия, больше не поддерживается: 11.2.0. 20 января 2017 г. 2017-08-01 BlueStore стабилен, EC для пулов RBD
Светящийся Старая версия, больше не поддерживается: 12.2.0. 29 августа 2017 г. 2020-03-01 балансировщик pg-upmap
Подражать Старая версия, больше не поддерживается: 13.2.0. 1 июня 2018 г. 2020-07-22 снимки стабильны, Beast стабилен, официальный графический интерфейс (панель управления)
Наутилус Старая версия, больше не поддерживается: 14.2.0. 19 марта 2019 г. 2021-06-01 асинхронная репликация, автоповтор неудачной записи из-за перераспределения дефектов
Осьминог Старая версия, больше не поддерживается: 15.2.0. 23 марта 2020 г. 2022-06-01
Тихий океан Старая версия, больше не поддерживается: 16.2.0. 31 марта 2021 г. [ 47 ] 2023-06-01
Куинси Старая версия, но все еще поддерживается: 17.2.0. 19 апреля 2022 г. [ 48 ] 2024-06-01 автоматическая настройка min_alloc_size для новых носителей
Риф Текущая стабильная версия: 18.2.0. 3 августа 2023 г. [ 49 ]
Кальмар Будущий выпуск: будет объявлено позднее будет объявлено позже
Легенда:
Старая версия
Старая версия, все еще поддерживается
Последняя версия
Latest preview version
Будущий выпуск

Доступные платформы

[ редактировать ]

Хотя Ceph в основном создан для Linux, он также частично перенесен на платформу Windows. Он готов к работе для Windows Server 2016 (некоторые команды могут быть недоступны из-за отсутствия реализации сокетов UNIX ), Windows Server 2019 и Windows Server 2022 , но тестирование/разработку можно проводить и в Windows 10 и Windows 11 . В Windows можно использовать Ceph RBD и CephFS, но OSD на этой платформе не поддерживается. [ 50 ] [ 5 ] [ 51 ]

Существует также для FreeBSD . реализация Ceph [ 4 ]

Этимология

[ редактировать ]

Название «Цеф» — это сокращенная форма от « головоногих моллюсков », класса моллюсков , в который входят кальмары, каракатицы, наутилоиды и осьминоги. Название (подчеркнутое логотипом) предполагает весьма параллельное поведение осьминога и было выбрано, чтобы связать файловую систему с «Сэмми», бананового слизняка талисманом UCSC . [ 17 ] И головоногие моллюски, и банановые слизни являются моллюсками.

См. также

[ редактировать ]
  1. ^ «Консультационный совет сообщества Ceph» . 2015-10-28. Архивировано из оригинала 29 января 2019 г. Проверено 20 января 2016 г.
  2. ^ https://github.com/ceph/ceph/releases/tag/v18.2.0 . Проверено 26 августа 2023 г. {{cite web}}: Отсутствует или пусто |title= ( помощь )
  3. ^ «Репозиторий GitHub» . Гитхаб .
  4. ^ Jump up to: а б «Ежеквартальный отчет о состоянии FreeBSD» .
  5. ^ Jump up to: а б «Установка Ceph в Windows» . Цеф . Проверено 2 июля 2023 г.
  6. ^ «Файл лицензии LGPL2.1 в исходниках Ceph» . Гитхаб . 24 октября 2014 г. Проверено 24 октября 2014 г.
  7. ^ Николя, Филипп (15 июля 2016 г.). «The History Boys: Хранение предметов… с самого начала» . Регистр .
  8. ^ Джереми Эндрюс (15 ноября 2007 г.). «Распределенная сетевая файловая система Ceph» . Ядерная ловушка . Архивировано из оригинала 17 ноября 2007 г. Проверено 15 ноября 2007 г.
  9. ^ «Кластеры цефов» . ЦЕРН . Проверено 12 ноября 2022 г.
  10. ^ «Операции цефов в ЦЕРН: куда нам идти дальше? - Дэн ван дер Стер и Тео Муратидис, ЦЕРН» . Ютуб . 24 мая 2019 года . Проверено 12 ноября 2022 г.
  11. ^ Дорош, Филип (15 июня 2020 г.). «Путешествие к хранилищу Ceph следующего поколения в OVHcloud с LXD» . OVHcloud . Проверено 12 ноября 2022 г.
  12. ^ «Распределенная файловая система CephFS» . OVHcloud . Проверено 12 ноября 2022 г.
  13. ^ «Ceph — Распределенная система хранения в OVH [en] — Бартломей Свенцкий» . Ютуб . 7 апреля 2016 года . Проверено 12 ноября 2022 г.
  14. ^ «200 кластеров против 1 администратора — Бартош Рабиега, OVH» . Ютуб . 24 мая 2019 года . Проверено 15 ноября 2022 г.
  15. ^ Д'Атри, Энтони (31 мая 2018 г.). «Почему мы выбрали Ceph для создания блочного хранилища» . Цифровой Океан . Проверено 12 ноября 2022 г.
  16. ^ «Технический разговор о Ceph: Ceph в DigitalOcean» . Ютуб . 7 октября 2021 г. Проверено 12 ноября 2022 г.
  17. ^ Jump up to: а б с М. Тим Джонс (04 июня 2010 г.). «Ceph: распределенная файловая система Linux петабайтного масштаба» (PDF) . ИБМ . Проверено 3 декабря 2014 г.
  18. ^ «БлюСтор» . Цеф . Проверено 29 сентября 2017 г.
  19. ^ «Миграция BlueStore» . Архивировано из оригинала 4 декабря 2019 г. Проверено 12 апреля 2020 г.
  20. ^ «Демон-менеджер Ceph — Документация Ceph» . docs.ceph.com . Архивировано из оригинала 6 июня 2018 года . Проверено 31 января 2019 г. Архивная ссылка. Архивировано 19 июня 2020 г. в Wayback Machine.
  21. ^ Джейк Эдж (14 ноября 2007 г.). «Файловая система Ceph» . LWN.net .
  22. ^ Энтони Д'Атри, Вайбхав Бхембре (01 октября 2017 г.). «Изучение Ceph, второе издание» . Пакет .
  23. ^ Сейдж Вейл (29 августа 2017 г.). «Выпущена версия 12.2.0 Luminous» . Блог Ceph.
  24. ^ «Рекомендации по жесткому диску и файловой системе» . ceph.com. Архивировано из оригинала 14 июля 2017 г. Проверено 26 июня 2017 г.
  25. ^ «Справочник по конфигурации BlueStore» . Архивировано из оригинала 20 июля 2019 года . Проверено 12 апреля 2020 г.
  26. ^ «10-я Международная конференция «Распределенные вычисления и грид-технологии в науке и образовании» (ГРИД’2023)» . ОИЯИ (Индико) . 03.07.2023 . Проверено 9 августа 2023 г.
  27. ^ «Панель управления Ceph» . Документация Ceph . Проверено 11 апреля 2023 г.
  28. ^ Гомес, Педро Гонсалес (23 февраля 2023 г.). «Представляем новую целевую страницу информационной панели» . Проверено 11 апреля 2023 г.
  29. ^ «Работа с Ceph с панели управления Ceph: прошлое, настоящее и будущее» . Ютуб . 22 ноября 2022 г. Проверено 11 апреля 2023 г.
  30. ^ Просто, Сэм (18 января 2021 г.). «Crimson: развитие Ceph для высокопроизводительного NVMe» . Новые технологии Red Hat . Проверено 12 ноября 2022 г.
  31. ^ Просто, Сэмюэл (10 ноября 2022 г.). «Что нового в Crimson и Seastore?» . Ютуб . Проверено 12 ноября 2022 г.
  32. ^ «Crimson: OSD Ceph следующего поколения для многоядерной масштабируемости» . Блог Ceph . Цеф. 7 февраля 2023 г. Проверено 11 апреля 2023 г.
  33. ^ Сейдж Вейл (01 декабря 2007 г.). «Ceph: надежное, масштабируемое и высокопроизводительное распределенное хранилище» (PDF) . Калифорнийский университет, Санта-Круз . Архивировано из оригинала (PDF) 6 июля 2017 г. Проверено 11 марта 2017 г.
  34. ^ Гэри Грайдер (1 мая 2004 г.). «История и стратегия масштабируемого ввода-вывода ASCI/DOD» (PDF) . Университет Миннесоты . Проверено 17 июля 2019 г.
  35. ^ Динамическое управление метаданными для файловых систем петабайтного масштаба, С.А. Вейл, К.Т. Поллак, С.А. Брандт, Э.Л. Миллер, Proc. SC'04, Питтсбург, Пенсильвания, ноябрь 2004 г.
  36. ^ «Ceph: масштабируемая, высокопроизводительная распределенная файловая система», SA Weil, SA Brandt, EL Miller, DDE Long, C Maltzahn, Proc. OSDI, Сиэтл, Вашингтон, ноябрь 2006 г.
  37. ^ «CRUSH: контролируемое, масштабируемое, децентрализованное размещение реплицируемых данных», С.А. Вейл, С.А. Брандт, Э.Л. Миллер, DDE Long, C Maltzahn, SC'06, Тампа, Флорида, ноябрь 2006 г.
  38. ^ Сейдж Вейл (19 февраля 2010 г.). «Клиент объединен для 2.6.34» . ceph.newdream.net. Архивировано из оригинала 23 марта 2010 г. Проверено 21 марта 2010 г.
  39. ^ Тим Стивенс (20 мая 2010 г.). «Новая версия ОС Linux включает файловую систему Ceph, разработанную в UCSC» . news.ucsc.edu.
  40. ^ Брайан Богенсбергер (3 мая 2012 г.). «И все это вместе» . Блог чернильницы. Архивировано из оригинала 19 июля 2012 г. Проверено 10 июля 2012 г.
  41. ^ Джозеф Ф. Ковар (10 июля 2012 г.). «10 самых крутых стартапов в сфере хранения данных 2012 года (на данный момент)» . КРН . Проверено 19 июля 2013 г.
  42. ^ Red Hat Inc (30 апреля 2014 г.). «Red Hat приобретает Inktank, поставщика Ceph» . Красная шляпа . Проверено 19 августа 2014 г.
  43. ^ «Консультационный совет сообщества Ceph» . 2015-10-28. Архивировано из оригинала 29 января 2019 г. Проверено 20 января 2016 г.
  44. ^ «Фонд Linux запускает Фонд Ceph для развития систем хранения данных с открытым исходным кодом» . 2018-11-12. [ постоянная мертвая ссылка ]
  45. ^ «SUSE говорит «tschüss» корпоративному продукту хранения данных на базе Ceph – с этого момента это Rancher's Longhorn» .
  46. ^ «Программно-определяемая система хранения данных SUSE Enterprise» .
  47. ^ Ceph.io — выпущена версия 16.2.0 Pacific.
  48. ^ Ceph.io — выпущена версия Quincy v17.2.0
  49. ^ Флорес, Лаура (6 августа 2023 г.). «Выпущена версия v18.2.0 Reef» . Блог Ceph . Проверено 26 августа 2023 г.
  50. ^ «Цеф для Windows» . Облачные решения . Проверено 2 июля 2023 г.
  51. ^ Пилот Алессандро. «Ceph в Windows» . Ютуб . Проверено 2 июля 2023 г.

Дальнейшее чтение

[ редактировать ]
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 332b1b48a75626de2c8b16900ccf50ba__1717208400
URL1:https://arc.ask3.ru/arc/aa/33/ba/332b1b48a75626de2c8b16900ccf50ba.html
Заголовок, (Title) документа по адресу, URL1:
Ceph (software) - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)