Jump to content

ДипСпид

ДипСпид
Оригинальный автор(ы) Microsoft Исследования
Разработчик(и) Майкрософт
Первоначальный выпуск 18 мая 2020 г .; 4 года назад ( 18.05.2020 )
Стабильная версия
v0.14.2 / 23 апреля 2024 г .; 53 дня назад ( 23 апреля 2024 г. )
Репозиторий github /Microsoft /DeepSpeed
Написано в Питон , CUDA , С++
Тип Библиотека программного обеспечения
Лицензия Лицензия Апач 2.0
Веб-сайт глубокая скорость .есть

DeepSpeed ​​— это с открытым исходным кодом библиотека оптимизации глубокого обучения для PyTorch . [1] Библиотека предназначена для снижения вычислительной мощности и использования памяти , а также для обучения больших распределенных моделей с лучшим параллелизмом на существующем компьютерном оборудовании . [2] [3] DeepSpeed ​​оптимизирован для обучения с низкой задержкой и высокой производительностью. Он включает в себя оптимизатор нулевой избыточности (ZeRO) для обучения моделей с 1 триллионом или более параметров. [4] Возможности включают обучение смешанной точности, обучение с одним графическим процессором, несколькими графическими процессорами и несколькими узлами, а также параллелизм настраиваемых моделей. Исходный код DeepSpeed ​​лицензируется по лицензии MIT и доступен на GitHub . [5]

Команда заявила, что добилась увеличения пропускной способности в 6,2 раза, ускорения конвергенции в 2,8 раза и уменьшения объема обмена данными в 4,6 раза. [6]

См. также [ править ]

Ссылки [ править ]

  1. ^ «Microsoft обновляет Windows и инструменты Azure с прицелом на будущее» . PCMag Великобритания . 22 мая 2020 г.
  2. ^ Егулалп, Сердар (10 февраля 2020 г.). «Microsoft ускоряет PyTorch с помощью DeepSpeed» . Инфомир .
  3. ^ «Microsoft представляет «пятый по мощности» суперкомпьютер в мире» . Неовин . 18 июня 2023 г.
  4. ^ «Microsoft обучает крупнейшую в мире языковую модель Transformer» . 10 февраля 2020 г.
  5. ^ «Майкрософт/ДипСпид» . 10 июля 2020 г. – через GitHub.
  6. ^ «DeepSpeed: Ускорение вывода и обучения крупномасштабных моделей посредством оптимизации и сжатия системы» . Исследования Майкрософт . 24 мая 2021 г. Проверено 19 июня 2021 г.

Дальнейшее чтение [ править ]

  • Раджбхандари, Самьям; Рэсли, Джефф; Рувасе, Олатунджи; Хэ, Юйсюн (2019). «ZeRO: оптимизация памяти для обучения моделей с триллионом параметров». arXiv : 1910.02054 [ cs.LG ].

Внешние ссылки [ править ]


Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: ea490fec9a50462f6f3a4b57eb846c1e__1715792520
URL1:https://arc.ask3.ru/arc/aa/ea/1e/ea490fec9a50462f6f3a4b57eb846c1e.html
Заголовок, (Title) документа по адресу, URL1:
DeepSpeed - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)