Федеративное обучение

Федеративное обучение (также известное как совместное обучение ) — это подобласть машинного обучения, в которой основное внимание уделяется настройкам, в которых несколько объектов (часто называемых клиентами) совместно обучают модель, гарантируя при этом, что их данные остаются децентрализованными. [1] Это контрастирует с настройками машинного обучения, в которых данные хранятся централизованно. Одной из основных определяющих характеристик федеративного обучения является неоднородность данных. Из-за децентрализованного характера данных клиентов нет никакой гарантии, что образцы данных, хранящиеся у каждого клиента, распределяются независимо и одинаково .
Федеративное обучение обычно связано и мотивируется такими вопросами, как конфиденциальность данных , минимизация данных и права доступа к данным. Его приложения охватывают различные области исследований, включая оборону, телекоммуникации, Интернет вещей и фармацевтику.
Определение [ править ]
Целью федеративного обучения является обучение алгоритма машинного обучения, например глубоких нейронных сетей , на нескольких локальных наборах данных, содержащихся в локальных узлах, без явного обмена образцами данных. Общий принцип заключается в обучении локальных моделей на локальных выборках данных и обмене параметрами (например, весами и смещениями глубокой нейронной сети) между этими локальными узлами с некоторой частотой для создания глобальной модели, общей для всех узлов.
Основное различие между федеративным обучением и распределенным обучением заключается в предположениях, сделанных о свойствах локальных наборов данных. [2] поскольку распределенное обучение изначально направлено на распараллеливание вычислительных мощностей , тогда как федеративное обучение изначально направлено на обучение на гетерогенных наборах данных . Хотя распределенное обучение также направлено на обучение одной модели на нескольких серверах, общим базовым предположением является то, что локальные наборы данных независимы, одинаково распределены (iid) и примерно имеют одинаковый размер. Ни одна из этих гипотез не предназначена для федеративного обучения; вместо этого наборы данных обычно неоднородны, а их размеры могут составлять несколько порядков. Более того, клиенты, участвующие в федеративном обучении, могут быть ненадежными, поскольку они подвержены большему количеству сбоев или отсева, поскольку они обычно полагаются на менее мощные средства связи (например, Wi-Fi ) и системы с батарейным питанием (например, смартфоны и устройства IoT) по сравнению с распределенное обучение, при котором узлы обычно представляют собой центры обработки данных , обладающие мощными вычислительными возможностями и связанные друг с другом быстрыми сетями. [3]
формулировка Математическая
Целевая функция федеративного обучения выглядит следующим образом:
где количество узлов, это веса модели, просматриваемые узлом , и это узел локальная целевая функция, которая описывает, как модели весят соответствует узлу локальный набор данных.
Целью федеративного обучения является обучение общей модели на всех локальных наборах данных узлов, другими словами:
- Оптимизация целевой функции .
- Достижение консенсуса по . Другими словами, сходятся к какому-то общему в конце тренировочного процесса.
обучение федеративное Централизованное
В условиях централизованного федеративного обучения центральный сервер используется для координации различных этапов алгоритмов и координации всех участвующих узлов в процессе обучения. Сервер отвечает за выбор узлов в начале процесса обучения и за агрегацию полученных обновлений модели. Поскольку все выбранные узлы должны отправлять обновления одному объекту, сервер может стать узким местом системы. [3]

обучение Децентрализованное федеративное
В условиях децентрализованного федеративного обучения узлы могут координировать свои действия для получения глобальной модели. Такая настройка предотвращает единичные сбои, поскольку обновления модели передаются только между взаимосвязанными узлами без оркестровки центрального сервера. Тем не менее, конкретная топология сети может повлиять на производительность процесса обучения. [3] См. федеративное обучение на основе блокчейна [4] и ссылки в нем.
обучение федеративное Гетерогенное
Все большее число доменов приложений включает в себя большой набор разнородных клиентов, например, мобильные телефоны и устройства IoT. [5] Большинство существующих стратегий федеративного обучения предполагают, что локальные модели имеют одну и ту же архитектуру глобальной модели. Недавно была разработана новая среда федеративного обучения под названием HeteroFL для работы с разнородными клиентами, оснащенными совершенно разными вычислительными и коммуникационными возможностями. [6] Метод HeteroFL может обеспечить обучение гетерогенных локальных моделей с динамически меняющимися вычислениями и сложностью данных, не относящихся к IID , при этом создавая единую точную глобальную модель вывода. [6] [7]

Основные возможности [ править ]
обучение Итеративное
Чтобы обеспечить хорошее выполнение задач окончательной центральной модели машинного обучения, федеративное обучение опирается на итерационный процесс, разбитый на атомарный набор взаимодействий клиент-сервер, известный как раунд федеративного обучения. Каждый раунд этого процесса состоит в передаче текущего состояния глобальной модели участвующим узлам, обучении локальных моделей на этих локальных узлах созданию набора потенциальных обновлений модели на каждом узле, а затем агрегировании и обработке этих локальных обновлений в одно глобальное обновление и применить его к глобальной модели. [3]
В приведенной ниже методологии для агрегации используется центральный сервер, а локальные узлы выполняют локальное обучение в зависимости от приказов центрального сервера. Однако другие стратегии приводят к тем же результатам без центральных серверов, при одноранговом подходе, используя сплетни. [8] или консенсусные методологии. [9]
Если предположить, что объединенный раунд состоит из одной итерации процесса обучения, процедуру обучения можно резюмировать следующим образом: [10]
- Инициализация : в соответствии с входными данными сервера выбирается модель машинного обучения (например, линейная регрессия , нейронная сеть, бустинг ) для обучения на локальных узлах и инициализации. Затем узлы активируются и ждут, пока центральный сервер выдаст задачи расчета.
- Выбор клиента : для начала обучения на локальных данных выбирается часть локальных узлов. Выбранные узлы получают текущую статистическую модель, в то время как остальные ждут следующего раунда объединения.
- Конфигурация : центральный сервер приказывает выбранным узлам пройти обучение модели на их локальных данных заранее заданным способом (например, для некоторых мини-пакетных обновлений градиентного спуска ).
- Отчетность : каждый выбранный узел отправляет свою локальную модель на сервер для агрегации. Центральный сервер агрегирует полученные модели и отправляет обновления моделей обратно узлам. Он также обрабатывает сбои отключенных узлов или потерю обновлений модели. Начинается следующий федеративный раунд, возвращающийся к этапу выбора клиента.
- Прекращение : как только достигается заранее определенный критерий завершения (например, достигается максимальное количество итераций или точность модели превышает пороговое значение), центральный сервер объединяет обновления и завершает глобальную модель.
Рассмотренная выше процедура предполагает синхронизированное обновление модели. Недавние разработки в области федеративного обучения представили новые методы борьбы с асинхронностью в процессе обучения или обучения с использованием динамически изменяющихся моделей. [6] По сравнению с синхронными подходами, при которых локальные модели обмениваются после выполнения вычислений для всех слоев нейронной сети, асинхронные используют свойства нейронных сетей для обмена обновлениями модели, как только становятся доступны вычисления определенного слоя. Эти методы также часто называют раздельным обучением. [11] [12] и их можно применять как во время обучения, так и во время вывода, независимо от централизованного или децентрализованного федеративного обучения. [3] [6]
, не относящиеся к IID Данные [ править ]
В большинстве случаев предположение о независимых и одинаково распределенных выборках по локальным узлам не справедливо для установок федеративного обучения. При этой настройке производительность процесса обучения может значительно различаться в зависимости от несбалансированных выборок локальных данных, а также от конкретного распределения вероятностей обучающих примеров (т. е. признаков и меток ), хранящихся в локальных узлах. Для дальнейшего изучения влияния данных, не относящихся к IID, в следующем описании рассматриваются основные категории, представленные в препринте Питера Кайруза и др. с 2019 года. [3]
Описание данных, отличных от IID, основано на анализе совместной вероятности между объектами и метками для каждого узла.Это позволяет разделить каждый вклад в соответствии с конкретным распределением, доступным на локальных узлах.Основные категории данных, не относящихся к IID, можно резюмировать следующим образом: [3]
- Ковариатный сдвиг : локальные узлы могут хранить примеры, статистические распределения которых отличаются от других узлов. Пример возникает в наборах данных обработки естественного языка , где люди обычно пишут одни и те же цифры/буквы с разной шириной штриха или наклоном. [3]
- Сдвиг априорной вероятности : локальные узлы могут хранить метки, статистические распределения которых отличаются от других узлов. Это может произойти, если наборы данных разделены по региональному и/или демографическому признаку. Например, наборы данных, содержащие изображения животных, значительно различаются от страны к стране. [3]
- Дрейф концепции ( одна и та же метка, разные функции ): локальные узлы могут иметь одни и те же метки, но некоторые из них соответствуют разным функциям на разных локальных узлах. Например, изображения, изображающие конкретный объект, могут различаться в зависимости от погодных условий, в которых они были сделаны. [3]
- Смена концепции ( те же функции, разные метки ): локальные узлы могут иметь одни и те же функции, но некоторые из них соответствуют разным меткам на разных локальных узлах. Например, при обработке естественного языка анализ настроений может выявить разные настроения, даже если наблюдается один и тот же текст. [3]
- Несбалансированный : объем данных, доступных на локальных узлах, может значительно различаться по размеру. [3] [6]
Потерю точности из-за данных, отличных от iid, можно ограничить, используя более сложные средства нормализации данных, а не пакетную нормализацию. [13]
Алгоритмические гиперпараметры [ править ]
Топология сети [ править ]
Способ объединения статистических локальных результатов и способ взаимодействия узлов друг с другом могут отличаться от централизованной модели, описанной в предыдущем разделе. Это приводит к различным подходам к федеративному обучению: например, отсутствие центрального сервера оркестрации или стохастическая связь. [14]
В частности, одним из важных вариантов являются распределенные сети без оркестратора. В этом случае отсутствует центральный сервер, отправляющий запросы к локальным узлам и агрегирующий локальные модели. Каждый локальный узел отправляет свои выходные данные нескольким случайно выбранным узлам, которые агрегируют свои результаты локально. Это ограничивает количество транзакций, тем самым иногда сокращая время обучения и затраты на вычисления. [15]
Параметры федеративного обучения [ править ]
После выбора топологии сети узлов можно управлять различными параметрами процесса федеративного обучения (в дополнение к собственным гиперпараметрам модели машинного обучения) для оптимизации обучения:
- Количество раундов федеративного обучения:
- Общее количество узлов, используемых в процессе:
- Доля узлов, используемых на каждой итерации для каждого узла:
- Размер локального пакета, используемый на каждой итерации обучения:
Также можно изменить другие параметры, зависящие от модели, например:
- Количество итераций локального обучения перед объединением в пул:
- Локальная скорость обучения:
Эти параметры необходимо оптимизировать в зависимости от ограничений приложения машинного обучения (например, доступной вычислительной мощности, доступной памяти, пропускной способности ). Например, стохастический выбор ограниченной дроби узлов для каждой итерации снижает вычислительные затраты и может предотвратить переобучение [ нужна ссылка ] , точно так же, как стохастический градиентный спуск может уменьшить переобучение.
Технические ограничения [ править ]
Федеративное обучение требует частого взаимодействия между узлами во время процесса обучения. Таким образом, для обмена параметрами модели машинного обучения требуется не только достаточная локальная вычислительная мощность и память, но и соединения с высокой пропускной способностью. Однако эта технология также позволяет избежать передачи данных, которая может потребовать значительных ресурсов перед запуском централизованного машинного обучения. Тем не менее, устройства, обычно используемые в федеративном обучении, ограничены в средствах связи, например, устройства IoT или смартфоны обычно подключаются к сетям Wi-Fi, поэтому, даже если передача моделей обычно обходится дешевле по сравнению с необработанными данными, механизмы федеративного обучения могут оказаться непригодными в своей общей форме. [3]
Федеративное обучение порождает несколько статистических проблем:
- Неоднородность между различными локальными наборами данных: каждый узел может иметь некоторую предвзятость по отношению к генеральной совокупности, а размер наборов данных может значительно различаться; [6]
- Временная неоднородность: распределение каждого локального набора данных может меняться со временем;
- Функциональная совместимость набора данных каждого узла является обязательным условием;
- Набор данных каждого узла может требовать регулярного курирования;
- Сокрытие данных обучения может позволить злоумышленникам внедрить бэкдоры в глобальную модель; [16]
- Отсутствие доступа к глобальным данным по обучению затрудняет выявление нежелательных предубеждений при обучении, например возраста, пола, сексуальной ориентации;
- Частичная или полная потеря обновлений модели из-за сбоев узлов, влияющих на глобальную модель; [3]
- Отсутствие аннотаций или меток на стороне клиента. [17]
- Неоднородность между процессинговыми платформами [18]
обучения федеративного Варианты
В этом разделе приводятся обозначения статьи, опубликованной Х. Бренданом МакМаханом и др. в 2017 году следует. [19]
Для описания федеративных стратегий введем некоторые обозначения:
- : общее количество клиентов;
- : индекс клиентов;
- : количество выборок данных, доступных во время обучения клиента. ;
- : вектор веса модели на клиенте , в федеративном раунде ;
- : функция потерь для весов и партия ;
- : количество локальных обновлений;
стохастический градиентный спуск ( Федеративный ) FedSGD
Обучение глубокому обучению в основном опирается на варианты стохастического градиентного спуска , где градиенты вычисляются на случайном подмножестве общего набора данных, а затем используются для выполнения одного шага градиентного спуска.
Федеративный стохастический градиентный спуск [20] представляет собой прямой перенос этого алгоритма в федеративную настройку, но с использованием случайной дроби узлов и используя все данные на этом узле. Градиенты усредняются сервером пропорционально количеству обучающих выборок на каждом узле и используются для создания шага градиентного спуска.
Федеративное усреднение [ править ]
Федеративное усреднение (FedAvg) — это обобщение FedSGD, которое позволяет локальным узлам выполнять более одного пакетного обновления локальных данных и обмениваться обновленными весами, а не градиентами. Обоснование этого обобщения заключается в том, что в FedSGD, если все локальные узлы начинаются с одной и той же инициализации, усреднение градиентов строго эквивалентно усреднению самих весов. Кроме того, усреднение настроенных весов, полученных в результате одной и той же инициализации, не обязательно ухудшает производительность полученной усредненной модели. [19]
Федеративное обучение с динамической регуляризацией (FedDyn) [ править ]
Методы федеративного обучения страдают, когда наборы данных устройств распределены неоднородно. Фундаментальная дилемма при настройке гетерогенно распределенных устройств заключается в том, что минимизация функций потерь устройства — это не то же самое, что минимизация глобальных потерь. В 2021 году Акар и др. [21] представил метод FedDyn как решение проблемы настройки гетерогенного набора данных. FedDyn динамически упорядочивает функцию потерь каждого устройства, так что измененные потери устройства сходятся к фактическим глобальным потерям. Поскольку локальные потери выровнены, FedDyn устойчив к различным уровням неоднородности и может безопасно выполнять полную минимизацию в каждом устройстве. Теоретически FedDyn сходится к оптимальному (стационарной точке для невыпуклых потерь), будучи независимым от уровней неоднородности. Эти утверждения подтверждены обширными экспериментами на различных наборах данных. [21]
Минимизация количества коммуникаций является золотым стандартом для сравнения в федеративном обучении. Мы также можем захотеть уменьшить уровни локальных вычислений на устройство в каждом раунде. FedDynOneGD [21] является расширением FedDyn с меньшими требованиями к локальным вычислениям. FedDynOneGD рассчитывает только один градиент для каждого устройства в каждом раунде и обновляет модель регуляризованной версией градиента. Следовательно, сложность вычислений линейно зависит от размера локального набора данных. Более того, вычисление градиента можно распараллеливать внутри каждого устройства, что отличается от последовательных шагов SGD. Теоретически FedDynOneGD обеспечивает те же гарантии сходимости, что и FedDyn, с меньшим количеством локальных вычислений. [21]
Персонализированное федеративное обучение путем сокращения (Sub-FedAvg) [ править ]
Методы федеративного обучения не могут обеспечить хорошую глобальную производительность при настройках, отличных от IID, что мотивирует участвующих клиентов создавать персонализированные модели в федерации. Недавно Вахидиан и др. [22] представил Sub-FedAvg, открыв новую парадигму персонализированного алгоритма FL, предложив гибридное сокращение (структурированное + неструктурированное сокращение) с усреднением на пересечении нарисованных клиентами подсетей, которое одновременно учитывает эффективность связи, ограничения ресурсов и точность персонализированных моделей. [22]
Sub-FedAvg — первая работа, которая посредством экспериментов демонстрирует существование персонализированных выигрышных билетов для клиентов в рамках федеративного обучения. [22] Более того, он также предлагает два алгоритма эффективного построения персонализированных подсетей. [22] Sub-FedAvg пытается распространить « гипотезу лотерейного билета », которая касается нейронных сетей с централизованным обучением, на обученные нейронные сети с федеративным обучением, что приводит к открытой исследовательской проблеме: «Существуют ли выигрышные билеты для нейронных сетей клиентов, обучающихся федеративному обучению? Если да, то как эффективно создать персонализированные подсети для каждого клиента?»
Динамическая агрегация — агрегация обратная расстояний
IDA (агрегация обратного расстояния) — это новый подход адаптивного взвешивания для клиентов, основанный на метаинформации, который обрабатывает несбалансированные и не iid данные. Он использует расстояние между параметрами модели в качестве стратегии минимизации влияния выбросов и повышения скорости сходимости модели. [23]
Гибридное федеративное восхождение с двойной координатой ( HyFDCA )
Существует очень мало методов гибридного федеративного обучения, в которых клиенты хранят только подмножества функций и образцов. Тем не менее, этот сценарий очень важен в практических условиях. Гибридное федеративное восхождение с двумя координатами (HyFDCA) [24] — это новый алгоритм, предложенный в 2024 году, который решает выпуклые задачи в гибридной настройке FL. Этот алгоритм расширяет CoCoA, алгоритм первично-двойственной распределенной оптимизации, представленный Джагги и др. (2014) [25] и Смит и др. (2017), [26] к случаю, когда и примеры, и функции распределяются между клиентами.
HyFDCA заявляет о нескольких улучшениях по сравнению с существующими алгоритмами:
- HyFDCA — это доказуемо сходящийся первично-двойственный алгоритм для гибридного FL, по крайней мере, в следующих настройках.
- Гибридная федеративная установка с полным участием клиента
- Горизонтальная федеративная настройка со случайными подмножествами доступных клиентов
- Авторы показывают, что HyFDCA имеет скорость сходимости O ( 1 ⁄ t ), что соответствует скорости сходимости FedAvg (см. ниже). [27]
- Вертикальная федеративная установка с неполным участием клиента
- Авторы показывают, что HyFDCA имеет скорость сходимости O ( log(t) ⁄ t ), тогда как FedBCD [28] демонстрирует более медленный O ( 1 ⁄ sqrt(t) ) скорость конвергенции и требует полного участия клиента.
- HyFDCA предоставляет шаги по обеспечению конфиденциальности, которые обеспечивают конфиденциальность данных клиента в настройке Primal-Dual. Эти принципы применимы к будущим усилиям по разработке первично-двойственных алгоритмов для FL.
- HyFDCA эмпирически превосходит HyFEM и FedAvg по значению функции потерь и точности проверки для множества настроек задачи и наборов данных (более подробную информацию см. ниже). Авторы также представляют структуру выбора гиперпараметров для FL с конкурирующими метриками, используя идеи многокритериальной оптимизации.
Есть только один другой алгоритм, ориентированный на гибридную FL, — HyFEM, предложенный Чжаном и др. (2020). [29] В этом алгоритме используется формула сопоставления функций, которая балансирует между клиентами, создающими точные локальные модели, и сервером, изучающим точную глобальную модель. Для этого требуется соответствующая константа регуляризатора, которая должна быть настроена в зависимости от целей пользователя и приводит к несопоставимым локальным и глобальным моделям. Более того, результаты сходимости, предоставленные для HyFEM, доказывают сходимость только формулировки согласования, а не исходной глобальной проблемы. Эта работа существенно отличается от подхода HyFDCA, который использует данные о локальных клиентах для построения глобальной модели, которая сходится к тому же решению, как если бы модель обучалась централизованно. Более того, локальная и глобальная модели синхронизированы и не требуют настройки параметра соответствия между локальной и глобальной моделями. Однако HyFEM подходит для широкого спектра архитектур, включая архитектуры глубокого обучения, тогда как HyFDCA предназначен для выпуклых задач, таких как логистическая регрессия и машины опорных векторов.
HyFDCA эмпирически сравнивается с вышеупомянутым HyFEM, а также с популярным FedAvg при решении выпуклых задач (в частности, задач классификации) для нескольких популярных наборов данных (MNIST, Covtype и News20). Авторы обнаружили, что HyFDCA сходится к более низкому значению потерь и более высокой точности проверки за меньшее общее время в 33 из 36 рассмотренных сравнений и в 36 из 36 рассмотренных сравнений в отношении количества внешних итераций. [24] Наконец, HyFDCA требует настройки только одного гиперпараметра — количества внутренних итераций, в отличие от FedAvg (который требует настройки три) или HyFEM (который требует настройки четыре). Помимо того, что FedAvg и HyFEM довольно сложно оптимизировать гиперпараметры, что, в свою очередь, сильно влияет на сходимость, единственный гиперпараметр HyFDCA позволяет упростить практические реализации и методологии выбора гиперпараметров.
Федеративный ViT агрегирования (FED- с использованием динамического REV )
Федеративное обучение (FL) обеспечивает обучение глобальной общей модели с использованием децентрализованных источников данных на пограничных узлах при сохранении конфиденциальности данных. Однако его производительность в приложениях компьютерного зрения, использующих нейронную сеть Convolution (CNN), значительно отстает от производительности централизованного обучения из-за ограниченных коммуникационных ресурсов и низкой вычислительной мощности на граничных узлах. Альтернативно, модели трансформаторов Pure Vision (VIT) превосходят CNN почти в четыре раза, когда дело касается вычислительной эффективности и точности. Следовательно, мы предлагаем новую модель FL с реконструктивной стратегией под названием FED-REV. Она иллюстрирует, как структуры, основанные на внимании (чистые преобразователи зрения), повышают точность FL для больших и разнообразных данных, распределенных по граничным узлам, в дополнение к предлагаемой стратегии реконструкции, которая определяет влияние размеров каждого этапа преобразователя Vision, а затем уменьшает его размерную сложность, что снижает стоимость вычислений периферийных устройств в дополнение к сохранению точности, достигнутой за счет использования чистого преобразователя Vision. [30]
Текущие темы исследований [ править ]
Федеративное обучение начало становиться важной темой исследований в 2015 году. [2] и 2016 г., [31] с первыми публикациями по федеративному усреднению в сфере телекоммуникаций. До этого в дипломной работе под названием «Структура предварительной выборки из нескольких источников посредством адаптивного веса» [32] Был предложен подход к агрегированию прогнозов на основе нескольких моделей, обученных в трех точках цикла ответа на запрос. Еще одним важным аспектом активных исследований является снижение коммуникационной нагрузки в процессе федеративного обучения. В 2017 и 2018 годах в публикациях уделялось особое внимание разработке стратегий распределения ресурсов, особенно для сокращения [19] требования [33] между узлами с алгоритмами сплетен [34] а также на характеристике устойчивости к дифференциальным атакам на конфиденциальность. [35] Другая исследовательская деятельность сосредоточена на уменьшении пропускной способности во время обучения с помощью методов разрежения и квантования. [33] где модели машинного обучения разрежены и/или сжимаются перед передачей другим узлам. Разработка сверхлегких архитектур DNN имеет важное значение для обучения устройств и периферийных устройств, а недавние работы учитывают как требования к энергоэффективности, так и требования к энергоэффективности. [36] для будущего федеративного обучения и необходимости сжимать глубокое обучение, особенно во время обучения. [37]
Последние научные достижения начинают учитывать реальные каналы распространения. [38] как и в предыдущих реализациях, предполагались идеальные каналы. Еще одним активным направлением исследований является развитие федеративного обучения для обучения гетерогенных локальных моделей с различной сложностью вычислений и создания единой мощной глобальной модели вывода. [6]
Недавно была разработана система обучения под названием «Вспомогательное обучение» для улучшения возможностей обучения каждого агента без передачи личных данных, моделей и даже целей обучения. [39] По сравнению с федеративным обучением, которое часто требует центрального контроллера для управления обучением и оптимизацией, вспомогательное обучение направлено на предоставление агентам протоколов для оптимизации и обучения между собой без глобальной модели.
Варианты использования [ править ]
Федеративное обучение обычно применяется, когда отдельным участникам необходимо обучать модели на более крупных наборах данных, чем их собственные, но они не могут позволить себе делиться этими данными с другими (например, по юридическим, стратегическим или экономическим причинам). Технология пока требует хороших соединений между локальными серверами и минимальной вычислительной мощности для каждого узла. [3]
Транспорт: беспилотные автомобили [ править ]
В беспилотных автомобилях реализовано множество технологий машинного обучения: компьютерное зрение для анализа препятствий, машинное обучение для адаптации своего темпа к окружающей среде (например, неровности дороги). Из-за потенциально большого количества беспилотных автомобилей и необходимости быстрого реагирования на реальные ситуации традиционный облачный подход может создавать риски для безопасности. Федеративное обучение может стать решением для ограничения объема передачи данных и ускорения процессов обучения. [40] [41]
Индустрия 4.0 производство : умное
В Индустрии 4.0 широкое распространение получили методы машинного обучения. [42] повысить эффективность и результативность производственного процесса, гарантируя при этом высокий уровень безопасности. Тем не менее, конфиденциальность конфиденциальных данных для отраслей и производственных компаний имеет первостепенное значение. Для решения этих проблем можно применить алгоритмы федеративного обучения, поскольку они не раскрывают никаких конфиденциальных данных. [31] Кроме того, FL также реализовал прогнозирование PM2,5 для поддержки приложений измерения умного города. [43]
: цифровое здравоохранение Медицина
Федеративное обучение направлено на решение проблемы управления данными и конфиденциальности путем совместного обучения алгоритмов без обмена самими данными. Сегодняшний стандартный подход к централизации данных из нескольких центров достигается за счет серьезных проблем, касающихся конфиденциальности пациентов и защиты данных. Для решения этой проблемы критически важной технологией является возможность масштабного обучения моделей машинного обучения в нескольких медицинских учреждениях без перемещения данных. Nature Digital Medicine опубликовала статью «Будущее цифрового здравоохранения с федеративным обучением». [44] в сентябре 2020 года, в которой авторы исследуют, как федеративное обучение может обеспечить решение для будущего цифрового здравоохранения, и подчеркивают проблемы и соображения, которые необходимо решить. Недавно сотрудничество 20 различных учреждений по всему миру подтвердило полезность обучения моделей ИИ с использованием федеративного обучения. В статье, опубликованной в журнале Nature Medicine «Федеративное обучение для прогнозирования клинических результатов у пациентов с COVID-19», [45] они продемонстрировали точность и обобщаемость объединенной модели искусственного интеллекта для прогнозирования потребности в кислороде у пациентов с инфекцией COVID-19. Кроме того, в опубликованной статье «Систематический обзор федеративного обучения в сфере здравоохранения: с точки зрения свойств данных и приложений» авторы пытаются представить ряд задач по проблемам FL с точки зрения медицинских данных. [46]
Коалиция представителей промышленности и научных кругов разработала MedPerf, [47] платформа с открытым исходным кодом, которая позволяет проверять модели медицинского ИИ на реальных данных. Платформа технически опирается на объединенную оценку моделей искусственного интеллекта, направленную на снижение беспокойства о конфиденциальности пациентов, а концептуально - на различные комитеты по тестированию для создания спецификаций нейтральных клинически эффективных тестов. [48]
Робототехника [ править ]
Робототехника включает в себя широкий спектр применения методов машинного обучения: от восприятия и принятия решений до управления. Поскольку роботизированные технологии все чаще переходят от простых и повторяющихся задач (например, повторяющихся манипуляций) к сложным и непредсказуемым задачам (например, автономной навигации), потребность в машинном обучении растет. Федеративное обучение предлагает решение, позволяющее улучшить традиционные методы обучения машинному обучению. В газете [49] мобильные роботы научились ориентироваться в различных средах, используя метод на основе FL, что способствовало обобщению. В газете [50] Федеративное обучение применяется для улучшения навигации нескольких роботов в сценариях с ограниченной пропускной способностью связи, что является текущей проблемой в реальных роботизированных задачах, основанных на обучении. В газете [51] Федеративное обучение используется для изучения навигации на основе Vision, помогая лучше передавать данные из сим-карты в реальность.
Ссылки [ править ]
- ^ Кайруз, Питер; МакМахан, Х. Брендан; Авент, Брендан; Белле, Орельен; Беннис, Мехди; Бхагоджи, Арджун Нитин; Бонавиц, Каллиста; Чарльз, Закари; Кормод, Грэм; Каммингс, Рэйчел; Д'Оливейра, Рафаэль Г.Л.; Эйхнер, Хьюберт; Руайхеб, Салим Эль; Эванс, Дэвид; Гарднер, Джош (22 июня 2021 г.). «Достижения и открытые проблемы федеративного обучения» . Основы и тенденции в машинном обучении . 14 (1–2): 1–210. arXiv : 1912.04977 . дои : 10.1561/2200000083 . ISSN 1935-8237 .
- ^ Jump up to: Перейти обратно: а б Конечный, Якуб; МакМахан, Брендан; Рэймидж, Дэниел (2015). «Федеративная оптимизация: распределенная оптимизация за пределами центра обработки данных». arXiv : 1511.03575 [ cs.LG ].
- ^ Jump up to: Перейти обратно: а б с д и ж г час я дж к л м н тот Кайруз, Питер; Брендан МакМэхан, Х.; Авент, Брендан; Белле, Орельен; Беннис, Мехди; Арджун Нитин Бхагоджи; Бонавиц, Кейт; Чарльз, Закари; Кормод, Грэм; Каммингс, Рэйчел; Д'Оливейра, Рафаэль Г.Л.; Салим Эль-Руайхеб; Эванс, Дэвид; Гарднер, Джош; Гаррет, Закари; Гаскон, Адриа; Гази, Бадих; Гиббонс, Филипп Б.; Грутезер, Марко; Харшауи, Заид; Он, Чаоян; Эй, Ли; Хо, Чжоуюань; Хатчинсон, Бен; Сюй, Джастин; Джагги, Мартин; Джавид, Тара ; Джоши, Гаури; Ходак, Майкл; и др. (10 декабря 2019 г.). «Достижения и открытые проблемы федеративного обучения». arXiv : 1912.04977 [ cs.LG ].
- ^ Похрел, Шива Радж; Чхве, Джинхо (2020). «Федеративное обучение с использованием блокчейна для автономных транспортных средств: проблемы анализа и проектирования». Транзакции IEEE по коммуникациям . 68 (8): 4734–4746. дои : 10.1109/TCOMM.2020.2990686 . S2CID 219006840 .
- ^ Сюй, Зируй; Ю, Фусюнь; Сюн, Цзиньцзюнь; Чен, Сян (декабрь 2021 г.). «Гелиос: федеративное обучение с учетом гетерогенности и динамически сбалансированное сотрудничество» . 58-я конференция по автоматизации проектирования ACM/IEEE (DAC) , 2021 г. стр. 997–1002. arXiv : 1912.01684 . дои : 10.1109/DAC18074.2021.9586241 . ISBN 978-1-6654-3274-0 . S2CID 243925551 .
- ^ Jump up to: Перейти обратно: а б с д и ж г Дяо, Энмао; Дин, Цзе; Тарох, Вахид (2 октября 2020 г.). «HeteroFL: эффективное федеративное обучение с использованием вычислений и коммуникаций для разнородных клиентов». arXiv : 2010.01264 [ cs.LG ].
- ^ Ю, Фусюнь; Чжан, Вэйшань; Цинь, Чжувэй; Сюй, Зируй; Ван, Ди; Лю, Ченчен; Тянь, Чжи; Чен, Сян (14 августа 2021 г.). «Фед2» . Материалы 27-й конференции ACM SIGKDD по обнаружению знаний и интеллектуальному анализу данных . КДД '21. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 2066–2074. arXiv : 2111.14248 . дои : 10.1145/3447548.3467309 . ISBN 978-1-4503-8332-5 . S2CID 240598436 .
- ^ Децентрализованное совместное обучение персонализированных моделей в сетях Пол Ванезбрук, Орельен Белле, Марк Томмази, 2017 г.
- ^ Савацци, Стефано; Николи, Моника; Рампа, Витторио (май 2020 г.). «Федеративное обучение с взаимодействующими устройствами: консенсусный подход для массовых сетей IoT». Журнал IEEE Интернета вещей . 7 (5): 4641–4654. arXiv : 1912.13163 . дои : 10.1109/JIOT.2020.2964162 . S2CID 209515403 .
- ^ На пути к федеративному обучению в больших масштабах: проектирование системы, Кейт Бонавиц, Хуберт Эйхнер и др., 2019
- ^ Гупта, Открыть; Раскар, Рамеш (14 октября 2018 г.). «Распределенное обучение глубокой нейронной сети с участием нескольких агентов». arXiv : 1810.06060 [ cs.LG ].
- ^ Вепакомма, Пранит; Гупта, Открыть; Шведский, Тристан; Раскар, Рамеш (3 декабря 2018 г.). «Раздельное обучение для здоровья: распределенное глубокое обучение без обмена необработанными данными пациентов». arXiv : 1812.00564 [ cs.LG ].
- ^ Ше, Кевин; Фанисайи, Амар; Мутлу, Онур; Гиббонс, Филипп (21 ноября 2020 г.). «Трясина данных, не относящихся к IID, в децентрализованном машинном обучении» . Международная конференция по машинному обучению . ПМЛР: 4387–4398. arXiv : 1910.00189 .
- ^ Совместное глубокое обучение в сетях с фиксированной топологией, Чжанхун Цзян, Мукеш Ядо, Чинмей Хегде, Сумик Саркар, 2017 г.
- ^ GossipGraD: Масштабируемое глубокое обучение с использованием асинхронного градиентного спуска на основе сплетен, Джефф Дейли, Абхинав Вишну, Чарльз Сигел, Томас Варфел, Винай Аматья, 2018
- ^ Багдасарян, Евгений; Вейт, Андреас; Хуа, Ицин (06 августа 2019 г.). «Как использовать бэкдор для федеративного обучения». arXiv : 1807.00459 [ cs.CR ].
- ^ Вахид, Диао; Дин, Энмао; Тарох, Цзе (2 июня 2021 г.). SemiFL: эффективное коммуникативное федеративное обучение с полуконтролем и немаркированными клиентами . OCLC 1269554828 .
- ^ «Апач Ваянг — Домой» . wayang.apache.org .
- ^ Jump up to: Перейти обратно: а б с Эффективное коммуникативное обучение глубоких сетей на основе децентрализованных данных, Х. Брендан МакМахан и др. 2017 год
- ^ Глубокое обучение с сохранением конфиденциальности, Р. Шокри и В. Шматиков, 2015 г.
- ^ Jump up to: Перейти обратно: а б с д Акар, Дурмус Альп Эмре; Чжао, Юэ; Наварро, Рамон Матас; Маттина, Мэтью; Что, Пол Н.; Салиграма, Венкатеш (2021). «Федеративное обучение на основе динамической регуляризации». ИКЛР . arXiv : 2111.04263 .
- ^ Jump up to: Перейти обратно: а б с д Вахидиан, Саид; Морафах, Махди; Лин, Билл (2021). «Персонализированное федеративное обучение путем структурированной и неструктурированной обрезки в условиях неоднородности данных». Icdcs-W . arXiv : 2105.00562 .
- ^ Йегане, Юсеф; Фаршад, Азаде; Наваб, Насир; Альбаркуни, Шади (2020). «Агрегация обратного расстояния для федеративного обучения с данными, отличными от IID». Icdcs-W . arXiv : 2008.07665 .
- ^ Jump up to: Перейти обратно: а б Оверман Т., Блюм Г. и Клабжан Д. (2024). Первично-двойственный алгоритм для гибридного федеративного обучения, https://arxiv.org/pdf/2210.08106.pdf
- ^ Джагги М., Смит В., Такач М., Терхорст Дж., Кришнан С., Хофманн Т. и Джордан Мичиган (2014). Коммуникационный эффективный распределенный двойной координатный подъем. В материалах 27-й Международной конференции по нейронным системам обработки информации, том 2, стр. 3068–3076.
- ^ Смит, В., Форте, С., Ма, К., Такач, М., Джордан, М.И., и Джагги, М. (2017). Какао: общая основа для эффективной распределенной оптимизации. Журнал исследований машинного обучения, 18 (1): 8590–8638.
- ^ МакМахан, Х.Б., Мур, Э., Рэймидж, Д., Хэмпсон, С., и y Аркас, BA (2017). Эффективное для коммуникации изучение глубоких сетей на основе децентрализованных данных. В AISTATS, том 54, страницы 1273–1282.
- ^ Лю, Ю., Чжан, Х., Кан, Ю., Ли, Л., Чен, Т., Хун, М. и Ян, К. (2022). Fedbcd: Эффективная среда совместного обучения для распределенных функций. Транзакции IEEE по обработке сигналов, страницы 1–12.
- ^ Чжан X., Инь В., Хун М. и Чен Т. (2020). Гибридное федеративное обучение: алгоритмы и реализация. В NeurIPS-SpicyFL 2020.
- ^ Исмаил, Хатем (август 2022 г.). «ФЕДЕРАТИВНЫЙ АЛГОРИТМ ТРАНСФОРМАТОРА PURE VISION ДЛЯ КОМПЬЮТЕРНОГО ЗРЕНИЯ С ИСПОЛЬЗОВАНИЕМ МОДЕЛИ ДИНАМИЧЕСКОГО АГРЕГИРОВАНИЯ» (PDF) . Нейроквантология (опубликовано в августе 2022 г.).
- ^ Jump up to: Перейти обратно: а б Федеративная оптимизация: распределенное машинное обучение для аналитики на устройствах, Якуб Конечный, Х. Брендан МакМахан, Дэниел Рэймидж и Питер Рихтарик, 2016 г.
- ^ Берхану, Йозеф. «Среда для предварительной выборки из нескольких источников посредством адаптивного веса» .
- ^ Jump up to: Перейти обратно: а б Конечный, Якуб; МакМахан, Х. Брендан; Ю, Феликс X.; Рихтарик, Питер; Суреш, Ананда Тиртха; Бэкон, Дэйв (30 октября 2017 г.). «Федеративное обучение: стратегии повышения эффективности коммуникации». arXiv : 1610.05492 [ cs.LG ].
- ^ Тренинг по сплетням для глубокого обучения, Майкл Блот и др., 2017.
- ^ Дифференциальное частное федеративное обучение: точка зрения на уровне клиента Робин К. Гейер и др., 2018
- ^ Ду, Чжиюн; Дэн, Янша; Го, Вейси; Налланатан, Арумугам; Ву, Цихуэй (2021). «Зеленое глубокое обучение с подкреплением для управления радиоресурсами: архитектура, сжатие алгоритмов и проблемы» . Журнал IEEE автомобильных технологий . 16 : 29–39. дои : 10.1109/МВТ.2020.3015184 . hdl : 1826/16378 . S2CID 204401715 .
- ^ «Случайное обучение эскизам для глубоких нейронных сетей в периферийных вычислениях» . Природа вычислительной науки . 1 . 2021.
- ^ Амири, Мохаммад Мохаммади; Гюндуз, Дениз (10 февраля 2020 г.). «Федеративное обучение по каналам с замиранием беспроводной связи». arXiv : 1907.09769 [ cs.IT ].
- ^ Сиань, Сюнь; Ван, Синьрань; Дин, Цзе; Ганадан, Реза (2020). «Вспомогательное обучение: основа обучения в нескольких организациях» . Достижения в области нейронных систем обработки информации . 33 . arXiv : 2004.00566 .
- ^ Похрел, Шива Радж (2020). «Федеративное обучение сочетается с блокчейном на границе 6G: сеть с помощью дронов для реагирования на стихийные бедствия»: 49–54. дои : 10.1145/3414045.3415949 . S2CID 222179104 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Эльбир, Ахмет М.; Колери, С. (2 июня 2020 г.). «Федеративное обучение для автомобильных сетей». arXiv : 2006.01412 [ eess.SP ].
- ^ Чоффи, Рафаэле; Травальони, Марта; Писцителли, Джузеппина; Петрилло, Антонелла; Де Феличе, Фабио (2019). «Применение искусственного интеллекта и машинного обучения в умном производстве: прогресс, тенденции и направления» . Устойчивость . 12 (2): 492. дои : 10.3390/su12020492 .
- ^ Путра, Каришма Тринанда; Чен, Син-Чунг; Праитно; Огела, Марек Р.; Чжоу, Чао-Лунг; Венг, Чиен-Эр; Шаэ, Зон-Инь (январь 2021 г.). «Федеративная платформа периферийных вычислений со сжатым обучением и обеспечением конфиденциальности данных для прогнозирования PM2,5 в приложениях для измерения уровня умного города» . Датчики . 21 (13): 4586. Бибкод : 2021Senso..21.4586P . дои : 10.3390/s21134586 . ПМЦ 8271576 . ПМИД 34283140 .
- ^ Рике, Никола; Хэнкокс, Джонни; Ли, Вэньци; Миллетари, Фаусто; Рот, Хольгер Р.; Альбаркуни, Шади; Бакас, Спиридон; Галтье, Матье Н.; Ландман, Беннетт А.; Майер-Хейн, Клаус; Урселин, Себастьен; Шеллер, Мика; Саммерс, Рональд М.; Траск, Эндрю; Сюй, Дагуан; Бауст, Максимилиан; Кардосо, М. Хорхе (14 сентября 2020 г.). «Будущее цифрового здравоохранения с федеративным обучением» . npj Цифровая медицина . 3 (1): 119. arXiv : 2003.08119 . дои : 10.1038/s41746-020-00323-1 . ПМЦ 7490367 . ПМИД 33015372 . S2CID 212747909 .
- ^ Даян, Иттай; Рот, Хольгер Р.; Чжун, Аосяо; и др. (2021). «Федерированное обучение для прогнозирования клинических исходов у пациентов с COVID-19» . Природная медицина . 27 (10): 1735–1743. дои : 10.1038/s41591-021-01506-3 . ПМЦ 9157510 . ПМИД 34526699 . S2CID 237536154 .
- ^ Праитно; Сю, Чи-Рен; Путра, Каришма Тринанда; Чен, Син-Чунг; Цай, Юань-Ю; Хоссейн, КСМ Тозаммель; Цзян, Вэй; Шаэ, Зон-Инь (январь 2021 г.). «Систематический обзор федеративного обучения в сфере здравоохранения: с точки зрения свойств данных и приложений» . Прикладные науки . 11 (23): 11191. doi : 10.3390/app112311191 .
- ^ Караргирис, Александрос; Уметон, Ренато; Шеллер, Мика Дж.; и др. (17 июля 2023 г.). «Федеративный бенчмаркинг медицинского искусственного интеллекта с помощью MedPerf» . Природный машинный интеллект . 5 (7). Springer Science and Business Media LLC: 799–810. arXiv : 2110.01406 . дои : 10.1038/s42256-023-00652-2 . ISSN 2522-5839 . ПМИД 38706981 .
- ^ «Анонсируем открытую платформу MedPerf для сравнительного анализа медицинского искусственного интеллекта» . MLCommons . 17 июля 2023 г. Проверено 13 сентября 2023 г.
- ^ Лю, Бойи; Ван, Луцзя; Лю, Мин (2019). «Пожизненное федеративное обучение с подкреплением: архитектура обучения для навигации в облачных робототехнических системах». Международная конференция IEEE/RSJ по интеллектуальным роботам и системам (IROS) 2019 . стр. 1688–1695. arXiv : 1901.06455 . дои : 10.1109/IROS40897.2019.8967908 . ISBN 978-1-7281-4004-9 . S2CID 210972473 .
- ^ На, Сонин; Ручек, Томаш; Ульрих, Иржи; Пикман, Ян; Крайник, Томаш; Леннокс, Барри; Арвин, Фаршад (2023). «Федеративное обучение с подкреплением для коллективной навигации роев роботов». Транзакции IEEE в когнитивных системах и системах развития . 15 (4): 1. arXiv : 2202.01141 . дои : 10.1109/TCDS.2023.3239815 . S2CID 246473085 .
- ^ Ю, Сяньцзя; Керальта, Хорхе Пенья; Вестерлунд, Томи (2022). «На пути к непрерывному федеративному обучению в автономных мобильных роботах с непрерывным переводом из сим-карты в реальность». Procedia Информатика . 210 : 86–93. arXiv : 2205.15496 . дои : 10.1016/j.procs.2022.10.123 .
Внешние ссылки [ править ]
- «Регламент (ЕС) 2016/679 Европейского парламента и Совета от 27 апреля 2016 г.» на сайте eur-lex.europa.eu. Проверено 18 октября 2019 г.
- «Методы минимизации данных и сохранения конфиденциальности в системах искусственного интеллекта». Архивировано 23 июля 2020 г. в Wayback Machine в офисе комиссара по информации Великобритании. Проверено 22 июля 2020 г.
- «Реализация потенциала данных при сохранении конфиденциальности с помощью EyA и Conclave от R3» на сайте eya.global. Проверено 31 марта 2022 г.