Jump to content

Ансамблевое обучение

(Перенаправлено из ансамблевых методов )

В статистике и машинном обучении , ансамблевые методы используют несколько алгоритмов обучения для получения более высокой производительности прогнозирования чем можно было бы получить с помощью любого из составляющих алгоритмов обучения по отдельности. [1] [2] [3] В отличие от статистического ансамбля в статистической механике, который обычно бесконечен, ансамбль машинного обучения состоит только из конкретного конечного набора альтернативных моделей, но обычно допускает существование гораздо более гибкой структуры среди этих альтернатив.

Алгоритмы контролируемого обучения выполняют задачу поиска в пространстве гипотез, чтобы найти подходящую гипотезу, которая позволит сделать хорошие прогнозы для конкретной проблемы. [4] Даже если пространство гипотез содержит гипотезы, которые очень хорошо подходят для конкретной проблемы, найти хорошую может быть очень сложно. Ансамбли объединяют несколько гипотез, чтобы сформировать (надеюсь) лучшую гипотезу.

Ансамблевое обучение обучает два или более алгоритмов машинного обучения конкретной задаче классификации или регрессии. Алгоритмы в модели ансамблевого обучения обычно называются в литературе «базовыми моделями», «базовыми учащимися» или «слабыми учащимися». Базовые модели могут быть построены с использованием одного алгоритма моделирования или нескольких разных алгоритмов. Идея состоит в том, чтобы обучить разнообразную коллекцию моделей с низкой производительностью одной и той же задаче моделирования. В результате прогнозируемые или классифицированные результаты каждого слабого учащегося имеют плохую прогностическую способность (высокая систематическая ошибка, т.е. высокие ошибки модели), а среди совокупности всех слабых учащихся значения результатов и ошибок демонстрируют высокую дисперсию. По сути, модель ансамблевого обучения обучает множество (как минимум 2) моделей с высоким смещением (слабыми) и высокой дисперсией (разнообразными) для объединения в более сильную и более эффективную модель. По сути, это набор алгоритмических моделей, которые по отдельности не дают удовлетворительных прогнозных результатов, которые объединяются или усредняются по всем базовым моделям для создания единой высокопроизводительной, точной модели с низкой дисперсией, соответствующей поставленной задаче.

Ансамблевое обучение обычно относится к методам пакетирования (начального агрегирования), повышения или сложения/смешивания, чтобы вызвать высокую вариативность базовых моделей. Пакетирование создает разнообразие, генерируя случайные выборки из обучающих наблюдений и подгоняя одну и ту же модель к каждой выборке — также известное как «однородные параллельные ансамбли». Повышение следует за итеративным процессом путем последовательного обучения каждой следующей базовой модели на ошибках предыдущей базовой модели с повышенным весом, создавая аддитивную модель для уменьшения ошибок окончательной модели — также известное как «последовательное ансамблевое обучение». Наложение или смешивание состоит из различных базовых моделей, каждая из которых обучается независимо (т. е. разнообразная/высокая изменчивость) для объединения в модель ансамбля, создавая «гетерогенный параллельный ансамбль». Общие применения ансамблевого обучения включают случайные леса (расширение Бэггина), усиленные древовидные модели, градиентно усиленные древовидные модели, а модели в приложениях суммирования обычно более специфичны для конкретных задач — например, сочетание методов кластеризации с другими параметрическими и/или не- параметрические методы. (Подробный обзор см. здесь: [5]

Более широкий термин « множественные системы классификаторов» также охватывает гибридизацию гипотез, которые не вызваны одним и тем же базовым обучаемым. [ нужна ссылка ]

Оценка прогноза ансамбля обычно требует больше вычислений, чем оценка прогноза одной модели. В каком-то смысле ансамблевое обучение можно рассматривать как способ компенсировать плохие алгоритмы обучения за счет выполнения большого количества дополнительных вычислений. С другой стороны, альтернативой является гораздо больше обучения на одной неансамблевой системе. Ансамблевая система может быть более эффективной в повышении общей точности при том же увеличении вычислительных ресурсов, ресурсов хранения или связи за счет использования этого увеличения для двух или более методов, чем было бы улучшено за счет увеличения использования ресурсов для одного метода. Быстрые алгоритмы, такие как деревья решений, обычно используются в ансамблевых методах (например, случайные леса ), хотя и более медленные алгоритмы также могут выиграть от ансамблевых методов.

По аналогии, методы ансамбля также использовались в сценариях обучения без учителя , например, при консенсусной кластеризации или при обнаружении аномалий .

Теория ансамбля

[ редактировать ]

Эмпирически ансамбли, как правило, дают лучшие результаты, когда существует значительное разнообразие моделей. [6] [7] Поэтому многие ансамблевые методы стремятся способствовать разнообразию моделей, которые они объединяют. [8] [9] Хотя это, возможно, и не интуитивно понятно, но более случайные алгоритмы (например, деревья случайных решений) могут использоваться для создания более сильного ансамбля, чем очень продуманные алгоритмы (например, деревья решений, уменьшающие энтропию). [10] Однако было показано, что использование различных надежных алгоритмов обучения более эффективно, чем использование методов, которые пытаются упростить модели, чтобы способствовать разнообразию. [11] Увеличить разнообразие на этапе обучения модели можно, используя корреляцию для задач регрессии. [12] или использование информационных мер, таких как перекрестная энтропия, для задач классификации. [13]

Ансамбль классификаторов обычно имеет меньшую ошибку классификации, чем базовые модели.

Теоретически можно оправдать концепцию разнообразия, поскольку нижнюю границу частоты ошибок ансамблевой системы можно разложить на точность, разнообразие и другой член. [14]

Геометрическая основа

[ редактировать ]

Ансамблевое обучение, включая задачи регрессии и классификации, можно объяснить с помощью геометрической модели. [15] В рамках этой структуры выходные данные каждого отдельного классификатора или регрессора для всего набора данных можно рассматривать как точку в многомерном пространстве. Кроме того, целевой результат также представлен в виде точки в этом пространстве, называемой «идеальной точкой».

Евклидово расстояние используется в качестве метрики для измерения как производительности одного классификатора или регрессора (расстояние между его точкой и идеальной точкой), так и несходства между двумя классификаторами или регрессорами (расстояние между их соответствующими точками). Эта перспектива превращает ансамблевое обучение в детерминированную проблему.

Например, в рамках этой геометрической схемы можно доказать, что усреднение результатов (оценок) всех базовых классификаторов или регрессоров может привести к равным или лучшим результатам, чем среднее значение всех отдельных моделей. Также можно доказать, что если используется оптимальная схема взвешивания, то подход с взвешенным усреднением может превзойти любой из отдельных классификаторов или регрессоров, составляющих ансамбль, или, по крайней мере, не уступать лучшему исполнителю.

Размер ансамбля

[ редактировать ]

Хотя количество классификаторов компонентов ансамбля оказывает большое влияние на точность прогноза, существует ограниченное количество исследований, посвященных этой проблеме. Априорное определение размера ансамбля, а также объема и скорости потоков больших данных делает это еще более важным для онлайн-классификаторов ансамблей. В основном статистические тесты использовались для определения правильного количества компонентов. Совсем недавно теоретическая основа предположила, что существует идеальное количество классификаторов компонентов для ансамбля, так что наличие большего или меньшего количества классификаторов приведет к ухудшению точности. Он называется «законом убывающей отдачи в ансамблевом строительстве». Их теоретическая основа показывает, что использование того же количества независимых классификаторов компонентов, что и метки классов, дает высочайшую точность. [16] [17]

Распространенные типы ансамблей

[ редактировать ]

Оптимальный классификатор Байеса

[ редактировать ]

Оптимальный классификатор Байеса — это метод классификации. Это совокупность всех гипотез в пространстве гипотез. В среднем ни один другой ансамбль не может его превзойти. [18] Классификатор Наивного Байеса — это его версия, которая предполагает, что данные условно независимы от класса, и делает вычисления более осуществимыми. Каждой гипотезе присваивается голосование, пропорциональное вероятности того, что набор обучающих данных будет выбран из системы, если эта гипотеза окажется верной. Чтобы облегчить обучение данным конечного размера, голос каждой гипотезы также умножается на априорную вероятность этой гипотезы. Оптимальный классификатор Байеса можно выразить следующим уравнением:

где это прогнозируемый класс, это набор всех возможных классов, пространство гипотез, относится к вероятности и это данные обучения. В совокупности оптимальный байесовский классификатор представляет собой гипотезу, которая не обязательно соответствует действительности. . Однако гипотеза, представленная оптимальным классификатором Байеса, является оптимальной гипотезой в пространстве ансамблей (пространстве всех возможных ансамблей, состоящем только из гипотез в ).

Эту формулу можно переформулировать, используя теорему Байеса , которая гласит, что апостериорное значение пропорционально умножению вероятности на априорное:

следовательно,

Бутстрап-агрегирование (пакетирование)

[ редактировать ]
Три набора данных, загруженные из исходного набора. Пример A встречается дважды в наборе 1, поскольку они выбраны с заменой.

Бутстрап-агрегация ( пакетирование ) включает в себя обучение ансамбля на загрузочных наборах данных. Загрузочный набор создается путем выбора из исходного набора обучающих данных с заменой. Таким образом, набор начальной загрузки может содержать заданный пример ноль, один или несколько раз. Члены ансамбля также могут иметь ограничения на функции (например, узлы дерева решений), чтобы стимулировать изучение разнообразных функций. [19] Различия в местной информации в наборах начальной загрузки и соображениях по функциям способствуют разнообразию ансамбля и могут его укрепить. [20] Чтобы уменьшить переобучение, элемент можно проверить с использованием исходного набора (примеры, которых нет в его наборе начальной загрузки). [21]

Вывод делается путем голосования прогнозов членов ансамбля, называемого агрегированием . Ниже это проиллюстрировано ансамблем из четырех деревьев решений. Пример запроса классифицируется по каждому дереву. Поскольку трое из четырех прогнозируют положительный класс, общая классификация ансамбля положительная . Случайные леса, подобные показанному, являются распространенным применением мешков.

Пример процесса агрегирования ансамбля деревьев решений. Отдельные классификации объединяются и получается общая классификация.
An example of the aggregation process for an ensemble of decision trees. Individual classifications are aggregated, and an overall classification is derived.

Повышение

[ редактировать ]

Повышение включает в себя обучение последовательных моделей путем выделения обучающих данных, неправильно классифицированных ранее изученными моделями. Первоначально все данные (D1) имеют одинаковый вес и используются для изучения базовой модели M1. Примерам, неправильно классифицированным по M1, присваивается больший вес, чем правильно классифицированным примерам. Эти усиленные данные (D2) используются для обучения второй базовой модели M2 и так далее. Вывод делается путем голосования.

В некоторых случаях повышение дает лучшую точность, чем пакетирование, но имеет тенденцию к большему переобучению. Наиболее распространенной реализацией повышения является Adaboost , но, как сообщается, некоторые новые алгоритмы позволяют достичь лучших результатов. [ нужна ссылка ]

Усреднение байесовской модели

[ редактировать ]

Усреднение байесовской модели (BMA) делает прогнозы путем усреднения прогнозов моделей, взвешенных по их апостериорным вероятностям с учетом данных. [22] Известно, что BMA обычно дает лучшие ответы, чем одна модель, полученная, например, с помощью пошаговой регрессии , особенно когда очень разные модели имеют почти одинаковую производительность в обучающем наборе, но в остальном могут работать совершенно по-разному.

Вопросом любого использования теоремы Байеса является априорность, т. е. вероятность (возможно, субъективная) того, что каждая модель лучше всего подходит для конкретной цели. Концептуально BMA можно использовать с любым предшествующим. Пакеты R ансамбльBMA [23] и БМА [24] используйте априорное значение, подразумеваемое байесовским информационным критерием (BIC), следуя Рафтери (1995). [25] Пакет R BAS поддерживает использование априорных значений, подразумеваемых информационным критерием Акаике (AIC), и других критериев по сравнению с альтернативными моделями, а также априорных значений по отношению к коэффициентам. [26]

Разница между BIC и AIC заключается в силе предпочтения бережливости. Штраф BIC за сложность модели составляет , в то время как AIC . Асимптотическая теория большой выборки устанавливает, что если существует лучшая модель, то с увеличением размера выборки BIC строго согласован, т. е. почти наверняка найдет ее, тогда как AIC не может ее найти, поскольку AIC может продолжать придавать чрезмерную апостериорную вероятность моделям, которые являются более сложными, чем они должны быть. С другой стороны, AIC и AICc асимптотически «эффективны» (т.е. имеют минимальную среднеквадратическую ошибку прогнозирования), а BIC — нет. [27]

Хаусслер и др. (1994) показали, что когда BMA используется для классификации, его ожидаемая ошибка не более чем в два раза превышает ожидаемую ошибку оптимального байесовского классификатора. [28] Бёрнем и Андерсон (1998, 2002) внесли большой вклад в ознакомление более широкой аудитории с основными идеями усреднения байесовской модели и популяризацию этой методологии. [29] Доступность программного обеспечения, включая другие бесплатные пакеты с открытым исходным кодом для R, помимо упомянутых выше, помогла сделать эти методы доступными для более широкой аудитории. [30]

Комбинация байесовских моделей

[ редактировать ]

Комбинация байесовских моделей (BMC) представляет собой алгоритмическую коррекцию усреднения байесовской модели (BMA). Вместо выборки каждой модели в ансамбле по отдельности, она осуществляет выборку из пространства возможных ансамблей (при этом веса модели выбираются случайным образом из распределения Дирихле, имеющего однородные параметры). Эта модификация преодолевает тенденцию BMA отдавать весь вес одной модели. Хотя BMC несколько дороже в вычислительном отношении, чем BMA, он, как правило, дает значительно лучшие результаты. Было показано, что BMC в среднем лучше (со статистической значимостью), чем BMA и упаковка в мешки. [31]

Использование закона Байеса для расчета весов модели требует расчета вероятности данных для каждой модели. Как правило, ни одна из моделей в ансамбле не является в точности тем распределением, из которого были сгенерированы обучающие данные, поэтому все они правильно получают для этого термина значение, близкое к нулю. Это работало бы хорошо, если бы ансамбль был достаточно большим для выборки всего пространства модели, но это редко возможно. Следовательно, каждый шаблон в обучающих данных приведет к смещению веса ансамбля в сторону модели в ансамбле, которая ближе всего к распределению обучающих данных. По сути, это сводится к излишне сложному методу выбора модели.

Возможные веса ансамбля можно представить как лежащие на симплексе. В каждой вершине симплекса весь вес присваивается одной модели в ансамбле. BMA сходится к вершине, которая ближе всего к распределению обучающих данных. Напротив, BMC сходится к точке, где это распределение проецируется на симплекс. Другими словами, вместо выбора одной модели, наиболее близкой к генерирующему распределению, он ищет комбинацию моделей, наиболее близкую к генерирующему распределению.

Результаты BMA часто можно аппроксимировать с помощью перекрестной проверки для выбора лучшей модели из набора моделей. Аналогично, результаты BMC могут быть аппроксимированы с помощью перекрестной проверки для выбора лучшей комбинации ансамбля из случайной выборки возможных весов.

Ведро моделей

[ редактировать ]

«Корзина моделей» — это ансамблевый метод, в котором алгоритм выбора модели используется для выбора лучшей модели для каждой проблемы. При тестировании только с одной проблемой группа моделей не может дать лучшие результаты, чем лучшая модель в наборе, но при оценке по множеству проблем она обычно дает в среднем гораздо лучшие результаты, чем любая модель в наборе.

Наиболее распространенным подходом, используемым для выбора модели, является выбор перекрестной проверки (иногда называемый «конкурсом конкурса»). Он описывается следующим псевдокодом:

For each model m in the bucket:
    Do c times: (where 'c' is some constant)
        Randomly divide the training dataset into two sets: A and B
        Train m with A
        Test m with B
Select the model that obtains the highest average score

Выбор перекрестной проверки можно резюмировать следующим образом: «попробуйте их все с помощью обучающего набора и выберите тот, который работает лучше всего». [32]

Гейтинг — это обобщение выбора с перекрестной проверкой. Он предполагает обучение другой модели обучения, чтобы решить, какая из моделей в группе лучше всего подходит для решения проблемы. Часто персептрон в качестве стробирующей модели используется . Его можно использовать для выбора «лучшей» модели или для придания линейного веса прогнозам каждой модели в корзине.

Когда набор моделей используется с большим набором задач, может оказаться желательным избегать обучения некоторых моделей, обучение которых занимает много времени. Ориентировое обучение — это подход метаобучения, направленный на решение этой проблемы. Он включает в себя обучение только быстрых (но неточных) алгоритмов в сегменте, а затем использование производительности этих алгоритмов, чтобы определить, какой медленный (но точный) алгоритм, скорее всего, будет работать лучше всего. [33]

Измененная стоимость перекрестной энтропии: подход к поощрению разнообразия в классификационном ансамбле

[ редактировать ]

Наиболее распространенный подход к обучению классификатора — использование функции стоимости перекрестной энтропии . Однако хотелось бы обучить ансамбль разнообразных моделей, чтобы их объединение давало наилучшие результаты. [34] [35] Предполагая, что мы используем простой ансамбль усреднения классификаторы. Тогда исправленная стоимость перекрестной энтропии равна

где представляет собой функцию стоимости классификатор, это вероятность классификатор, истинная вероятность, которую нам нужно оценить и — это параметр от 0 до 1, определяющий разнообразие, которое мы хотели бы создать. Когда мы хотим, чтобы каждый классификатор работал наилучшим образом независимо от ансамбля и времени нам бы хотелось, чтобы классификатор был как можно более разнообразным.

Наложение (иногда называемое многоуровневым обобщением ) включает в себя обучение модели для объединения прогнозов нескольких других алгоритмов обучения. Сначала все остальные алгоритмы обучаются с использованием доступных данных, затем алгоритм объединителя (окончательный оценщик) обучается делать окончательный прогноз, используя все прогнозы других алгоритмов (базовые оценщики) в качестве дополнительных входных данных или используя перекрестно проверенные прогнозы. от базовых оценщиков, которые могут предотвратить переобучение. [36] Если используется произвольный алгоритм объединителя, то стекирование теоретически может представлять собой любой из ансамблевых методов, описанных в этой статье, хотя на практике логистической регрессии в качестве объединителя часто используется модель .

Стекирование обычно дает лучшую производительность, чем любая отдельная обученная модель. [37] Он успешно использовался как для задач обучения с учителем (регрессия, [38] классификация и дистанционное обучение [39] ) и обучение без учителя (оценка плотности). [40] Он также использовался для оценки частоты ошибок при упаковке. [3] [41] Сообщается, что он превосходит усреднение по байесовской модели. [42] Два лидера конкурса Netflix использовали смешивание, которое можно рассматривать как форму наложения. [43]

Голосование

[ редактировать ]

Голосование – еще одна форма ансамбля. См., например, алгоритм взвешенного большинства (машинное обучение) .

Реализации в пакетах статистики

[ редактировать ]
  • R : как минимум три пакета предлагают инструменты усреднения байесовской модели, [44] включая Пакет BMS (аббревиатура от Bayesian Model Selection), [45] тот Пакет BAS (аббревиатура от Bayesian Adaptive Sampling), [46] и Пакет БМА . [47]
  • Python : scikit-learn , пакет для машинного обучения на Python, предлагает пакеты для ансамблевого обучения, включая пакеты для методов группирования, голосования и усреднения.
  • MATLAB : ансамбли классификации реализованы в панели инструментов статистики и машинного обучения. [48]

Приложения для ансамблевого обучения

[ редактировать ]

В последние годы из-за растущей вычислительной мощности, которая позволяет проводить обучение большому ансамблю в разумные сроки, количество приложений ансамблевого обучения постоянно растет. [49] Некоторые из применений ансамблевых классификаторов включают:

Дистанционное зондирование

[ редактировать ]

Картирование земельного покрова

[ редактировать ]

Картирование земного покрова является одним из основных применений спутниковых датчиков наблюдения Земли , использующих данные дистанционного зондирования и геопространственные данные для идентификации материалов и объектов, расположенных на поверхности целевых территорий. Как правило, классы целевых материалов включают дороги, здания, реки, озера и растительность. [50] Некоторые различные подходы к ансамблевому обучению на основе искусственных нейронных сетей , [51] анализ главных компонентов ядра (KPCA), [52] деревья решений с повышением , [53] случайный лес [50] [54] и автоматическое проектирование нескольких систем классификаторов, [55] предложены для эффективной идентификации объектов земного покрова .

Обнаружение изменений

[ редактировать ]

Обнаружение изменений — это задача анализа изображений , заключающаяся в выявлении мест, где земной покров изменился с течением времени. Обнаружение изменений широко используется в таких областях, как рост городов , динамика лесов и растительности , землепользование и мониторинг стихийных бедствий . [56] Самые ранние применения ансамблевых классификаторов для обнаружения изменений были разработаны с использованием большинства голосов . [57] Усреднение байесовской модели , [58] и максимальная апостериорная вероятность . [59] Учитывая рост спутниковых данных с течением времени, в последнее десятилетие все чаще используются методы временных рядов для непрерывного обнаружения изменений на основе изображений. [60] Одним из примеров является метод обнаружения точек изменения байесовского ансамбля под названием BEAST, программное обеспечение которого доступно в виде пакета Rbeast в R, Python и Matlab. [61]

Компьютерная безопасность

[ редактировать ]

Распределенный отказ в обслуживании

[ редактировать ]

Распределенный отказ в обслуживании — одна из наиболее опасных кибератак , которая может произойти с интернет-провайдером . [49] Объединяя результаты отдельных классификаторов, ансамблевые классификаторы уменьшают общую ошибку обнаружения и различения таких атак от законных флеш-массивов . [62]

Обнаружение вредоносных программ

[ редактировать ]

Классификация кодов вредоносных программ , таких как компьютерные вирусы , компьютерные черви , трояны , программы-вымогатели и шпионские программы , с использованием методов машинного обучения , основана на проблеме категоризации документов . [63] Системы ансамблевого обучения показали должную эффективность в этой области. [64] [65]

Обнаружение вторжений

[ редактировать ]

Система обнаружения вторжений контролирует компьютерную сеть или компьютерные системы для выявления кодов злоумышленников, например, в процессе обнаружения аномалий . Ансамблевое обучение успешно помогает таким системам мониторинга уменьшить их общую ошибку. [66] [67]

Распознавание лиц

[ редактировать ]

Распознавание лиц , которое в последнее время стало одной из самых популярных исследовательских областей распознавания образов , позволяет идентифицировать или верифицировать человека по его цифровым изображениям . [68]

Иерархические ансамбли, основанные на классификаторе Габора Фишера и анализа независимых компонентов методах предварительной обработки , являются одними из первых ансамблей, используемых в этой области. [69] [70] [71]

Распознавание эмоций

[ редактировать ]

Хотя распознавание речи в основном основано на глубоком обучении , поскольку большинство игроков отрасли в этой области, таких как Google , Microsoft и IBM, сообщают, что основная технология их распознавания речи основана на этом подходе, распознавание эмоций на основе речи также может иметь удовлетворительные результаты. с ансамблевым обучением. [72] [73]

Он также успешно используется для распознавания эмоций по лицу . [74] [75] [76]

Обнаружение мошенничества

[ редактировать ]

Обнаружение мошенничества связано с выявлением банковского мошенничества , такого как отмывание денег , мошенничество с кредитными картами и телекоммуникационное мошенничество , которые имеют обширные области исследований и приложений машинного обучения . Поскольку ансамблевое обучение повышает надежность моделирования нормального поведения, оно было предложено в качестве эффективного метода обнаружения таких мошеннических случаев и действий в банковских системах и системах кредитных карт. [77] [78]

Принятие финансовых решений

[ редактировать ]

Точность прогнозирования банкротства бизнеса является очень важным вопросом при принятии финансовых решений. предлагаются различные ансамблевые классификаторы Поэтому для прогнозирования финансовых кризисов и финансовых затруднений . [79] Кроме того, в проблеме манипулирования на основе торговли , когда трейдеры пытаются манипулировать ценами на акции путем покупки и продажи, ансамблевые классификаторы должны анализировать изменения в данных фондового рынка и обнаруживать подозрительные симптомы ценами на акции манипулирования . [79]

Лекарство

[ редактировать ]

Классификаторы ансамблей успешно применяются в нейробиологии , протеомике и медицинской диагностике, например, при обнаружении нейрокогнитивных расстройств (например, болезни Альцгеймера или миотонической дистрофии ) на основе наборов данных МРТ. [80] [81] [82] и классификация цитологии шейки матки. [83] [84]

См. также

[ редактировать ]
  1. ^ Опитц, Д.; Маклин, Р. (1999). «Популярные ансамблевые методы: эмпирическое исследование» . Журнал исследований искусственного интеллекта . 11 : 169–198. arXiv : 1106.0257 . дои : 10.1613/jair.614 .
  2. ^ Поликар, Р. (2006). «Ансамбльные системы в принятии решений». Журнал IEEE Circuits and Systems . 6 (3): 21–45. дои : 10.1109/MCAS.2006.1688199 . S2CID   18032543 .
  3. ^ Перейти обратно: а б Рокач, Л. (2010). «Ансамблевые классификаторы». Обзор искусственного интеллекта . 33 (1–2): 1–39. дои : 10.1007/s10462-009-9124-7 . hdl : 11323/1748 . S2CID   11149239 .
  4. ^ Блокил Х. (2011). «Пространство гипотез» . Энциклопедия машинного обучения . стр. 511–513. дои : 10.1007/978-0-387-30164-8_373 . ISBN  978-0-387-30768-8 .
  5. ^ Ибомоие Домор Миенье, Янся Сан (2022). Обзор ансамблевого обучения: концепции, алгоритмы, приложения и перспективы .
  6. ^ Кунчева Л. и Уитакер К., Меры разнообразия в ансамблях классификаторов , Машинное обучение , 51, стр. 181-207, 2003 г.
  7. ^ Соллич П. и Крог А., Обучение с помощью ансамблей: чем может быть полезна переобучение , Достижения в области нейронных систем обработки информации, том 8, стр. 190-196, 1996.
  8. ^ Браун, Г., Вятт, Дж., Харрис, Р. и Яо, X., Методы создания разнообразия: обзор и категоризация ., Information Fusion , 6 (1), стр. 5-20, 2005.
  9. ^ Адева, Дж. Дж. Гарсия; Червиньо, Улисс; Кальво, Р. (декабрь 2005 г.). «Точность и разнообразие ансамблей текстовых категоризаторов» (PDF) . Журнал CLEI . 8 (2): 1:1–1:12. doi : 10.19153/cleiej.8.2.1 (неактивен 17 апреля 2024 г.). {{cite journal}}: CS1 maint: DOI неактивен по состоянию на апрель 2024 г. ( ссылка )
  10. ^ Хо, Т., Леса случайных решений, Труды Третьей международной конференции по анализу и распознаванию документов , стр. 278-282, 1995.
  11. ^ Гашлер, М.; Жиро-Каррье, К.; Мартинес, Т. (2008). «Ансамбль дерева решений: небольшая неоднородность лучше, чем большая однородность» (PDF) . 2008 Седьмая международная конференция по машинному обучению и приложениям . Том. 2008. стр. 900–905. дои : 10.1109/ICMLA.2008.154 . ISBN  978-0-7695-3495-4 . S2CID   614810 .
  12. ^ Лю, Ю.; Яо, X. (декабрь 1999 г.). «Ансамблевое обучение через отрицательную корреляцию» . Нейронные сети . 12 (10): 1399–1404. дои : 10.1016/S0893-6080(99)00073-8 . ISSN   0893-6080 . ПМИД   12662623 .
  13. ^ Шохам, Рон; Пермутер, Хаим (2019). «Измененная стоимость перекрестной энтропии: подход к поощрению разнообразия в классификационном ансамбле (краткое объявление)». Кибербезопасность, криптография и машинное обучение . Конспекты лекций по информатике. Том. 11527. стр. 202–207. дои : 10.1007/978-3-030-20951-3_18 . ISBN  978-3-030-20950-6 . S2CID   189926552 .
  14. ^ Теруфуми Моришита и др., Переосмысление неравенства Фано в ансамблевом обучении , Международная конференция по машинному обучению, 2022 г.
  15. ^ Ву, С., Ли, Дж., и Дин, В. (2023) Геометрическая основа для многоклассовых ансамблевых классификаторов, Machine Learning , 112 (12), стр. 4929-4958. дои : 10.1007/S10994-023-06406-W
  16. ^ Р. Бонаб, Хамед; Джан, Фазли (2016). Теоретическая основа идеального числа классификаторов для онлайн-ансамблей в потоках данных . ЦИКМ. США: АКМ. п. 2053.
  17. ^ Бонаб, Хамед; Джан, Фазли (2017). «Меньше значит больше: комплексная основа количества компонентов ансамблевых классификаторов». arXiv : 1709.02925 [ cs.LG ].
  18. ^ Том М. Митчелл , Машинное обучение , 1997, стр. 175.
  19. ^ Салман Р., Альзатрех А., Сулиман Х. и Фейсал С. (2021). Платформа Bootstrap для агрегирования внутри и между методами выбора функций. Энтропия (Базель, Швейцария), 23(2), 200. два : 10.3390/e23020200
  20. ^ Брейман, Л., Предикторы мешков, Машинное обучение , 24 (2), стр. 123-140, 1996. два : 10.1007/BF00058655
  21. ^ Бродер, З.П., Герман, Дж.Д., и Штайншнейдер, С. (2020). Методы бутстреп-агрегирования и перекрестной проверки для уменьшения переобучения при поиске политики управления резервуаром. Исследования водных ресурсов, 56, e2020WR027184. дои : 10.1029/2020WR027184
  22. ^ например Дженнифер А. Хотинг ; Дэвид Мэдиган ; Адриан Рафтери ; Крис Волинский (1999). «Усреднение байесовской модели: учебное пособие» . Статистическая наука . ISSN   0883-4237 . Викиданные   Q98974344 .
  23. ^ Крис Фрейли; Адриан Рафтери ; Дж. Маклин Слотер; Тилманн Гнайтинг, ансамбльBMA: Вероятностное прогнозирование с использованием ансамблей и усреднения байесовской модели , Wikidata   Q98972500
  24. ^ Адриан Рафтери ; Дженнифер А. Хотинг ; Крис Волинский; Ян Пейнтер; Ка Йи Юнг, BMA: Усреднение байесовской модели , Викиданные   Q91674106 .
  25. ^ Адриан Рафтери (1995). «Выбор байесовской модели в социальных исследованиях». Социологическая методология : 111–196. дои : 10.2307/271063 . ISSN   0081-1750 . Викиданные   Q91670340 .
  26. ^ Мерлиз А. Клайд ; Майкл Л. Литтман ; Цюаньли Ван; Джойи Гош; Инбо Ли; Дон ван ден Берг, BAS: Выбор байесовских переменных и усреднение модели с использованием байесовской адаптивной выборки , Wikidata   Q98974089 .
  27. ^ Герда Класкенс ; Нильс Лид Хьорт (2008), Выбор модели и усреднение модели , Cambridge University Press , Wikidata   Q62568358 , гл. 4.
  28. ^ Хаусслер, Дэвид; Кернс, Майкл; Шапире, Роберт Э. (1994). «Границы выборочной сложности байесовского обучения с использованием теории информации и измерения венчурного капитала» . Машинное обучение . 14 : 83–113. дои : 10.1007/bf00993163 .
  29. ^ Кеннет П. Бернэм; Дэвид Р. Андерсон (1998), Выбор модели и вывод: практический информационно-теоретический подход , Springer Science+Business Media , Wikidata   Q62670082 и Кеннет П. Бернэм; Дэвид Р. Андерсон (2002), Выбор модели и мультимодельный вывод: практический теоретико-информационный подход , Springer Science+Business Media , Wikidata   Q76889160 .
  30. ^ В статье Викиверситета «Поиск пакетов R» упоминается несколько способов найти доступные пакеты для чего-то подобного. Например, «sos::findFn('{Усреднение байесовской модели}')» из R будет искать файлы справки в предоставленных пакетах, которые включают поисковый запрос, и откроет две вкладки в браузере по умолчанию. В первом будут перечислены все найденные файлы справки, отсортированные по пакетам. Во втором суммируются найденные пакеты, отсортированные по очевидной силе совпадения.
  31. ^ Монтейт, Кристина; Кэрролл, Джеймс; Сеппи, Кевин; Мартинес, Тони. (2011). Превращение усреднения байесовской модели в комбинацию байесовских моделей (PDF) . Материалы Международной совместной конференции по нейронным сетям IJCNN'11. стр. 2657–2663.
  32. ^ Сасо Дзероски, Бернард Зенко, лучше комбинировать классификаторы, чем выбирать лучший , Machine Learning, 2004, стр. 255-273
  33. ^ Бенсусан, Хилан; Жиро-Кэррье, Кристоф (2000). «Обнаружение окрестностей задач посредством ориентировочных результатов обучения» (PDF) . Принципы интеллектуального анализа данных и обнаружения знаний . Конспекты лекций по информатике. Том. 1910. стр. 325–330. дои : 10.1007/3-540-45372-5_32 . ISBN  978-3-540-41066-9 .
  34. ^ Шохам, Рон; Пермутер, Хаим (2019). «Измененная стоимость перекрестной энтропии: подход к поощрению разнообразия в классификационном ансамбле (краткое объявление)». Кибербезопасность, криптография и машинное обучение . Конспекты лекций по информатике. Том. 11527. стр. 202–207. дои : 10.1007/978-3-030-20951-3_18 . ISBN  978-3-030-20950-6 .
  35. ^ Шохам, Рон; Пермутер, Хаим (2020). «Измененная стоимость перекрестной энтропии: основа явного поощрения разнообразия». arXiv : 2007.08140 [ cs.LG ].
  36. ^ «1.11. Ансамблевые методы» .
  37. ^ Вулперт (1992). «Сложное обобщение». Нейронные сети . 5 (2): 241–259. дои : 10.1016/s0893-6080(05)80023-1 .
  38. ^ Брейман, Лео (1996). «Сложенные регрессии» . Машинное обучение . 24 : 49–64. дои : 10.1007/BF00117832 .
  39. ^ Озай, М.; Ярман Вурал, FT (2013). «Новый метод нечеткого суммированного обобщения и анализ его эффективности». arXiv : 1204.0171 [ cs.LG ].
  40. ^ Смит, Падрайк; Вулперт, Дэвид (1999). «Линейное объединение оценок плотности посредством суммирования» (PDF) . Машинное обучение . 36 (1): 59–83. дои : 10.1023/A:1007511322260 . S2CID   16006860 .
  41. ^ Вулперт, Дэвид Х.; Макриди, Уильям Г. (1999). «Эффективный метод оценки ошибки обобщения мешков» (PDF) . Машинное обучение . 35 (1): 41–55. дои : 10.1023/А:1007519102914 . S2CID   14357246 .
  42. ^ Кларк, Б., Усреднение и суммирование байесовской модели, когда ошибку аппроксимации модели нельзя игнорировать , Журнал исследований машинного обучения, стр. 683-712, 2003 г.
  43. ^ Силл, Дж.; Такач, Г.; Макки, Л.; Лин, Д. (2009). «Функционально-взвешенное линейное уложение». arXiv : 0911.0460 [ cs.LG ].
  44. ^ Амини, Шахрам М.; Парметр, Кристофер Ф. (2011). «Байесовская модель усреднения в R» (PDF) . Журнал экономических и социальных измерений . 36 (4): 253–287. дои : 10.3233/JEM-2011-0350 .
  45. ^ «BMS: Библиотека усреднения байесовской модели» . Комплексная сеть архивов R. 24 ноября 2015 г. Проверено 9 сентября 2016 г.
  46. ^ «BAS: Усреднение байесовской модели с использованием байесовской адаптивной выборки» . Комплексная сеть архивов R. Проверено 9 сентября 2016 г.
  47. ^ «BMA: Усреднение байесовской модели» . Комплексная сеть архивов R. Проверено 9 сентября 2016 г.
  48. ^ «Классификационные ансамбли» . MATLAB и Симулинк . Проверено 8 июня 2017 г.
  49. ^ Перейти обратно: а б Возняк, Михал; Гранья, Мануэль; Корчадо, Эмилио (март 2014 г.). «Обзор нескольких систем классификаторов как гибридных систем». Информационный синтез . 16 :3–17. дои : 10.1016/j.inffus.2013.04.006 . hdl : 10366/134320 . S2CID   11632848 .
  50. ^ Перейти обратно: а б Родригес-Гальяно, ВФ; Гимире, Б.; Роган, Дж.; Чика-Олмо, М.; Ригол-Санчес, JP (январь 2012 г.). «Оценка эффективности случайного классификатора лесов для классификации земного покрова». Журнал фотограмметрии и дистанционного зондирования ISPRS . 67 : 93–104. Бибкод : 2012JPRS...67...93R . дои : 10.1016/j.isprsjprs.2011.11.002 .
  51. ^ Джачинто, Джорджо; Роли, Фабио (август 2001 г.). «Проектирование эффективных ансамблей нейронных сетей для целей классификации изображений». Вычисление изображений и зрительных образов . 19 (9–10): 699–707. CiteSeerX   10.1.1.11.5820 . дои : 10.1016/S0262-8856(01)00045-2 .
  52. ^ Ся, Цзюньши; Ёкоя, Наото; Ивасаки, Якира (март 2017 г.). «Новый ансамблевый классификатор гиперспектральных данных и данных LiDAR с использованием морфологических особенностей». Международная конференция IEEE по акустике, речи и обработке сигналов (ICASSP) 2017 г. стр. 6185–6189. дои : 10.1109/ICASSP.2017.7953345 . ISBN  978-1-5090-4117-6 . S2CID   40210273 .
  53. ^ Мотидзуки, С.; Мураками, Т. (ноябрь 2012 г.). «Сравнение точности картографирования земного покрова с использованием объектно-ориентированной классификации изображений с алгоритмами машинного обучения». 33-я Азиатская конференция по дистанционному зондированию, 2012 г., ACRS 2012 . 1 : 126–133.
  54. ^ Лю, Дэн; Томан, Элизабет; Фуллер, Зейн; Чен, Банда; Лондо, Алексис; Сюэсун, Чжан; Кайгуан, Чжао (2018). «Интеграция исторической карты и аэрофотоснимков для характеристики долгосрочных изменений в землепользовании и динамики ландшафта: объектный анализ с помощью случайных лесов» (PDF) . Экологические показатели . 95 (1): 595–605. Бибкод : 2018EcInd..95..595L . дои : 10.1016/j.ecolind.2018.08.004 . S2CID   92025959 .
  55. ^ Джачинто, Г.; Роли, Ф.; Фумера, Г. (сентябрь 2000 г.). «Проектирование эффективных систем множественных классификаторов путем кластеризации классификаторов». Материалы 15-й Международной конференции по распознаванию образов. МКЗР-2000 . Том. 2. С. 160–163. CiteSeerX   10.1.1.11.5328 . дои : 10.1109/ICPR.2000.906039 . ISBN  978-0-7695-0750-7 . S2CID   2625643 .
  56. ^ Ду, Пейджун; Лю, Сиконг; Ся, Цзюньши; Чжао, Инди (январь 2013 г.). «Методы объединения информации для обнаружения изменений на основе многовременных изображений дистанционного зондирования». Информационный синтез . 14 (1): 19–27. дои : 10.1016/j.inffus.2012.05.003 .
  57. ^ Определено Бруззоне и др. (2002) как «Класс данных, который получает наибольшее количество голосов, принимается за класс входного шаблона», это простое большинство , более точно описываемое как множественное голосование.
  58. ^ Чжао, Кайгуан; Вулдер, Майкл А; Ху, Тонкс; Брайт, Райан; У, Цюшэн; Цинь, Хаймин; Ли, Ян (2019). «Обнаружение точки изменения, тренда и сезонности в данных спутниковых временных рядов для отслеживания резких изменений и нелинейной динамики: алгоритм байесовского ансамбля» . Дистанционное зондирование окружающей среды . 232 : 111181. Бибкод : 2019RSEnv.23211181Z . дои : 10.1016/j.rse.2019.04.034 . hdl : 11250/2651134 . S2CID   201310998 .
  59. ^ Бруззоне, Лоренцо; Коссу, Роберто; Вернацца, Джанни (декабрь 2002 г.). «Объединение параметрических и непараметрических алгоритмов для частично неконтролируемой классификации многовременных изображений дистанционного зондирования» (PDF) . Информационный синтез . 3 (4): 289–297. дои : 10.1016/S1566-2535(02)00091-X .
  60. ^ Теодомир, Мугиранеса; Наскетти, Андреа; Бан., Ифан (2020). «Непрерывный мониторинг траекторий изменения растительного покрова городов с помощью временных рядов Landsat и облачных вычислений Landtrendr-Google Earth Engine» . Дистанционное зондирование . 12 (18): 2883. Бибкод : 2020RemS...12.2883M . дои : 10.3390/rs12182883 .
  61. ^ Ли, Ян; Чжао, Кайгуан; Ху, Тунси; Чжан, Сюэсун. «BEAST: байесовский ансамблевый алгоритм для обнаружения точек изменения и разложения временных рядов» . Гитхаб .
  62. ^ Радж Кумар, П. Арун; Сельвакумар, С. (июль 2011 г.). «Распределенное обнаружение атак типа «отказ в обслуживании» с использованием ансамбля нейронных классификаторов». Компьютерные коммуникации . 34 (11): 1328–1341. дои : 10.1016/j.comcom.2011.01.012 .
  63. ^ Шабтай, Асаф; Москович, Роберт; Эловичи, Юваль; Глезер, Чанан (февраль 2009 г.). «Обнаружение вредоносного кода путем применения классификаторов машинного обучения к статическим функциям: современное исследование». Технический отчет по информационной безопасности . 14 (1): 16–29. дои : 10.1016/j.istr.2009.03.003 .
  64. ^ Чжан, Боюнь; Инь, Цзяньпин; Хао, Цзинбо; Чжан, Динсин; Ван, Шулин (2007). «Обнаружение вредоносных кодов на основе ансамблевого обучения». Автономные и доверенные вычисления . Конспекты лекций по информатике. Том. 4610. стр. 468–477. дои : 10.1007/978-3-540-73547-2_48 . ISBN  978-3-540-73546-5 .
  65. ^ Менахем, Эйтан; Шабтай, Асаф; Рокач, Лиор; Эловичи, Юваль (февраль 2009 г.). «Улучшение обнаружения вредоносного ПО за счет применения ансамбля из нескольких индукторов». Вычислительная статистика и анализ данных . 53 (4): 1483–1494. CiteSeerX   10.1.1.150.2722 . дои : 10.1016/j.csda.2008.10.015 .
  66. ^ Локасто, Майкл Э.; Ван, Кэ; Керомитис, Анхелес Д.; Сальваторе, Дж. Столфо (2005). «FLIPS: гибридное адаптивное предотвращение вторжений». Последние достижения в области обнаружения вторжений . Конспекты лекций по информатике. Том. 3858. стр. 82–101. CiteSeerX   10.1.1.60.3798 . дои : 10.1007/11663812_5 . ISBN  978-3-540-31778-4 .
  67. ^ Джачинто, Джорджо; Потеряй это, Роберто; Дель Рио, Мауро; Роли, Фабио (январь 2008 г.). «Обнаружение вторжений в компьютерные сети модульным ансамблем одноклассовых классификаторов». Информационный синтез . 9 (1): 69–82. CiteSeerX   10.1.1.69.9132 . дои : 10.1016/j.inffus.2006.10.002 .
  68. ^ Му, Сяоянь; Лу, Цзянфэн; Ватта, Пол; Хассун, Мохамад Х. (июль 2009 г.). «Взвешенные ансамблевые классификаторы на основе голосования с применением к распознаванию лиц и голоса». 2009 Международная совместная конференция по нейронным сетям . стр. 2168–2171. дои : 10.1109/IJCNN.2009.5178708 . ISBN  978-1-4244-3548-7 . S2CID   18850747 .
  69. ^ Ю, Су; Шань, Шигуан; Чен, Силинь; Гао, Вэнь (апрель 2006 г.). «Иерархический ансамбль классификатора Габора Фишера для распознавания лиц». 7-я Международная конференция по автоматическому распознаванию лиц и жестов (FGR06) . стр. 91–96. дои : 10.1109/FGR.2006.64 . ISBN  978-0-7695-2503-7 . S2CID   1513315 .
  70. ^ Су, Ю.; Шан, С.; Чен, X.; Гао, В. (сентябрь 2006 г.). «Классификатор Габора Фишера на основе патчей для распознавания лиц». 18-я Международная конференция по распознаванию образов (ICPR'06) . Том. 2. С. 528–531. дои : 10.1109/ICPR.2006.917 . ISBN  978-0-7695-2521-1 . S2CID   5381806 .
  71. ^ Лю, Ян; Линь, Юнчжэн; Чен, Юэхуэй (июль 2008 г.). «Ансамблевая классификация на основе ICA для распознавания лиц». Конгресс 2008 г. по обработке изображений и сигналов . стр. 144–148. дои : 10.1109/CISP.2008.581 . ISBN  978-0-7695-3119-9 . S2CID   16248842 .
  72. ^ Ригер, Стивен А.; Муралидхаран, Раджани; Рамачандран, Рави П. (2014). «Распознавание эмоций на основе речи с использованием выделения спектральных признаков и ансамбля классификаторов KNN». 9-й международный симпозиум по обработке китайской разговорной речи . стр. 589–593. дои : 10.1109/ISCSLP.2014.6936711 . ISBN  978-1-4799-4219-0 . S2CID   31370450 .
  73. ^ Краевский, Ярек; Батлинер, Антон; Кессель, Силке (октябрь 2010 г.). «Сравнение нескольких классификаторов для речевого выявления уверенности в себе - пилотное исследование». 20-я Международная конференция по распознаванию образов, 2010 г. (PDF) . стр. 3716–3719. дои : 10.1109/ICPR.2010.905 . ISBN  978-1-4244-7542-1 . S2CID   15431610 .
  74. ^ Рани, П. Итайя; Мунисваран, К. (25 мая 2016 г.). «Распознавайте эмоции лица в видеофрагментах, используя височные черты глаз и рта Габора». Мультимедийные инструменты и приложения . 76 (7): 10017–10040. дои : 10.1007/s11042-016-3592-y . S2CID   20143585 .
  75. ^ Рани, П. Итайя; Мунисваран, К. (август 2016 г.). «Распознавание эмоций на лице на основе областей глаз и рта». Международный журнал распознавания образов и искусственного интеллекта . 30 (7): 1655020. doi : 10.1142/S021800141655020X .
  76. ^ Рани, П. Итайя; Мунисваран, К. (28 марта 2018 г.). «Распознавание эмоций по компонентам лица» . Садхана 43 (3). дои : 10.1007/ s12046-018-0801-6
  77. ^ Лузада, Франциско; Ара, Андерсон (октябрь 2012 г.). «Упаковка вероятностных сетей с k-зависимостью: альтернативный мощный инструмент обнаружения мошенничества». Экспертные системы с приложениями . 39 (14): 11583–11592. дои : 10.1016/j.eswa.2012.04.024 .
  78. ^ Сундаркумар, Г. Ганеш; Рави, Вадламани (январь 2015 г.). «Новый гибридный метод недостаточной выборки для анализа несбалансированных наборов данных в банковском деле и страховании». Инженерные применения искусственного интеллекта . 37 : 368–377. дои : 10.1016/j.engappai.2014.09.019 .
  79. ^ Перейти обратно: а б Ким, Юнсон; Сон, такой молодой (август 2012 г.). «Обнаружение мошенничества с акциями с использованием анализа группы аналогов». Экспертные системы с приложениями . 39 (10): 8986–8992. дои : 10.1016/j.eswa.2012.02.025 .
  80. ^ Савио, А.; Гарсия-Себастьян, Монтана; Чизык, Д.; Эрнандес, К.; Гранья, М.; Систиага, А.; Лопес де Мунаин, А.; Вильянуа, Дж. (август 2011 г.). «Обнаружение нейрокогнитивных расстройств на основе векторов признаков, извлеченных из анализа VBM структурной МРТ». Компьютеры в биологии и медицине . 41 (8): 600–610. doi : 10.1016/j.compbiomed.2011.05.010 . ПМИД   21621760 .
  81. ^ Аерди, Б.; Савио, А.; Гранья, М. (июнь 2013 г.). «Метаансамбли классификаторов для выявления болезни Альцгеймера с использованием независимых функций рентабельности инвестиций». Естественные и искусственные вычисления в инженерных и медицинских приложениях . Конспекты лекций по информатике. Том. 7931. стр. 122–130. дои : 10.1007/978-3-642-38622-0_13 . ISBN  978-3-642-38621-3 .
  82. ^ Гу, Цюань; Дин, Юн-Шэн; Чжан, Тонг-Лян (апрель 2015 г.). «Прогнозирование классов рецепторов, связанных с G-белком, с низкой гомологией» на основе ансамблевого классификатора. Нейрокомпьютинг . 154 : 110–118. дои : 10.1016/j.neucom.2014.12.013 .
  83. ^ ; Рахаман, Мд Мамунур; Чжан, Цзиньпэн; Сунь, Хунцзан (2020). Сюэ, Дэн, Сяоминь; Ли, Чэнь и методы ансамблевого обучения для классификации изображений гистопатологии шейки матки» . Доступ IEEE . 8 : 104603–104618. Бибкод : 2020IEEA...8j4603X . doi : 10.1109/ACCESS.2020.2999816 . ISSN   2169-3536 . S2CID   21 96898 93 .
  84. ^ Манна, Анкур; Кунду, Рохит; Каплун, Дмитрий; Синица, Александр; Саркар, Рам (декабрь 2021 г.). «Нечеткий ранговый ансамбль моделей CNN для классификации цитологии шейки матки» . Научные отчеты . 11 (1): 14538. Бибкод : 2021NatSR..1114538M . дои : 10.1038/s41598-021-93783-8 . ISSN   2045-2322 . ПМЦ   8282795 . ПМИД   34267261 .

Дальнейшее чтение

[ редактировать ]
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: fbfbe0537be45d1a8dc1fcf976722ab5__1721111940
URL1:https://arc.ask3.ru/arc/aa/fb/b5/fbfbe0537be45d1a8dc1fcf976722ab5.html
Заголовок, (Title) документа по адресу, URL1:
Ensemble learning - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)