Jump to content

Многократное обучение

В машинном обучении множественное обучение (MIL) — это тип обучения с учителем . Вместо набора экземпляров с индивидуальной маркировкой учащийся получает набор маркированных пакетов , каждый из которых содержит множество экземпляров. В простом случае бинарной классификации с несколькими экземплярами пакет может быть помечен как отрицательный, если все экземпляры в нем отрицательны. С другой стороны, пакет считается положительным, если в нем есть хотя бы один экземпляр, который является положительным. Из коллекции маркированных сумок учащийся пытается либо (i) создать концепцию, которая будет правильно маркировать отдельные экземпляры, либо (ii) научиться маркировать сумки, не вызывая при этом концепцию.

Babenko (2008) [1] дает простой пример для MIL. Представьте себе несколько человек, и у каждого из них есть брелок, в котором находится несколько ключей. Некоторые из этих людей могут войти в определенную комнату, а некоторые нет. Задача состоит в том, чтобы предсказать, сможет ли определенный ключ или определенная цепочка ключей привести вас в эту комнату. Для решения этой задачи нам необходимо найти именно тот ключ, который является общим для всех «положительных» брелоков. Если мы сможем правильно идентифицировать этот ключ, мы также сможем правильно классифицировать всю цепочку ключей: положительную, если она содержит требуемый ключ, или отрицательную, если его нет.

Машинное обучение

[ редактировать ]

В зависимости от типа и вариаций обучающих данных машинное обучение можно условно разделить на три структуры: обучение с учителем, обучение без учителя и обучение с подкреплением. Множественное обучение (MIL) подпадает под структуру контролируемого обучения, где каждый экземпляр обучения имеет метку, дискретную или действительную. MIL занимается проблемами неполного знания меток в обучающих наборах. Точнее, при множественном обучении обучающий набор состоит из помеченных «мешков», каждый из которых представляет собой набор непомеченных экземпляров. Пакет помечен положительно, если хотя бы один экземпляр в нем положителен, и помечен отрицательно, если все экземпляры в нем отрицательны. Цель MIL — предсказать этикетки на новых, ранее неизвестных сумках.

Килер и др., [2] в своей работе в начале 1990-х годов был первым, кто исследовал область МИГ. Фактический термин «многоэкземплярное обучение» был введен в середине 1990-х годов Дитеррихом и др. пока они исследовали проблему прогнозирования активности наркотиков. [3] Они попытались создать систему обучения, которая могла бы предсказать, способна ли новая молекула производить какое-либо лекарство или нет, путем анализа набора известных молекул. Молекулы могут иметь множество альтернативных низкоэнергетических состояний, но только одно или несколько из них подходят для производства лекарства. Проблема возникла потому, что ученые могли только определить, является ли молекула квалифицированной или нет, но они не могли точно сказать, какие из ее низкоэнергетических форм ответственны за это.

Один из предложенных способов решения этой проблемы состоял в том, чтобы использовать обучение с учителем и рассматривать все низкоэнергетические формы квалифицированной молекулы как положительные примеры обучения, а все низкоэнергетические формы неквалифицированных молекул - как отрицательные примеры. Дитерих и др. показали, что такой метод будет иметь высокий ложноположительный шум от всех низкоэнергетических форм, которые ошибочно помечены как положительные, и поэтому не будет действительно полезен. [3] Их подход заключался в том, чтобы рассматривать каждую молекулу как маркированный пакет, а все альтернативные низкоэнергетические формы этой молекулы — как экземпляры в пакете без индивидуальных меток. Таким образом, формулируется многоэкземплярное обучение.

Решение проблемы множественного обучения, которую Dietterich et al. предложен алгоритм прямоугольника с параллельными осями (APR). [3] Он пытается найти подходящие прямоугольники, параллельные осям, построенные путем объединения объектов. Они протестировали алгоритм на наборе данных Маска. [4] [5] [ сомнительно обсудить ] который представляет собой конкретные тестовые данные прогнозирования активности лекарств и наиболее часто используемый тест в множественном обучении. Алгоритм APR показал лучший результат, но APR был разработан с учетом данных Маска.

Проблема множественного обучения характерна не только для поиска лекарств. В 1998 году Марон и Ратан нашли другое применение множественного обучения для классификации сцен в машинном зрении и разработали структуру Diverse Density. [6] Учитывая изображение, экземпляр считается одним или несколькими фрагментами изображения фиксированного размера, а набор экземпляров считается всем изображением. Изображение считается положительным, если оно содержит целевую сцену (например, водопад), и отрицательным в противном случае. Обучение с несколькими экземплярами можно использовать для изучения свойств фрагментов изображений, которые характеризуют целевую сцену. С тех пор эти структуры применялись к широкому спектру приложений: от изучения концепций изображений и категоризации текста до прогнозирования фондового рынка.

Возьмем, к примеру, классификацию изображений Amores (2013) . Учитывая изображение, мы хотим узнать его целевой класс на основе его визуального контента. Например, целевым классом может быть «пляж», где изображение содержит как «песок», так и «воду». В терминах MIL изображение описывается как сумка. , где каждый — вектор признаков (называемый экземпляром ), извлеченный из соответствующего -я область на изображении и — общее количество регионов (экземпляров), разделяющих изображение. Пакет помечен как положительный («пляж»), если он содержит экземпляры как «песчаного» региона, так и «водного» региона.

Примеры применения MIL:

Многочисленные исследователи работали над адаптацией классических методов классификации, таких как машины опорных векторов или повышение , для работы в контексте множественного обучения.

Определения

[ редактировать ]

Если пространство экземпляров , то набор сумок — это набор функций , который изоморфен множеству мультиподмножеств . За каждую сумку и каждый экземпляр , рассматривается как количество раз происходит в . [8] Позволять быть пространством меток, тогда «концепция множественного экземпляра» — это карта . Цель МИГ – изучить такую ​​концепцию. Оставшаяся часть статьи будет посвящена бинарной классификации , где .

Предположения

[ редактировать ]

Большая часть работ по множественному обучению, в том числе Dietterich et al. (1997) и ранние статьи Марона и Лозано-Переса (1997), [3] [9] сделать предположение относительно связи между экземплярами внутри пакета и меткой класса пакета. Из-за своей важности это предположение часто называют стандартным предположением МИ.

Стандартное предположение

[ редактировать ]

Стандартное предположение принимает каждый экземпляр иметь связанный ярлык которое скрыто от обучающегося. Пара называется «концепцией уровня экземпляра». Сумка теперь рассматривается как мультимножество концепций уровня экземпляра и помечается положительной, если хотя бы один из ее экземпляров имеет положительную метку, и отрицательной, если все ее экземпляры имеют отрицательные метки. Формально пусть быть сумкой. Этикетка тогда . Стандартное предположение МИ асимметрично, а это означает, что если положительные и отрицательные метки поменяны местами, предположение будет иметь другой смысл. По этой причине, когда мы используем это предположение, нам необходимо четко понимать, какой ярлык должен быть положительным.

Стандартное предположение может рассматриваться как слишком строгое, и поэтому в последние годы исследователи попытались смягчить эту позицию, что привело к появлению других, более расплывчатых предположений. [10] Причиной этого является убеждение, что стандартное предположение MI подходит для набора данных Маска, но, поскольку MIL может быть применено к множеству других проблем, некоторые другие предположения, вероятно, могут быть более подходящими. Руководствуясь этой идеей, Вайдманн [11] сформулировал иерархию обобщенных предположений, основанных на конкретных примерах, для МИГ. Оно состоит из стандартного предположения МИ и трех типов обобщенных предположений МИ, каждое из которых более общее, чем последнее, в том смысле, что первое можно получить как конкретный выбор параметров второго, стандартного на основе присутствия на основе пороговых значений на основе подсчета, при этом предположение, основанное на подсчете, является наиболее общим, а стандартное предположение - наименее общим. (Однако обратите внимание, что любая сумка, отвечающая допущению, основанному на подсчете, соответствует допущению, основанному на пороге, которое, в свою очередь, соответствует допущению, основанному на присутствии, которое, в свою очередь, соответствует стандартному предположению. В этом смысле также правильно утверждать, что стандартное предположение является самым слабым и, следовательно, наиболее общим, а предположение, основанное на подсчете, является самым сильным и, следовательно, наименее общим.) Можно было бы ожидать, что алгоритм, который хорошо работает при одном из этих предположений, будет работать, по крайней мере, так же хорошо и при менее общих предположениях.

Допущения, основанные на присутствии, пороге и подсчете

[ редактировать ]

Предположение, основанное на присутствии, является обобщением стандартного предположения, согласно которому сумка должна содержать все экземпляры, принадлежащие набору требуемых концепций уровня экземпляра, чтобы ее можно было пометить как позитивную. Формально пусть быть набором необходимых концепций уровня экземпляра, и пусть обозначают количество раз, когда концепция уровня экземпляра происходит в сумке . Затем для всех . Обратите внимание, что, взяв Чтобы содержать только одну концепцию уровня экземпляра, предположение, основанное на присутствии, сводится к стандартному предположению.

Дальнейшее обобщение связано с предположением, основанным на пороговых значениях, согласно которому каждая требуемая концепция уровня экземпляра должна встречаться в пакете не только один раз, но и некоторое минимальное (пороговое) количество раз, чтобы пакет можно было пометить как положительный. С учетом приведенных выше обозначений для каждой требуемой концепции уровня экземпляра связан с порогом . Для сумки , для всех .

Допущение, основанное на подсчете, представляет собой окончательное обобщение, которое устанавливает как нижнюю, так и верхнюю границы количества раз, когда требуемое понятие может встретиться в пакете с положительной маркировкой. Каждая необходимая концепция уровня экземпляра имеет нижний порог и верхний порог с . Сумка маркируется в соответствии с для всех .

Предположение GMIL

[ редактировать ]

Скотт, Чжан и Браун (2005) [12] описывают другое обобщение стандартной модели, которое они называют «обобщенным множественным обучением» (GMIL). Предположение GMIL определяет набор необходимых экземпляров. . Сумка называется положительным, если он содержит экземпляры, достаточно близкие, по крайней мере, к требуемых экземпляров . [12] Только при этом условии предположение GMIL эквивалентно предположению, основанному на присутствии. [8] Однако Скотт и др. описать дальнейшее обобщение, в котором существует набор точек притяжения и набор точек отталкивания . Пакет считается положительным тогда и только тогда, когда он содержит экземпляры, достаточно близкие по крайней мере к точек притяжения и находятся достаточно близко не более чем к точек отталкивания. [12] Это условие строго более общее, чем условие, основанное на присутствии, хотя оно не попадает в вышеуказанную иерархию.

Коллективное предположение

[ редактировать ]

В отличие от предыдущих предположений, в которых сумки рассматривались как фиксированные, коллективное предположение рассматривает сумку как фиксированную. как распределение над экземплярами и аналогичным образом рассматривать метки как распределение над экземплярами. Целью алгоритма, действующего в рамках коллективного предположения, является моделирование распределения .

С обычно считается фиксированным, но неизвестным, вместо этого алгоритмы сосредотачиваются на вычислении эмпирической версии: , где количество экземпляров в сумке . С также обычно считается фиксированным, но неизвестным, большинство методов, основанных на коллективных предположениях, сосредоточены на изучении этого распределения, как и в версии с одним экземпляром. [8] [10]

Хотя коллективное предположение оценивает каждый случай с одинаковой важностью, Фулдс расширил коллективное предположение, включив в него веса экземпляров. Тогда взвешенное коллективное предположение состоит в том, что , где является весовой функцией над экземплярами и . [8]

Алгоритмы

[ редактировать ]
Система МИГ

Существует два основных варианта алгоритмов множественного обучения: алгоритмы на основе экземпляров и на основе метаданных или алгоритмы на основе внедрения. Термин «на основе экземпляров» означает, что алгоритм пытается найти набор репрезентативных экземпляров на основе предположения MI и классифицировать будущие пакеты из этих представителей. Напротив, алгоритмы на основе метаданных не делают никаких предположений о взаимосвязи между экземплярами и этикетками пакетов, а вместо этого пытаются извлечь независимую от экземпляра информацию (или метаданные) о сумках, чтобы изучить концепцию. [10] Обзор некоторых современных алгоритмов МИ см. в книге Foulds and Frank. [8]

Алгоритмы на основе экземпляров

[ редактировать ]

Самыми ранними предложенными алгоритмами MI были набор алгоритмов «итерационной дискриминации», разработанных Дитерихом и др., и Diverse Density, разработанный Мароном и Лозано-Пересом. [3] [9] Оба эти алгоритма работали в соответствии со стандартным предположением.

Итерационная дискриминация

[ редактировать ]

В общих чертах все алгоритмы итерационной дискриминации состоят из двух этапов. Первый этап — вырастить прямоугольник, параллельный оси (APR), который содержит по крайней мере один экземпляр из каждого положительного пакета и ни одного экземпляра из отрицательного пакета. Это делается итеративно: начиная со случайного экземпляра. в положительном пакете годовая процентная ставка увеличивается до наименьшей годовой процентной ставки, охватывающей любой экземпляр. в новой позитивной сумке . Этот процесс повторяется до тех пор, пока годовая процентная ставка не охватит хотя бы один экземпляр из каждого положительного пакета. Затем каждый экземпляр содержащемуся в Годовой процентной ставке присваивается «релевантность», соответствующая тому, сколько отрицательных моментов он исключает из Годовой процентной ставки в случае удаления. Затем алгоритм выбирает репрезентативные экземпляры-кандидаты в порядке убывания релевантности до тех пор, пока ни один экземпляр, содержащийся в отрицательном пакете, не будет содержаться и в APR. Алгоритм повторяет эти шаги роста и выбора представителей до сходимости, где размер APR на каждой итерации принимается только вдоль представителей-кандидатов.

Считается, что после первого этапа годовая процентная ставка будет содержать только репрезентативные атрибуты. На втором этапе эта жесткая годовая процентная ставка расширяется следующим образом: распределение Гаусса центрируется по каждому атрибуту и ​​рисуется более свободная годовая процентная ставка, так что положительные экземпляры будут выходить за пределы жесткой годовой процентной ставки с фиксированной вероятностью. [4] Хотя повторяющиеся методы дискриминации хорошо работают со стандартным предположением, они плохо обобщаются на другие предположения МИ. [8]

Разнообразная плотность

[ редактировать ]

В своей простейшей форме Diverse Density (DD) предполагает наличие единственного репрезентативного экземпляра. как концепция. Этот репрезентативный экземпляр должен быть «плотным» в том смысле, что он гораздо ближе к экземплярам из положительных пакетов, чем из отрицательных пакетов, а также «разнообразным» в том смысле, что он близок хотя бы к одному экземпляру из каждого положительного пакета.

Позволять быть набором мешков с положительной маркировкой и пусть — набор мешков с отрицательной маркировкой, тогда лучший кандидат на роль репрезентативного экземпляра определяется выражением , где разнообразная плотность в предположении, что сумки распределяются независимо, учитывая концепцию . Сдача в аренду обозначаем j-й экземпляр сумки i, модель шумного ИЛИ дает:

принимается масштабированное расстояние где вектор масштабирования. Таким образом, если каждый положительный пакет имеет экземпляр, близкий к , затем будет высоким для каждого , но если какой-либо отрицательный мешок имеет экземпляр, близкий к , будет низким. Следовательно, высок только в том случае, если в каждом положительном пакете есть экземпляр, близкий к и никакие отрицательные пакеты не имеют экземпляра, близкого к . Концепция кандидата можно получить градиентными методами. Классификацию новых сумок можно затем выполнить, оценив близость к . [9] Хотя идея разнообразной плотности была первоначально предложена Мароном и др. в 1998 году более поздние алгоритмы MIL используют структуру DD, например EM-DD в 2001 году. [13] и ДД-СВМ в 2004 г., [14] и МИЛЬ в 2006 г. [8]

Ряд одноэкземплярных алгоритмов также был адаптирован к контексту с несколькими экземплярами в соответствии со стандартным предположением, в том числе

После 2000 года произошел отход от стандартных предположений и разработка алгоритмов, предназначенных для решения более общих предположений, перечисленных выше. [10]

  • Вайдман [11] предлагает алгоритм двухуровневой классификации (TLC) для изучения концепций на основе предположения, основанного на подсчете. На первом этапе предпринимается попытка изучить концепции уровня экземпляра путем построения дерева решений для каждого экземпляра в каждом пакете обучающего набора. Затем каждая сумка сопоставляется с вектором признаков на основе подсчетов в дереве решений. На втором этапе на векторах признаков запускается одноэкземплярный алгоритм для изучения концепции.
  • Скотт и др. [12] предложил алгоритм GMIL-1 для изучения концепций в рамках предположения GMIL в 2005 году. GMIL-1 перечисляет все прямоугольники, параллельные осям. в исходном пространстве экземпляров и определяет новое пространство признаков логических векторов. Сумка отображается в вектор в этом новом пространстве функций, где если год обложки , и в противном случае. Затем можно применить одноэкземплярный алгоритм для изучения концепции в этом новом пространстве функций.

Из-за высокой размерности нового пространства признаков и стоимости явного перечисления всех APR исходного пространства экземпляров GMIL-1 неэффективен как с точки зрения вычислений, так и с точки зрения памяти. GMIL-2 был разработан как усовершенствованная версия GMIL-1 с целью повышения эффективности. GMIL-2 предварительно обрабатывает экземпляры, чтобы найти набор экземпляров-кандидатов-представителей. Затем GMIL-2 сопоставляет каждую сумку с логическим вектором, как и в GMIL-1, но учитывает только APR, соответствующие уникальным подмножествам экземпляров-кандидатов-репрезентатов. Это значительно снижает требования к памяти и вычислениям. [8]

  • Сюй (2003) [10] предложил несколько алгоритмов, основанных на логистической регрессии и методах повышения, для изучения концепций в рамках коллективного предположения.

Алгоритмы на основе метаданных (или внедрения)

[ редактировать ]

Сопоставляя каждую сумку с вектором признаков метаданных, алгоритмы на основе метаданных позволяют гибко использовать произвольный одноэкземплярный алгоритм для выполнения фактической задачи классификации. Будущие пакеты просто отображаются (встраиваются) в пространство признаков метаданных и помечаются выбранным классификатором. Поэтому основное внимание в алгоритмах на основе метаданных уделяется тому, какие функции или какой тип внедрения приводят к эффективной классификации. Обратите внимание, что некоторые из ранее упомянутых алгоритмов, такие как TLC и GMIL, можно считать основанными на метаданных.

  • Один из подходов состоит в том, чтобы метаданные для каждого пакета представляли собой некоторый набор статистических данных по экземплярам в пакете. Алгоритм SimpleMI использует этот подход, при котором метаданные пакета рассматриваются как простая сводная статистика, такая как среднее или минимальное и максимальное значение каждой переменной экземпляра, взятой для всех экземпляров в пакете. Существуют и другие алгоритмы, использующие более сложную статистику, но SimpleMI оказался на удивление конкурентоспособным для ряда наборов данных, несмотря на кажущуюся нехватку сложности. [8]
  • Другой распространенный подход — рассматривать геометрию самих сумок как метаданные. Этот подход используется в алгоритмах MIGraph и miGraph, которые представляют каждый пакет в виде графа, узлами которого являются экземпляры пакета. Ребро между двумя узлами существует, если расстояние (до некоторой метрики в пространстве экземпляров) между соответствующими экземплярами меньше некоторого порога. Классификация осуществляется через SVM с графовым ядром (MIGraph и miGraph отличаются только выбором ядра). [8] Аналогичные подходы применяются MILES [19] и РАЗУМ. [20] MILES представляет сумку по ее сходству с экземплярами в обучающем наборе, а MInD представляет сумку по ее расстоянию до других сумок.
  • Модификацию k-ближайших соседей (kNN) также можно рассматривать как алгоритм на основе метаданных с геометрическими метаданными, хотя сопоставление между пакетами и функциями метаданных не является явным. Однако необходимо указать метрику, используемую для расчета расстояния между мешками. Ван и Цукер (2000) [21] предложите (максимальную и минимальную соответственно) метрику Хаусдорфа для сумок и :

Они определяют две разновидности kNN, байесовскую kNN и цитируемую kNN, как адаптацию традиционной задачи ближайшего соседа к ситуации с несколькими экземплярами.

Обобщения

[ редактировать ]

До сих пор в этой статье множественное обучение рассматривалось исключительно в контексте бинарных классификаторов. Однако обобщения одноэкземплярных бинарных классификаторов могут быть перенесены на случай нескольких экземпляров.

  • Одним из таких обобщений является проблема нескольких экземпляров нескольких меток (MIML), где каждая сумка теперь может быть связана с любым подмножеством пространства меток. Формально, если это пространство признаков и — это пространство меток, концепция MIML — это карта . Чжоу и Чжан (2006) [22] предложить решение проблемы MIML путем сведения к проблеме с несколькими экземплярами или несколькими концепциями.
  • Еще одно очевидное обобщение — это множественная регрессия. Здесь каждая сумка связана с одним действительным числом, как и в стандартной регрессии. Как и стандартное предположение, регрессия MI предполагает, что в каждом пакете есть один экземпляр, называемый «простым экземпляром», который определяет метку пакета (с точностью до шума). Идеальная цель МИ-регрессии — найти гиперплоскость, которая минимизирует потерю квадратов простых экземпляров в каждом пакете, но при этом простые экземпляры скрыты. Фактически, Рэй и Пейдж (2001) [23] покажите, что найти наиболее подходящую гиперплоскость, которая соответствует одному экземпляру из каждого пакета, сложно, если в каждом пакете меньше трех экземпляров, и вместо этого разработайте алгоритм аппроксимации. Многие из алгоритмов, разработанных для классификации ИМ, также могут обеспечить хорошее приближение к проблеме регрессии МИ. [8]

См. также

[ редактировать ]
  1. ^ Бабенко, Борис. «Множественное обучение: алгоритмы и приложения». Посмотреть статью PubMed/NCBI Google Scholar (2008).
  2. ^ Килер, Джеймс Д., Дэвид Э. Румельхарт и Ви-Кхенг Леоу. Интегрированная сегментация и распознавание цифр, напечатанных вручную. Корпорация микроэлектроники и компьютерных технологий, 1991.
  3. ^ Jump up to: а б с д и Дитерих, Томас Г., Ричард Х. Латроп и Томас Лосано-Перес. «Решение задачи множественных экземпляров с помощью прямоугольников, параллельных осям». Искусственный интеллект 89.1 (1997): 31-71.
  4. ^ Jump up to: а б К. Блейк, Э. Кио и Си Джей Мерц. Репозиторий UCI баз данных машинного обучения [1] , Департамент информации и компьютерных наук, Калифорнийский университет, Ирвин, Калифорния, 1998.
  5. ^ Ван, Вэй-Хонг; Ду, Ян-е; Ли, Цюй; Фан, Чжао-линь (2011). «Оценка кредита на основе программирования экспрессии генов и клональной селекции» . Процедия Инжиниринг . 15 : 3759–3763. дои : 10.1016/j.proeng.2011.08.704 .
  6. ^ О. Марон и А.Л. Ратан. Многократное обучение для классификации естественных сцен. В материалах 15-й Международной конференции по машинному обучению, Мэдисон, Висконсин, стр. 341–349, 1998.
  7. ^ Минхас, Ф.у. А. А; Бен-Гур, А (2012). «Многократное изучение сайтов связывания кальмодулина» . Биоинформатика . 28 (18): i416–i422. doi : 10.1093/биоинформатика/bts416 . ПМЦ   3436843 . ПМИД   22962461 .
  8. ^ Jump up to: а б с д и ж г час я дж к Фулдс, Джеймс и Эйбе Франк. «Обзор предположений многоэкземплярного обучения». Обзор инженерии знаний 25.01 (2010): 1-25.
  9. ^ Jump up to: а б с Марон, Одед и Томаш Лосано-Перес. «Структура для многоэкземплярного обучения». Достижения в области нейронных систем обработки информации (1998): 570-576.
  10. ^ Jump up to: а б с д и Сюй, X. Статистическое обучение в множественных задачах. Магистерская диссертация, Университет Вайкато (2003 г.).
  11. ^ Jump up to: а б Вайдманн, Нильс Б. «Двухуровневая классификация обобщенных данных из нескольких экземпляров». Дисс. Университет Альберта Людвига, 2003.
  12. ^ Jump up to: а б с д Скотт, Стивен, Цзюнь Чжан и Джошуа Браун. «Об обобщенном множественном обучении». Международный журнал вычислительной разведки и приложений 5.01 (2005): 21-35.
  13. ^ Чжан, Ци и Салли А. Голдман . «EM-DD: улучшенная техника многоэкземплярного обучения». Достижения в области нейронных систем обработки информации. (2001): 1073 – 80
  14. ^ Чен, Исинь и Джеймс З. Ван. «Категоризация изображений путем изучения и рассуждения о регионах». Журнал исследований машинного обучения 5 (2004): 913-939.
  15. ^ Эндрюс, Стюарт, Иоаннис Цочантаридис и Томас Хофманн. «Поддержка векторных машин для многоэкземплярного обучения». Достижения в области нейронных систем обработки информации (2003). стр. 561 - 658
  16. ^ Чжоу, Чжи-Хуа и Минь-Лин Чжан. «Нейронные сети для многоэкземплярного обучения». Материалы Международной конференции по интеллектуальным информационным технологиям, Пекин, Китай. (2002). стр. 455 - 459
  17. ^ Блокил, Хендрик, Дэвид Пейдж и Эшвин Шринивасан. «Многоэкземплярное древовидное обучение». Материалы 22-й международной конференции по машинному обучению. ACM, 2005. стр. 57–64.
  18. ^ Ауэр, Питер и Рональд Ортнер. «Улучшенный подход к множественному обучению». Машинное обучение: ECML 2004. Springer Berlin Heidelberg, 2004. 63–74.
  19. ^ Чен, Исинь; Би, Джинбо; Ван, JZ (1 декабря 2006 г.). «MILES: множественное обучение посредством выбора встроенного экземпляра». Транзакции IEEE по анализу шаблонов и машинному интеллекту . 28 (12): 1931–1947. дои : 10.1109/TPAMI.2006.248 . ISSN   0162-8828 . ПМИД   17108368 . S2CID   18137821 .
  20. ^ Чеплыгина Вероника; Налог, Дэвид М.Дж.; Луг, Марко (01 января 2015 г.). «Множественное обучение с различиями в сумках». Распознавание образов . 48 (1): 264–275. arXiv : 1309.5643 . Бибкод : 2015PatRe..48..264C . дои : 10.1016/j.patcog.2014.07.022 . S2CID   17606924 .
  21. ^ Ван, Цзюнь и Жан-Даниэль Цукер. «Решение проблемы с несколькими экземплярами: ленивый подход к обучению». ИКМЛ (2000): 1119-25.
  22. ^ Чжоу, Чжи-Хуа и Минь-Лин Чжан. «Многоэкземплярное обучение по нескольким меткам с применением классификации сцен». Достижения в области нейронных систем обработки информации. 2006. стр. 1609 - 16.
  23. ^ Рэй, Сумья и Дэвид Пейдж. «Множественная регрессия». ИКМЛ. Том. 1. 2001. С. 425 – 32.

Дальнейшее чтение

[ редактировать ]

Недавние обзоры литературы по МИГ включают:

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 1de134ed123df6b77dd5fe9b7861dede__1717995360
URL1:https://arc.ask3.ru/arc/aa/1d/de/1de134ed123df6b77dd5fe9b7861dede.html
Заголовок, (Title) документа по адресу, URL1:
Multiple instance learning - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)