~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ D2659E24CB9FFD79EE7ED26834CADB27__1715475600 ✰
Заголовок документа оригинал.:
✰ Foreground detection - Wikipedia ✰
Заголовок документа перевод.:
✰ Обнаружение переднего плана — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Foreground_detection ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/d2/27/d2659e24cb9ffd79ee7ed26834cadb27.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/d2/27/d2659e24cb9ffd79ee7ed26834cadb27__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 23:01:19 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 12 May 2024, at 04:00 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Обнаружение переднего плана — Википедия Jump to content

Обнаружение переднего плана

Из Википедии, бесплатной энциклопедии

Обнаружение переднего плана — одна из основных задач в области компьютерного зрения и обработки изображений , целью которой является обнаружение изменений в последовательности изображений. Вычитание фона — это любой метод, который позволяет извлечь передний план изображения для дальнейшей обработки (распознавание объектов и т. д.).

Многим приложениям не требуется знать все об эволюции движения в видеопоследовательности, им требуется только информация об изменениях в сцене, поскольку интересующими областями изображения являются объекты (люди, автомобили, текст и т. д.) на переднем плане. После этапа предварительной обработки изображения (который может включать в себя шумоподавление изображения , постобработку, такую ​​как морфология и т. д.) требуется локализация объекта, которая может использовать этот метод.

Обнаружение переднего плана отделяет передний план от фона на основе этих изменений, происходящих на переднем плане. Это набор методов, которые обычно анализируют видеопоследовательности, записанные в реальном времени с помощью стационарной камеры.

Описание [ править ]

Фоновое изображение (слева) и изображение переднего плана

Все методы обнаружения основаны на моделировании фона изображения, т.е. устанавливают фон и определяют, какие изменения происходят. Определить фон может быть очень сложно, если он содержит формы, тени и движущиеся объекты. При определении фона предполагается, что неподвижные объекты могут меняться по цвету и интенсивности с течением времени.

Сценарии применения этих методов, как правило, очень разнообразны. Могут быть очень разные последовательности, например, изображения с очень разным освещением, интерьерами, экстерьерами, качеством и шумом. Помимо обработки в реальном времени, системы должны иметь возможность адаптироваться к этим изменениям.

Очень хорошая система обнаружения переднего плана должна уметь:

  • Разработайте фоновую (оценочную) модель.
  • Будьте устойчивы к изменениям освещения, повторяющимся движениям (листья, волны, тени) и долгосрочным изменениям.

Вычитание фона [ править ]

Вычитание фона — широко используемый подход для обнаружения движущихся объектов на видео со статических камер. Смысл этого подхода заключается в обнаружении движущихся объектов по разнице между текущим кадром и опорным кадром, часто называемой «фоновым изображением» или «фоновой моделью». Вычитание фона обычно выполняется, если рассматриваемое изображение является частью видеопотока. Вычитание фона дает важные подсказки для многочисленных приложений в компьютерном зрении, например, для отслеживания наблюдения или оценки позы человека . [ нужна цитата ]

Вычитание фона обычно основано на гипотезе статического фона, которая часто неприменима в реальных условиях. В сценах в помещении отражения или анимированные изображения на экранах приводят к изменению фона. Точно так же из-за ветра, дождя или изменений освещенности, вызванных погодой, методы статического фона испытывают трудности со сценами на открытом воздухе. [1]

Временной средний фильтр [ править ]

Пример временного среднего фильтра

Временной усредняющий фильтр — это метод, предложенный в компании Velastin. Эта система оценивает модель фона на основе медианы всех пикселей ряда предыдущих изображений. Система использует буфер со значениями пикселей последних кадров для обновления медианы для каждого изображения.

Чтобы смоделировать фон, система исследует все изображения за определенный период времени, называемый временем обучения . В настоящее время мы показываем только изображения и на этот раз находим медиану, пиксель за пикселем, всех графиков в фоновом режиме.

После периода обучения для каждого нового кадра значение каждого пикселя сравнивается с входным значением ранее рассчитанных средств. Если входной пиксель находится в пределах порогового значения, считается, что пиксель соответствует модели фона, и его значение включается в pixbuf. В противном случае, если значение выходит за пределы этого порога, пиксель классифицируется как передний план и не включается в буфер.

Этот метод нельзя считать очень эффективным, поскольку он не имеет строгой статистической основы и требует буфера, требующего высоких вычислительных затрат.

Традиционные подходы

Надежный алгоритм вычитания фона должен быть в состоянии обрабатывать изменения освещения, повторяющиеся движения из-за беспорядка и долгосрочные изменения сцены. [2] В следующем анализе используется функция V ( x , y , t ) в качестве видеопоследовательности, где t — временное измерение, x и y — переменные местоположения пикселя. например, V (1,2,3) — интенсивность пикселя в (1,2) месте пикселя изображения в момент t = 3 в видеопоследовательности.

Использование разницы кадров [ править ]

Алгоритм обнаружения движения начинается с части сегментации, где сегментируются объекты переднего плана или движущиеся объекты. фон. Самый простой способ реализовать это — взять изображение в качестве фона и взять кадры, полученные на тот момент. t, обозначенное I(t), для сравнения с фоновым изображением, обозначенным B. Здесь, используя простые арифметические вычисления, мы можем сегментируйте объекты, просто используя технику вычитания изображений компьютерного зрения, что означает для каждого пикселя в I (t), возьмите значение пикселя, обозначаемое P[I(t)], и вычитаем его из соответствующих пикселей в той же позиции на фоновом изображении. обозначается как P[B].

В математическом уравнении это записывается как:

Предполагается, что фоном является кадр в момент времени t . Это разностное изображение будет показывать лишь некоторую интенсивность для местоположений пикселей, которые изменились в двух кадрах. Хотя мы, казалось бы, удалили фон, этот подход будет работать только в тех случаях, когда все пиксели переднего плана перемещаются, а все пиксели фона статичны. [2] Порог «Порог» устанавливается на это разностное изображение, чтобы улучшить вычитание (см. Пороговое значение изображения ):

Это означает, что интенсивности пикселей разностного изображения «порогируются» или фильтруются на основе значения «Порог». [3] Точность этого подхода зависит от скорости движения в сцене. Для более быстрых движений могут потребоваться более высокие пороги.

Средний фильтр [ править ]

Для расчета изображения, содержащего только фон, усредняется серия предшествующих изображений. Для расчета фонового изображения в момент t:

где N — количество предыдущих изображений, взятых для усреднения. Это усреднение относится к усреднению соответствующих пикселей на данных изображениях. N будет зависеть от скорости видео (количества изображений в секунду в видео) и количества движения в видео. [4] После расчета фона B ( x , y , t ) мы можем затем вычесть его из изображения V ( x , y , t ) в момент времени t = t и установить пороговое значение. Таким образом, передний план:

где Th – пороговое значение. Точно так же мы также можем использовать медиану вместо среднего значения в приведенном выше расчете B ( x , y , t ).

Использование глобальных и независимых от времени порогов (одного и того же значения Th для всех пикселей изображения) может ограничить точность двух вышеупомянутых подходов. [2]

Текущее среднее по Гауссу [ править ]

Для этого метода Wren et al. [5] предложить аппроксимацию гауссовской вероятностной функции плотности (pdf) на самых последних рамки. Чтобы избежать установки PDF-файла с нуля в каждый новый кадр. , вычисляется текущее (или кумулятивное) среднее значение.

PDF каждого пикселя характеризуется средним значением и дисперсия . Ниже приводится возможное начальное условие (при условии, что изначально каждый пиксель является фоновым):

где значение интенсивности пикселя в момент времени . Чтобы инициализировать дисперсию, мы можем, например, использовать дисперсию по x и y из небольшого окна вокруг каждого пикселя.

Обратите внимание, что фон может меняться со временем (например, из-за изменения освещения или нестатических фоновых объектов). Чтобы учесть это изменение, в каждом кадре , среднее значение и дисперсия каждого пикселя должны быть обновлены следующим образом:

Где определяет размер временного окна, которое используется для размещения PDF-файла (обычно ) и — евклидово расстояние между средним значением и значением пикселя.

Распределение Гаусса для каждого пикселя

Теперь мы можем классифицировать пиксель как фон, если его текущая интенсивность находится в пределах некоторого доверительного интервала среднего значения его распределения:

где параметр свободный порог (обычно ). Большее значение для позволяет создать более динамичный фон, в то время как меньший увеличивает вероятность перехода с заднего плана на передний за счет более тонких изменений.

В варианте метода распределение пикселей обновляется только в том случае, если они классифицируются как фоновые. Это сделано для того, чтобы вновь появившиеся объекты переднего плана не исчезали на заднем плане. Формула обновления среднего значения изменяется соответствующим образом:

где когда считается передним планом и в противном случае. Так когда , то есть, когда пиксель определяется как передний план, среднее значение останется прежним. В результате пиксель, однажды ставший передним планом, может снова стать фоновым только тогда, когда значение интенсивности приблизится к тому, которое было до перехода на передний план. Однако у этого метода есть несколько проблем: он работает только в том случае, если все пиксели изначально являются пикселями фона (или пиксели переднего плана помечены как таковые). Кроме того, он не может справиться с постепенным изменением фона: если пиксель отнесен к категории переднего плана в течение слишком длительного периода времени, интенсивность фона в этом месте могла измениться (поскольку изменилось освещение и т. д.). В результате, как только объект переднего плана исчезнет, ​​новая интенсивность фона может больше не распознаваться как таковая.

Модели фоновой смеси [ править ]

Метод смеси гауссиан моделирует каждый пиксель как смесь гауссиан и использует онлайн-аппроксимацию для обновления модели. В этом методе предполагается, что значения интенсивности каждого пикселя в видео можно смоделировать с использованием модели смеси Гаусса . [6] Простая эвристика определяет, какая интенсивность, скорее всего, является фоном. Тогда пиксели, которые им не соответствуют, называются пикселями переднего плана. Пиксели переднего плана группируются с помощью 2D- анализа связанных компонентов . [6]

В любой момент времени t конкретный пиксель ( ) история такова:

Эта история моделируется смесью K - распределений Гаусса:

где:

Во-первых, каждый пиксель характеризуется своей интенсивностью в цветовом пространстве RGB. Тогда вероятность наблюдения текущего пикселя в многомерном случае определяется следующей формулой:

Где K — количество распределений, ω — вес, связанный с i-м гауссианом в момент времени t и μ, Σ — среднее и стандартное отклонение указанного гауссиана соответственно.

После того, как инициализация параметров выполнена, можно выполнить первое обнаружение на переднем плане, а затем параметры обновляются. Первое гауссово распределение B, превышающее порог T , сохраняется для фонового распределения:

Считается, что другие распределения представляют собой распределение переднего плана. Потом, когда новый кадр доходы в разы , для каждого пикселя выполняется проверка соответствия. Пиксель соответствует распределению Гаусса, если расстояние Махаланобиса :

где k — постоянный порог, равный . Тогда могут произойти два случая:

Случай 1: найдено совпадение с одним из k гауссианов. Для соответствующего компонента обновление выполняется следующим образом: [7]

Пауэр и Шунис [3] использовали один и тот же алгоритм для сегментации переднего плана изображения:

Существенное приближение к дан кем-то : [8]

Случай 2: совпадений не найдено ни с одним из Гауссианы. В этом случае наименее вероятное распределение заменяется на новый с параметрами:

После выполнения обслуживания параметров можно выполнить обнаружение переднего плана и так далее. онлайн- аппроксимация K-средних Для обновления гауссиан используется . Многочисленные улучшения этого оригинального метода, разработанного Штауффером и Гримсоном. [6] были предложены, а полный обзор можно найти у Bouwmans et al. [7] Стандартный метод адаптивного фона — усреднение изображений по времени, создавая приближение фона, похожее на текущую статическую сцену, за исключением случаев, когда происходит движение.

Опросы [ править ]

Несколько опросов, касающихся категорий или подкатегорий моделей, можно найти следующим образом:

Приложения [ править ]

Более подробную информацию см. [19]

См. также [ править ]

Ссылки [ править ]

  1. ^ Пиккарди, М. (2004). «Методы вычитания фона: обзор» (PDF) . 2004 Международная конференция IEEE по системам, человеку и кибернетике . стр. 3099–3104. дои : 10.1109/icsmc.2004.1400815 . ISBN  0-7803-8567-5 . S2CID   12127129 .
  2. ^ Перейти обратно: а б с Тамерсой, Б. (29 сентября 2009 г.). «Вычитание фона - Конспекты лекций» (PDF) . Техасский университет в Остине.
  3. ^ Лу, Н.; Ван, Дж.; Ву, К.; Ян, Л. (февраль 2012 г.). Улучшенный метод обнаружения движения для наблюдения в реальном времени . CiteSeerX   10.1.1.149.33 .
  4. ^ Бенезет, Ю.; Джодоин, премьер-министр; Эмиль, Б.; Лоран, Х.; Розенбергер, К. (2008). «Обзор и оценка широко применяемых алгоритмов вычитания фона» (PDF) . 2008 19-я Международная конференция по распознаванию образов (PDF) . стр. 1–4. дои : 10.1109/ICPR.2008.4760998 . ISBN  978-1-4244-2174-9 . S2CID   15733287 .
  5. ^ Рен, ЧР; Азарбаеджани А.; Даррелл, Т.; Пентленд, AP (1997). «Pfinder: отслеживание человеческого тела в реальном времени» (PDF) . Транзакции IEEE по анализу шаблонов и машинному интеллекту . 19 (7): 780–785. дои : 10.1109/34.598236 . hdl : 1721.1/10652 .
  6. ^ Перейти обратно: а б с Стауффер, К.; Гримсон, WEL (1999). «Адаптивные модели фоновой смеси для отслеживания в реальном времени» (PDF) . Материалы конференции IEEE Computer Society 1999 года по компьютерному зрению и распознаванию образов . стр. 246–252. дои : 10.1109/CVPR.1999.784637 . ISBN  0-7695-0149-4 . S2CID   8195115 .
  7. ^ Перейти обратно: а б с Бауманс, Т.; Эль Баф, Ф.; Вачон, Б. (ноябрь 2008 г.). «Моделирование фона с использованием смеси гауссиан для обнаружения переднего плана – исследование» . Недавние патенты в области компьютерных наук . 1 (3): 219–237. CiteSeerX   10.1.1.324.22 . дои : 10.2174/2213275910801030219 .
  8. ^ Пауэр, П.; Шунис, Дж. (2002). «Понимание моделей фоновой смеси для сегментации переднего плана» (PDF) . Proceedings Image and Vision Computing, Новая Зеландия, 2002 г. стр. 267–271.
  9. ^ Бауманс, Тьерри (ноябрь 2009 г.). «Обучение подпространству для фонового моделирования: обзор» . Недавние патенты в области компьютерных наук . 2 (3): 223–234. дои : 10.2174/1874479610902030223 . S2CID   62697257 .
  10. ^ Чен, Швейцария (2009). Справочник по распознаванию образов и компьютерному зрению . стр. 181–199. дои : 10.1142/7297 . ISBN  978-981-4273-38-1 . S2CID   58410480 .
  11. ^ Бауманс, Тьерри (сентябрь 2011 г.). «Недавнее расширенное статистическое фоновое моделирование для обнаружения переднего плана: систематическое исследование» . Недавние патенты в области компьютерных наук . 4 (3): 147–176. дои : 10.2174/1874479611104030147 .
  12. ^ Бауманс, Тьерри (2012). «Вычитание фона для визуального наблюдения». Справочник по программным вычислениям для видеонаблюдения . Серия Чепмен и Холл / CRC по криптографии и сетевой безопасности. стр. 103–138. ISBN  978-1-4398-5684-0 .
  13. ^ Бауманс, Тьерри; Заза, Эль Хади (2014). «Надежный PCA через поиск основных компонентов: обзор сравнительной оценки в области видеонаблюдения». Компьютерное зрение и понимание изображений . 122 : 22–34. дои : 10.1016/j.cviu.2013.11.009 .
  14. ^ Васвани, Намрата; Бауманс, Тьерри; Джавед, Саджид; Нараянамурти, Пранит (2018). «Надежное обучение подпространства: надежный PCA, надежное отслеживание подпространства и надежное восстановление подпространства». Журнал обработки сигналов IEEE . 35 (4): 32–55. arXiv : 1711.09492 . Бибкод : 2018ISPM...35d..32V . дои : 10.1109/MSP.2018.2826566 . S2CID   3691367 .
  15. ^ Бауманс, Тьерри; Собрал, Эндрюс; Джавед, Саджид; Юнг, Сун Ки; Заза, Эль-Хади (2017). «Разложение на низкоранговые плюс аддитивные матрицы для разделения фона и переднего плана: обзор сравнительной оценки с крупномасштабным набором данных». Обзор компьютерных наук . 23 : 1–71. arXiv : 1511.01245 . дои : 10.1016/j.cosrev.2016.11.001 . S2CID   10420698 .
  16. ^ Васвани, Намрата; Бауманс, Тьерри; Джавед, Саджид; Нараянамурти, Пранит (2018). «Концепции глубоких нейронных сетей для вычитания фона: систематический обзор и сравнительная оценка». arXiv : 1811.05255 [ cs.CV ].
  17. ^ Бауманс, Т. (25 июля 2014 г.). «Традиционные подходы к моделированию фона для статических камер». Моделирование фона и обнаружение переднего плана для видеонаблюдения . ЦРК Пресс. ISBN  9781482205374 .
  18. ^ Бауманс, Т. (25 июля 2014 г.). «Последние подходы к моделированию фона для статических камер». Моделирование фона и обнаружение переднего плана для видеонаблюдения . ЦРК Пресс. ISBN  9781482205374 .
  19. ^ Бауманс, Т.; Гарсия-Гарсия, Б. (2019). «Вычитание фона в реальных приложениях: проблемы, текущие модели и будущие направления». arXiv : 1901.03577 [ cs.CV ].

Сравнения [ править ]

В литературе можно найти несколько сравнительных/оценочных статей:

Книги [ править ]

  • Т. Бауманс, Ф. Порикли, Б. Хорферлин, А. Вакавант, Справочник «Моделирование фона и обнаружение переднего плана для видеонаблюдения: традиционные и новейшие подходы, реализации, сравнительный анализ и оценка» , CRC Press, Taylor and Francisco Group, июнь 2014 г. (Для получения дополнительной информации: http://www.crcpress.com/product/isbn/9781482205374 ) .
  • Т. Бауманс, Н. Айбат и Э. Захза. Справочник по устойчивому разложению низкоранговой и разреженной матрицы: приложения для обработки изображений и видео , CRC Press, Taylor and Francisco Group, май 2016 г. (Для получения дополнительной информации: http://www.crcpress.com/product/isbn/9781498724623 )

Журналы [ править ]

Мастер-классы [ править ]

  • Семинар «Базовое обучение обнаружению и отслеживанию на основе RGB-видео» (RGBD 2017) совместно с ICIAP 2017. (Для получения дополнительной информации: http://rgbd2017.na.icar.cnr.it/ )
  • Семинар по моделированию и инициализации фона сцены (SBMI 2015) совместно с ICIAP 2015. (Для получения дополнительной информации: http://sbmi2015.na.icar.cnr.it/ )
  • Семинар IEEE Change Detection Workshop совместно с CVPR 2014. (Для получения дополнительной информации: http://www.changedetection.net/ )
  • Семинар по проблемам базовой модели (BMC 2012) совместно с ACCV 2012. (Для получения дополнительной информации: http://bmc.iut-auvergne.com/ )

Конкурсы [ править ]

Внешние ссылки [ править ]

Веб-сайты [ править ]

  • Веб-сайт вычитания фона

Веб -сайт вычитания фона (Т. Бауманс, Университет Ла-Рошели, Франция) содержит полный список ссылок в этой области, а также ссылки на доступные наборы данных и программное обеспечение.

Наборы данных [ править ]

Библиотеки [ править ]

  • ФонВычитательCNT

Библиотека BackgroundSubtractorCNT реализует очень быстрый и качественный алгоритм, написанный на C++ на базе OpenCV. Он ориентирован на оборудование с низкими характеристиками, но работает так же быстро на современных Linux и Windows. (Для получения дополнительной информации: https://github.com/sagi-z/BackgroundSubtractorCNT ).

  • Библиотека БГС

Библиотека BGS (А. Собрал, Университет Ла-Рошели, Франция) предоставляет среду C++ для выполнения алгоритмов вычитания фона. Код работает как в Windows, так и в Linux. На данный момент библиотека предлагает более 30 алгоритмов BGS. (Для получения дополнительной информации: https://github.com/andrewssobral/bgslibrary )

  • Библиотека LRS — низкоранговые и разреженные инструменты для фонового моделирования и вычитания в видео. LRSLibrary (А. Собрал, Университет Ла-Рошели, Франция) предоставляет набор низкоранговых и разреженных алгоритмов декомпозиции в MATLAB. Библиотека была разработана для сегментации движения в видео, но ее также можно использовать или адаптировать для решения других задач компьютерного зрения. В настоящее время LRSLibrary содержит более 100 матричных и тензорных алгоритмов. (Для получения дополнительной информации: https://github.com/andrewssobral/lrslibrary )
  • OpenCV — библиотека OpenCV предоставляет ряд алгоритмов сегментации фона и переднего плана .
Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: D2659E24CB9FFD79EE7ED26834CADB27__1715475600
URL1:https://en.wikipedia.org/wiki/Foreground_detection
Заголовок, (Title) документа по адресу, URL1:
Foreground detection - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)