Jump to content

Система классификаторов обучения

(Перенаправлено из системы классификаторов )
2D-визуализация правил LCS, обучающихся аппроксимации 3D-функции. Каждый синий эллипс представляет собой отдельное правило, охватывающее часть пространства решений. (Адаптировано из изображений, взятых из XCSF. [1] с разрешения Мартина Буца)

Системы классификаторов обучения , или LCS , представляют собой парадигму методов машинного обучения, основанных на правилах , которые сочетают в себе компонент открытия (например, обычно генетический алгоритм в эволюционных вычислениях ) с компонентом обучения (выполняющим обучение с учителем , обучение с подкреплением или обучение без учителя ). [2] Системы обучающихся классификаторов стремятся идентифицировать набор контекстно-зависимых правил, которые коллективно хранят и фрагментарно применяют знания, чтобы делать прогнозы (например, моделирование поведения , [3] классификация , [4] [5] интеллектуальный анализ данных , [5] [6] [7] регрессия , [8] аппроксимация функции , [9] или игровая стратегия ). Этот подход позволяет сложное пространство решений разбить на более мелкие и простые части для обучения с подкреплением, которое находится в рамках исследований искусственного интеллекта.

Основополагающие концепции, лежащие в основе обучающихся систем классификаторов, возникли в результате попыток смоделировать сложные адаптивные системы с использованием агентов на основе правил для формирования искусственной когнитивной системы (т. е. искусственного интеллекта ).

Методология

[ редактировать ]

Архитектура и компоненты данной системы классификаторов обучения могут быть весьма разнообразными. Полезно думать о LCS как о машине, состоящей из нескольких взаимодействующих компонентов. Компоненты могут быть добавлены или удалены, а существующие компоненты могут быть изменены или заменены в соответствии с требованиями данной проблемной области (например, алгоритмические строительные блоки) или чтобы сделать алгоритм достаточно гибким, чтобы функционировать во многих различных проблемных областях. В результате парадигма LCS может гибко применяться ко многим проблемным областям, требующим машинного обучения . Основные различия между реализациями LCS следующие: (1) архитектура в мичиганском стиле и архитектура в питтсбургском стиле; [10] (2) обучение с подкреплением и обучение под присмотром , (3) поэтапное обучение и пакетное обучение, (4) онлайн-обучение и офлайн-обучение , (5) фитнес, основанный на силе, и фитнес, основанный на точности, и (6) полное действие картографирование против картографирования лучших действий. Эти разделения не обязательно являются взаимоисключающими. Например, XCS, [11] Самый известный и наиболее изученный алгоритм LCS, разработанный в Мичиганском стиле, был разработан для обучения с подкреплением, но также может выполнять обучение с учителем, применяет постепенное обучение, которое может быть как онлайн, так и оффлайн, применяет приспособленность, основанную на точности, и стремится генерировать комплексное действие. картографирование.

Элементы общего алгоритма LCS

[ редактировать ]
Пошаговая схема, иллюстрирующая общий цикл обучения системы классификатора обучения в Мичиганском стиле, выполняющий контролируемое обучение.

Принимая во внимание, что LCS — это парадигма машинного обучения на генетической основе, а не конкретный метод, ниже описываются ключевые элементы общего современного (т. е. пост-XCS) алгоритма LCS. Для простоты давайте сосредоточимся на архитектуре в стиле Мичигана с контролируемым обучением. См. иллюстрации справа, демонстрирующие последовательные шаги, включенные в этот тип типовой LCS.

Окружающая среда является источником данных, на которых обучается LCS. Это может быть автономный ограниченный набор обучающих данных (характерный для задач интеллектуального анализа данных , классификации или регрессии) или последовательный онлайн-поток живых обучающих экземпляров. Предполагается, что каждый экземпляр обучения включает некоторое количество функций (также называемых атрибутами или независимыми переменными ) и одну конечную точку интереса (также называемую классом , действием , фенотипом , предсказанием или зависимой переменной ). Часть обучения LCS может включать выбор функций , поэтому не все функции в обучающих данных должны быть информативными. Набор значений признаков экземпляра обычно называют состоянием . Для простоты давайте предположим, что это пример проблемной области с логическими / двоичными функциями и логическим / двоичным классом. Для систем Мичиганского типа в каждом цикле обучения обучается один экземпляр из среды (т. е. постепенное обучение). Системы Питтсбургского типа выполняют пакетное обучение, при котором наборы правил оцениваются на каждой итерации по большей части или всем обучающим данным.

Правило/классификатор/популяция

[ редактировать ]

Правило — это контекстно-зависимая связь между значениями состояния и некоторым прогнозом. Правила обычно принимают форму выражения {IF:THEN} (например, { IF 'условие' THEN 'действие'} или, как более конкретный пример, {IF 'красный' AND 'восьмиугольник' THEN 'стоп-знак'} ). Критическая концепция как LCS, так и машинного обучения на основе правил заключается в том, что отдельное правило само по себе не является моделью, поскольку правило применимо только тогда, когда его условие удовлетворено. Думайте о правиле как о «локальной модели» пространства решений.

Правила могут быть представлены разными способами для обработки разных типов данных (например, двоичных, дискретных, порядковых, непрерывных). Для двоичных данных LCS традиционно применяет представление троичных правил (т. е. правила могут включать 0, 1 или «#» для каждого объекта в данных). Символ «не важно» (т. е. «#») служит подстановочным знаком в условии правила, позволяя правилам и системе в целом обобщать отношения между функциями и целевой конечной точкой, которые необходимо предсказать. Рассмотрим следующее правило (#1###0 ~ 1) (т.е. условие ~ действие). Это правило можно интерпретировать так: ЕСЛИ второй признак = 1 И шестой признак = 0, ТОГДА предсказание класса = 1. Мы бы сказали, что второй и шестой признак были указаны в этом правиле, а остальные были обобщены. Это правило и соответствующий прогноз применимы к экземпляру только тогда, когда экземпляр удовлетворяет условию правила. Чаще это называют соответствием. В LCS Мичиганского типа каждое правило имеет собственную пригодность, а также ряд других связанных с ним параметров правил, которые могут описывать количество существующих копий этого правила (т. число ), возраст правила, его точность или точность прогнозов вознаграждений, а также другие описательные или экспериментальные статистические данные. Правило вместе с его параметрами часто называют классификатором . В системах Мичиганского типа классификаторы содержатся в совокупности [ P] с заданным пользователем максимальным количеством классификаторов. В отличие от большинства алгоритмов стохастического поиска (например, эволюционных алгоритмов ), популяции LCS изначально пусты (т. е. нет необходимости случайной инициализации совокупности правил). Вместо этого классификаторы будут первоначально представлены населению с помощью механизма покрытия.

В любой LCS обученная модель представляет собой набор правил/классификаторов, а не какое-то отдельное правило/классификатор. В LCS в мичиганском стиле вся обученная (и, возможно, уплотненная) совокупность классификаторов формирует модель прогнозирования.

Соответствие

[ редактировать ]

Одним из наиболее важных и зачастую трудоемких элементов LCS является процесс сопоставления. На первом этапе цикла обучения LCS берется один экземпляр обучения из среды и передается в [P], где и происходит сопоставление. На втором этапе каждое правило в [P] теперь сравнивается с обучающим экземпляром, чтобы увидеть, какие правила совпадают (т. е. являются контекстуально релевантными для текущего экземпляра). На третьем этапе все правила сопоставления перемещаются в набор сопоставлений [M]. Правило соответствует обучающему экземпляру, если все значения признаков, указанные в условии правила, эквивалентны соответствующему значению признака в обучающем экземпляре. Например, если предположить, что обучающий экземпляр равен (001001 ~ 0), эти правила будут соответствовать: (###0## ~ 0), (00###1 ~ 0), (#01001 ~ 1), но эти правила не будет (1##### ~ 0), (000##1 ~ 0), (#0#1#0 ~ 1). Обратите внимание, что при сопоставлении конечная точка/действие, указанное правилом, не учитывается. В результате набор совпадений может содержать классификаторы, предлагающие конфликтующие действия. На четвертом этапе, поскольку мы проводим обучение с учителем, [M] делится на правильный набор [C] и неправильный набор [I]. Правило сопоставления попадает в правильный набор, если оно предлагает правильное действие (на основе известного действия обучающего экземпляра), в противном случае оно переходит в [I]. При обучении с подкреплением LCS вместо этого будет сформирован набор действий [A], поскольку правильное действие неизвестно.

Покрытие

[ редактировать ]

На этом этапе цикла обучения, если ни один классификатор не попал ни в [M], ни в [C] (как это было бы в случае, когда совокупность вначале пуста), применяется механизм покрытия (пятый шаг). Покрытие — это форма онлайн-интеллектуальной инициализации популяции . Покрытие случайным образом генерирует правило, соответствующее текущему экземпляру обучения (а в случае обучения с учителем это правило также генерируется с правильным действием. Предполагая, что экземпляр обучения равен (001001 ~ 0), покрытие может генерировать любое из следующих правил: (#0#0## ~ 0), (001001 ~ 0), (#010## ~ 0). Покрытие не только гарантирует, что в каждом цикле обучения существует хотя бы одно правильное правило соответствия в [C], но и то, что любое правило, инициализированное в совокупности, будет соответствовать хотя бы одному обучающему экземпляру. Это не позволяет LCS исследовать пространство поиска правил, которые не соответствуют ни одному обучающему экземпляру.

Обновление параметров/присвоение кредитов/обучение

[ редактировать ]

На шестом этапе параметры любого правила в [M] обновляются, чтобы отразить новый опыт, полученный в текущем обучающем экземпляре. В зависимости от алгоритма LCS на этом этапе может произойти ряд обновлений. Для контролируемого обучения мы можем просто обновить точность/ошибку правила. Точность/ошибка правила отличается от точности/ошибки модели, поскольку она рассчитывается не по всем обучающим данным, а только по всем экземплярам, ​​которым они соответствуют. Точность правила рассчитывается путем деления количества раз, когда правило находилось в правильном наборе [C], на количество раз, когда оно было в совпадающем наборе [M]. Точность правил можно рассматривать как «локальную точность». Здесь также обновляется пригодность правил, которая обычно рассчитывается как функция точности правил. Концепция приспособленности взята непосредственно из классических генетических алгоритмов . Имейте в виду, что существует множество вариантов того, как LCS обновляет параметры для выполнения присвоения кредитов и обучения.

Подчинение

[ редактировать ]

На седьмом этапе включения обычно применяется механизм . Включение — это явный механизм обобщения, который объединяет классификаторы, охватывающие избыточные части проблемного пространства. Включающий классификатор эффективно поглощает включаемый классификатор (и его количество увеличивается). Это может произойти только тогда, когда объединяющий классификатор является более общим, столь же точным и охватывает все проблемное пространство классификатора, который он включает.

Открытие правил/генетический алгоритм

[ редактировать ]

На восьмом этапе LCS применяет элитарный генетический алгоритм (ГА), который выберет два родительских классификатора на основе приспособленности (выживает наиболее приспособленный). Родители выбираются из [C], обычно с использованием турнирного отбора . В некоторых системах применяется выбор с помощью колеса рулетки или детерминированный отбор, а родительские правила выбираются по-разному: либо из [P] - панмиктический выбор, либо из [M]). Операторы скрещивания и мутации теперь применяются для создания двух новых дочерних правил. На этом этапе родительские и дочерние правила возвращаются в [P]. LCS Генетический алгоритм является весьма элитарным, поскольку на каждой итерации обучения сохраняется подавляющее большинство популяции. В качестве альтернативы обнаружение правил может быть выполнено каким-либо другим методом, например, алгоритмом оценки распределения , но ГА является, безусловно, наиболее распространенным подходом. Эволюционные алгоритмы, такие как GA, используют стохастический поиск, что делает LCS стохастическим алгоритмом. LCS стремится грамотно исследовать пространство поиска, но не выполняет исчерпывающий поиск комбинаций правил и не гарантирует сходимости к оптимальному решению.

Удаление

[ редактировать ]

Последним шагом в общем цикле обучения LCS является поддержание максимального размера популяции. Механизм удаления выберет классификаторы для удаления (обычно с использованием выбора колеса рулетки). Вероятность того, что классификатор будет выбран для удаления, обратно пропорциональна его пригодности. Когда классификатор выбран для удаления, его параметр нумерации уменьшается на единицу. Когда численность классификатора снижается до нуля, он полностью удаляется из совокупности.

Обучение

[ редактировать ]

LCS будет циклически повторять эти шаги в течение определенного количества итераций обучения, заданного пользователем, или до тех пор, пока не будут выполнены определенные пользователем критерии завершения. Для онлайн-обучения LCS будет получать из среды совершенно новый экземпляр обучения на каждой итерации. Для автономного обучения LCS будет перебирать ограниченный набор обучающих данных. Как только он достигнет последнего экземпляра в наборе данных, он вернется к первому экземпляру и снова пройдет через набор данных.

Сжатие правил

[ редактировать ]

После завершения обучения совокупность правил неизбежно будет содержать некоторые плохие, избыточные и неопытные правила. Обычно применяют правило уплотнения или эвристику конденсации на этапе постобработки . Полученная в результате компактная совокупность правил готова к применению в качестве модели прогнозирования (например, для прогнозирования экземпляров тестирования) и/или к интерпретации для обнаружения знаний .

Независимо от того, применялось ли сжатие правил или нет, выходные данные алгоритма LCS представляют собой совокупность классификаторов, которые можно применять для прогнозирования ранее невидимых экземпляров. Механизм прогнозирования сам по себе не является частью контролируемого цикла обучения LCS, однако он будет играть важную роль в цикле обучения LCS с подкреплением. Сейчас мы рассмотрим, как можно применить механизм прогнозирования для прогнозирования проверочных данных. При составлении прогнозов компоненты обучения LCS деактивируются, чтобы популяция не продолжала учиться на входящих данных тестирования. Экземпляр теста передается в [P], где набор совпадений [M] формируется как обычно. На этом этапе набор совпадений по-другому передается в массив прогнозов. Правила в наборе матчей могут предсказывать разные действия, поэтому применяется схема голосования. В простой схеме голосования побеждает действие, набравшее наибольшее количество поддерживающих «голосов» из правил сопоставления, и становится выбранным прогнозом. Не все правила получают равное голосование. Скорее, сила голосов за одно правило обычно пропорциональна его многочисленности и пригодности. Эта схема голосования и характер хранения знаний LCS предполагают, что алгоритмы LCS неявно Учащиеся ансамбля .

Интерпретация

[ редактировать ]

Отдельные правила LCS обычно представляют собой удобочитаемое выражение IF:THEN. Правила, составляющие модель прогнозирования LCS, можно ранжировать по различным параметрам и проверять вручную. Также были предложены глобальные стратегии по поиску знаний с использованием статистических и графических данных. [12] [13] Что касается других передовых подходов машинного обучения, таких как искусственные нейронные сети , случайные леса или генетическое программирование , системы обучающихся классификаторов особенно хорошо подходят для задач, требующих интерпретируемых решений.

Ранние годы

[ редактировать ]

Джон Генри Холланд был наиболее известен своей работой по популяризации генетических алгоритмов (ГА) благодаря своей новаторской книге «Адаптация в естественных и искусственных системах». [14] в 1975 году и его формализация теоремы Холланда о схеме . В 1976 году Холланд концептуализировал расширение концепции ГА до того, что он назвал «когнитивной системой». [15] и представил первое подробное описание того, что впоследствии стало известно как первая система классификаторов обучения, в статье «Когнитивные системы, основанные на адаптивных алгоритмах». [16] Эта первая система, названная Cognitive System One (CS-1), была задумана как инструмент моделирования, предназначенный для моделирования реальной системы (т. е. окружающей среды ) с неизвестной базовой динамикой с использованием совокупности понятных человеку правил. Цель заключалась в том, чтобы создать набор правил для выполнения онлайн-машинного обучения для адаптации к окружающей среде на основе нечастой выплаты/вознаграждения (т. е. обучения с подкреплением) и применить эти правила для создания поведения, соответствующего реальной системе. Эта ранняя, амбициозная реализация позже была сочтена слишком сложной и привела к противоречивым результатам. [2] [17]

Начиная с 1980 года Кеннет де Йонг и его ученик Стивен Смит применили другой подход к машинному обучению на основе правил с помощью (LS-1) , где обучение рассматривалось как процесс автономной оптимизации, а не как процесс онлайн-адаптации. [18] [19] [20] Этот новый подход был больше похож на стандартный генетический алгоритм, но развивал независимые наборы правил. С тех пор методы LCS, вдохновленные структурой онлайн-обучения, представленной Голландией в Мичиганском университете, стали называться LCS в мичиганском стиле , а методы, вдохновленные Смитом и Де Йонгом в Питтсбургском университете, стали называться LCS в питтсбургском стиле. ЛКС . [2] [17] В 1986 году Голландия разработала то, что на следующее десятилетие будет считаться стандартным LCS в мичиганском стиле. [21]

Другие важные концепции, возникшие в первые дни исследований LCS, включали (1) формализацию алгоритма бригады ведер (BBA) для присвоения кредитов/обучения; [22] (2) выбор родительских правил из общей «экологической ниши» (т. е. набора совпадений [M]), а не из всей совокупности [P], [23] (3) покрытие , впервые представленное как оператор создания , [24] (4) формализация множества действий [A], [24] (5) упрощенная архитектура алгоритма, [24] (6) силовая подготовка , [21] (7) рассмотрение задач одноэтапного или контролируемого обучения [25] и введение правильного набора [С], [26] (8) пригодность на основе точности [27] (9) сочетание нечеткой логики с LCS [28] (которые позже породили ряд нечетких алгоритмов LCS ), (10) поощрение длинных цепочек действий и иерархий по умолчанию для повышения производительности при решении многоэтапных задач, [29] [30] [31] (11) изучение скрытого обучения (которое позже вдохновило на создание новой ветви систем упреждающих классификаторов (ACS) [32] ) и (12) внедрение первой методики присвоения кредитов, подобной Q-learning . [33] Хотя не все эти концепции применяются в современных алгоритмах LCS, каждая из них стала вехой в развитии парадигмы LCS.

Революция

[ редактировать ]

Интерес к изучению систем классификаторов возобновился в середине 1990-х годов во многом благодаря двум событиям; разработка Q-Learning алгоритма [34] для обучения с подкреплением и введения Стюартом Уилсоном значительно упрощенных архитектур LCS в мичиганском стиле. [11] [35] Вильсона (ZCS) Система классификаторов нулевого уровня [35] сосредоточен на повышении понятности алгоритмов на основе стандартной реализации LCS Голландии. [21] Частично это было сделано за счет удаления правил торгов и внутреннего списка сообщений, необходимых для первоначального присвоения кредитов BBA, и замены их гибридной стратегией BBA/ Q-Learning . ZCS продемонстрировал, что гораздо более простая архитектура LCS может работать так же хорошо, как и исходные, более сложные реализации. Однако ZCS по-прежнему страдал от недостатков производительности, включая распространение слишком общих классификаторов.

В 1995 году Уилсон опубликовал свою знаковую статью «Пригодность классификатора, основанную на точности», в которой он представил систему классификаторов XCS . [11] XCS взяла упрощенную архитектуру ZCS и добавила пригодность на основе точности, нишевый GA (действующий в наборе действий [A]), явный механизм обобщения, называемый субсуммированием , и адаптацию присвоения кредитов Q-Learning . XCS был популяризирован благодаря своей способности достигать оптимальной производительности при разработке точных и максимально общих классификаторов, а также впечатляющей гибкости решения задач (способность выполнять как обучение с подкреплением, так и обучение с учителем ). Позже XCS стал самым известным и наиболее изученным алгоритмом LCS и определил новое семейство основанных на точности LCS . ZCS альтернативно стал синонимом LCS, основанного на силе . XCS также важен, поскольку он успешно заполнил разрыв между LCS и областью обучения с подкреплением . После успеха XCS, LCS позже были описаны как системы обучения с подкреплением, наделенные способностью обобщения. [36] Обучение с подкреплением обычно направлено на изучение функции ценности, которая отображает полное представление пространства состояний/действий. Точно так же конструкция XCS заставляет ее формировать всеохватывающее и точное представление проблемного пространства (т. е. полную карту ), а не сосредотачиваться на нишах с высокой отдачей в окружающей среде (как это было в случае с LCS, основанным на силе). Концептуально полные карты отражают не только то, что вам следует делать или что правильно, но и то, что вам не следует делать или что неправильно. Иными словами, большинство LCS, основанных на сильных сторонах, или LCS исключительно с контролируемым обучением, ищут набор правил эффективных обобщений в форме наилучшей карты действий (или частичной карты ). Сравнение силовой и точной подготовленности и карт полных и лучших действий с тех пор было изучено более подробно. [37] [38]

По следам XCS

[ редактировать ]

XCS вдохновил на разработку совершенно нового поколения алгоритмов и приложений LCS. В 1995 году Конгдон первым применил LCS для реальных эпидемиологических исследований заболеваний. [39] за ним внимательно следил Холмс, разработавший BOOLE++ , [40] ЭпиКС , [41] и позже EpiXCS [42] по эпидемиологической классификации. Эти ранние работы вдохновили более поздний интерес к применению алгоритмов LCS для решения сложных и крупномасштабных задач интеллектуального анализа данных , воплощенных в приложениях биоинформатики . В 1998 году Штольцманн представил системы упреждающих классификаторов (ACS) , которые включали правила в форме «условие-действие-эффект», а не классическое представление «условие-действие». [32] ACS была разработана для прогнозирования перцептивных последствий действия во всех возможных ситуациях в окружающей среде. Другими словами, система развивает модель, которая определяет не только то, что делать в конкретной ситуации, но также предоставляет информацию о том, что произойдет после выполнения определенного действия. Это семейство алгоритмов LCS лучше всего подходит для многоэтапных задач, планирования, ускорения обучения или устранения неоднозначности перцептивного наложения (т. е. когда одно и то же наблюдение получается в разных состояниях, но требует разных действий). Позже Бутц продолжил развитие этого предвосхищающего семейства LCS, разработав ряд улучшений исходного метода. [43] В 2002 году Уилсон представил XCSF , добавив вычисляемое действие для выполнения аппроксимации функции. [44] В 2003 году Бернадо-Мансилья представил систему контролируемой классификации (UCS) , которая специализировала алгоритм XCS для задач контролируемого обучения , одношаговых задач и формирования наилучшего набора действий. В UCS отказались от стратегии обучения с подкреплением в пользу простых, основанных на точности правил соответствия, а также этапов обучения/использования, характерных для многих методов обучения с подкреплением. Булл представил простую систему LCS, основанную на точности (YCS). [45] и простая система минимальной классификации LCS (MCS), основанная на силе. [46] для лучшего теоретического понимания структуры LCS. Bacardit представила GAssist [47] и БиоХЭЛ , [48] LCS питтсбургского типа, предназначенные для интеллектуального анализа данных и масштабируемости до больших наборов данных в приложениях биоинформатики . В 2008 году Другович опубликовал книгу под названием «Проектирование и анализ обучающихся систем классификаторов», включающую некоторые теоретические исследования алгоритмов LCS. [49] Батц представил первую визуализацию онлайн-обучения по правилам в графическом интерфейсе для XCSF. [1] (см. изображение вверху страницы). Урбанович расширил структуру UCS и представил ExSTraCS, специально предназначенную для контролируемого обучения в проблемных областях с большим количеством проблем (например, эпидемиологии и биоинформатики). [50] ExSTraCS интегрировала (1) экспертные знания для управления покрытием и генетическим алгоритмом для выявления важных функций данных, [51] (2) форма долговременной памяти, называемая отслеживанием атрибутов, [52] обеспечивающее более эффективное обучение и характеристику шаблонов разнородных данных, а также (3) гибкое представление правил, подобное представлению смешанного дискретно-непрерывного списка атрибутов Bacardit. [53] И Бакардит, и Урбанович исследовали стратегии статистики и визуализации для интерпретации правил LCS и обнаружения знаний для интеллектуального анализа данных. [12] [13] Браун и Икбал исследовали концепцию повторного использования строительных блоков в виде фрагментов кода и первыми решили задачу тестирования 135-битного мультиплексора, сначала изучив полезные строительные блоки на основе более простых задач мультиплексора. [54] ExSTraCS 2.0 был позже представлен для улучшения масштабируемости LCS в мичиганском стиле, впервые успешно решая задачу тестирования 135-битного мультиплексора напрямую. [5] Проблема n-битного мультиплексора весьма эпистатична и неоднородна , что делает ее очень сложной задачей машинного обучения .

Варианты

[ редактировать ]

Система классификаторов обучения в Мичиганском стиле

[ редактировать ]

LCS Мичиганского типа характеризуются совокупностью правил, в которой генетический алгоритм работает на уровне отдельных правил, а решение представлено всей совокупностью правил. Системы Мичиганского типа также обучаются постепенно, что позволяет им выполнять как обучение с подкреплением, так и обучение с учителем, а также онлайн- и оффлайн-обучение. Преимущество систем Мичиганского типа заключается в том, что они применимы к большему числу проблемных областей, а также обладают уникальными преимуществами поэтапного обучения.

Система классификаторов обучения в Питтсбургском стиле

[ редактировать ]

LCS питтсбургского типа характеризуются совокупностью наборов правил переменной длины, где каждый набор правил является потенциальным решением. Генетический алгоритм обычно работает на уровне всего набора правил. Системы Питтсбургского типа также могут уникальным образом создавать упорядоченные списки правил, а также использовать правила по умолчанию. Эти системы имеют естественное преимущество, заключающееся в том, что они идентифицируют меньшие наборы правил, что делает их более интерпретируемыми при проверке правил вручную.

Гибридные системы

[ редактировать ]

Также были предложены системы, которые стремятся объединить ключевые сильные стороны обеих систем.

Преимущества

[ редактировать ]
  • Адаптивность: они могут адаптироваться к меняющейся среде в случае онлайн-обучения.
  • Отсутствие моделей: они делают ограниченные предположения об окружающей среде или о закономерностях связи в данных.
    • Они могут моделировать сложные, эпистатические, гетерогенные или распределенные базовые модели, не полагаясь на предварительные знания.
    • Они не делают никаких предположений о количестве прогнозирующих и непрогностических признаков в данных.
  • Учащийся по ансамблю: к данному случаю не применяется ни одна модель, которая бы универсально обеспечивала прогноз. Вместо этого соответствующий и часто противоречивый набор правил способствует «голосованию», которое можно интерпретировать как нечеткое предсказание.
  • Стохастический обучающийся: недетерминированное обучение выгодно в крупномасштабных задачах или задачах высокой сложности, где детерминированное или исчерпывающее обучение становится неразрешимым.
  • Неявно многоцелевой: правила развиваются в сторону точности под неявным и явным давлением, способствующим максимальной общности/простоте. Это неявное давление обобщения уникально для LCS. По сути, в матчевых сетах будут чаще появляться более общие правила. В свою очередь, у них появляется более частая возможность быть выбранными в качестве родителей и передать свои более общие (геномы) потомкам правила.
  • Интерпретируемость: в интересах интеллектуального анализа данных и обнаружения знаний отдельные правила LCS являются логическими и могут быть преобразованы в интерпретируемые человеком операторы IF:THEN. Также были внедрены эффективные стратегии, позволяющие обнаруживать глобальные знания, выявляя важные особенности и закономерности ассоциаций среди совокупности правил в целом. [12]
  • Гибкое приложение
    • Одно- или многоэтапные проблемы
    • Обучение под присмотром, с подкреплением или без присмотра
    • Бинарный класс и многоклассовая классификация
    • Регрессия
    • Дискретные или непрерывные функции (или сочетание обоих типов)
    • Чистые или шумные проблемные области
    • Сбалансированные или несбалансированные наборы данных.
    • Учитывает недостающие данные (т. е. отсутствующие значения признаков в обучающих экземплярах).

Недостатки

[ редактировать ]
  • Ограниченная доступность программного обеспечения. Существует ограниченное количество доступных реализаций LCS с открытым исходным кодом, и еще меньше тех, которые разработаны так, чтобы быть удобными для пользователя или доступными для специалистов по машинному обучению.
  • Интерпретация. Хотя алгоритмы LCS, безусловно, более интерпретируемы, чем некоторые продвинутые программы машинного обучения, пользователи должны интерпретировать набор правил (иногда большие наборы правил, чтобы понять модель LCS). Методы уплотнения правил и стратегии интерпретации остаются областью активных исследований.
  • Теория/доказательства сходимости: За алгоритмами LCS стоит относительно небольшой объем теоретических работ. Вероятно, это связано с их относительной алгоритмической сложностью (применением ряда взаимодействующих компонентов), а также их стохастической природой.
  • Переобучение. Как и любое машинное обучение, LCS может пострадать от переоснащения, несмотря на неявное и явное давление обобщения.
  • Параметры запуска: LCS часто имеет множество параметров запуска, которые необходимо учитывать/оптимизировать. Как правило, для большинства параметров можно оставить значения по умолчанию, определенные сообществом, за исключением двух критических параметров: максимального размера совокупности правил и максимального количества итераций обучения. Оптимизация этих параметров, вероятно, будет во многом зависеть от проблемы.
  • Известность: несмотря на свой возраст, алгоритмы LCS до сих пор не получили широкой известности даже в сообществах машинного обучения. В результате алгоритмы LCS редко рассматриваются по сравнению с другими признанными подходами машинного обучения. Вероятно, это связано со следующими факторами: (1) LCS — это относительно сложный алгоритмический подход, (2) LCS, моделирование на основе правил — это другая парадигма моделирования, чем почти все другие подходы машинного обучения. (3) Реализации программного обеспечения LCS не так распространены.
  • Вычислительно дорогостоящие: хотя алгоритмы LCS, безусловно, более осуществимы, чем некоторые исчерпывающие подходы, они могут быть дорогостоящими в вычислительном отношении. Для простых задач линейного обучения нет необходимости применять LCS. Алгоритмы LCS лучше всего подходят для сложных проблемных пространств или проблемных пространств, в которых имеется мало предварительных знаний.

Проблемные области

[ редактировать ]
  • Адаптивное управление
  • Интеллектуальный анализ данных
  • Инженерное проектирование
  • Выбор функции
  • Аппроксимация функции
  • Игра-игра
  • Классификация изображений
  • Обработка знаний
  • Медицинский диагноз
  • Моделирование
  • Навигация
  • Оптимизация
  • Прогноз
  • Запрос
  • Робототехника
  • Маршрутизация
  • Правило-индукция
  • Планирование
  • Стратегия

Терминология

[ редактировать ]

Название «Система обучающих классификаторов (LCS)» немного вводит в заблуждение, поскольку существует множество алгоритмов машинного обучения , которые «учатся классифицировать» (например, деревья решений , искусственные нейронные сети ), но не являются LCS. Термин «машинное обучение на основе правил ( RBML )» полезен, поскольку он более четко отражает основной «основанный на правилах» компонент этих систем, но он также обобщает методы, которые не считаются LCS (например, обучение правилам ассоциации). или искусственные иммунные системы ). Более общие термины, такие как «машинное обучение на основе генетики» и даже «генетический алгоритм». [39] также применялись для обозначения того, что более характерно было бы определить как систему классификаторов обучения. Из-за их сходства с генетическими алгоритмами системы обучающихся классификаторов питтсбургского типа иногда в целом называют «генетическими алгоритмами». Помимо этого, некоторые алгоритмы LCS или тесно связанные с ними методы называются «когнитивными системами». [16] «адаптивные агенты», « производственные системы » или, в общем, «система классификаторов». [55] [56] Такое различие в терминологии вносит некоторую путаницу в этой области.

Вплоть до 2000-х годов почти все методы системы обучающих классификаторов разрабатывались с учетом проблем обучения с подкреплением. В результате термин «система обучающихся классификаторов» обычно определялся как комбинация обучения с подкреплением «методом проб и ошибок» с глобальным поиском генетического алгоритма. Интерес к приложениям обучения с учителем и даже к обучению без учителя с тех пор расширил использование и определение этого термина.

См. также

[ редактировать ]
  1. ^ Перейти обратно: а б Стальф, Патрик О.; Бутц, Мартин В. (01 февраля 2010 г.). «JavaXCSF: Система классификаторов обучения XCSF на Java». SIGEVOlution . 4 (3): 16–19. дои : 10.1145/1731888.1731890 . ISSN   1931-8499 . S2CID   16861908 .
  2. ^ Перейти обратно: а б с Урбанович, Райан Дж.; Мур, Джейсон Х. (22 сентября 2009 г.). «Изучение систем классификаторов: полное введение, обзор и дорожная карта» . Журнал искусственной эволюции и приложений . 2009 : 1–25. дои : 10.1155/2009/736398 . ISSN   1687-6229 .
  3. ^ Дориго, Марко (1995). «Alecsys и AutonoMouse: учимся управлять настоящим роботом с помощью распределенных систем классификаторов» . Машинное обучение . 19 (3): 209–240. дои : 10.1007/BF00996270 . ISSN   0885-6125 .
  4. ^ Бернадо-Мансилья, Эстер; Гаррелл-Гю, Хосеп М. (1 сентября 2003 г.). «Системы классификаторов обучения, основанные на точности: модели, анализ и приложения к задачам классификации». Эволюционные вычисления . 11 (3): 209–238. дои : 10.1162/106365603322365289 . ISSN   1063-6560 . ПМИД   14558911 . S2CID   9086149 .
  5. ^ Перейти обратно: а б с Урбанович, Райан Дж.; Мур, Джейсон Х. (3 апреля 2015 г.). «ExSTraCS 2.0: описание и оценка масштабируемой системы классификаторов обучения» . Эволюционный интеллект . 8 (2–3): 89–116. дои : 10.1007/s12065-015-0128-8 . ISSN   1864-5909 . ПМЦ   4583133 . ПМИД   26417393 .
  6. ^ Бернадо, Эстер; Льора, Ксавьер; Гаррелл, Хосеп М. (7 июля 2001 г.). «XCS и GALE: сравнительное исследование двух обучающихся систем классификаторов при интеллектуальном анализе данных». В Ланци — Пьер Лука; Штольцманн, Вольфганг; Уилсон, Стюарт В. (ред.). Достижения в области изучения систем классификаторов . Конспекты лекций по информатике. Том. 2321. Шпрингер Берлин Гейдельберг. стр. 115–132 . дои : 10.1007/3-540-48104-4_8 . ISBN  9783540437932 .
  7. ^ Бакардит, Жауме; Бутц, Мартин В. (1 января 2007 г.). «Интеллектуальный анализ данных в системах обучающих классификаторов: сравнение XCS с GAssist». Ин Ковач, Тим; Льора, Ксавьер; Такадама, Кейки; Ланци, Пьер Лука; Штольцманн, Вольфганг; Уилсон, Стюарт В. (ред.). Изучение систем классификаторов . Конспекты лекций по информатике. Том. 4399. Шпрингер Берлин Гейдельберг. стр. 282–290 . CiteSeerX   10.1.1.553.4679 . дои : 10.1007/978-3-540-71231-2_19 . ISBN  9783540712305 .
  8. ^ Урбанович, Райан; Рамананд, Ниранджан; Мур, Джейсон (01 января 2015 г.). «Непрерывный анализ данных конечных точек с помощью ExSTraCS». Материалы сопутствующей публикации Ежегодной конференции по генетическим и эволюционным вычислениям 2015 года . GECCO Companion '15. Нью-Йорк, штат Нью-Йорк, США: ACM. стр. 1029–1036. дои : 10.1145/2739482.2768453 . ISBN  9781450334884 . S2CID   11908241 .
  9. ^ Бутц, М.В.; Ланци, Польша; Уилсон, SW (01 июня 2008 г.). «Приближение функций с помощью XCS: гиперэллипсоидальные условия, рекурсивный метод наименьших квадратов и уплотнение». Транзакции IEEE в эволюционных вычислениях . 12 (3): 355–376. дои : 10.1109/TEVC.2007.903551 . ISSN   1089-778X . S2CID   8861046 .
  10. ^ Знакомство с машинным обучением на основе правил: практическое руководство , Райан Дж. Урбанович и Уилл Браун, см. стр. 72-73, посвященный архитектуре в мичиганском стиле и архитектуре в питтсбургском стиле.
  11. ^ Перейти обратно: а б с Уилсон, Стюарт В. (1 июня 1995 г.). «Пригодность классификатора на основе точности». Эвол. Вычислить . 3 (2): 149–175. CiteSeerX   10.1.1.363.2210 . дои : 10.1162/evco.1995.3.2.149 . ISSN   1063-6560 . S2CID   18341635 .
  12. ^ Перейти обратно: а б с Урбанович, Р.Дж.; Гранизо-Маккензи, А.; Мур, Дж. Х. (1 ноября 2012 г.). «Конвейер анализа со статистическим и визуальным обнаружением знаний для систем классификаторов обучения в стиле Мичигана» . Журнал IEEE Computational Intelligence . 7 (4): 35–45. дои : 10.1109/MCI.2012.2215124 . ISSN   1556-603X . ПМК   4244006 . ПМИД   25431544 .
  13. ^ Перейти обратно: а б Бакардит, Жауме; Льора, Ксавье (2013). «Крупномасштабный интеллектуальный анализ данных с использованием машинного обучения на основе генетики». Междисциплинарные обзоры Wiley: интеллектуальный анализ данных и обнаружение знаний . 3 (1): 37–61. дои : 10.1002/widm.1078 . S2CID   43062613 .
  14. ^ Холланд, Джон (1975). Адаптация в естественных и искусственных системах: вводный анализ с приложениями к биологии, управлению и искусственному интеллекту . Мичиган Пресс. ISBN  9780262581110 .
  15. ^ Холланд Дж. Х. (1976) Адаптация. В: Розен Р., Снелл Ф. (ред.) Прогресс в теоретической биологии, том 4. Academic Press, Нью-Йорк, стр. 263–293.
  16. ^ Перейти обратно: а б Холланд Дж. Х., Рейтман Дж. С. (1978) Когнитивные системы, основанные на адаптивные алгоритмы Перепечатано в: Эволюционные вычисления. Летопись окаменелостей. В: Дэвид Б.Ф. (редактор) IEEE Press, Нью-Йорк. 1998. ISBN   0-7803-3481-7
  17. ^ Перейти обратно: а б Ланци, Пьер Лука (8 февраля 2008 г.). «Обучение системам классификаторов: тогда и сейчас». Эволюционный интеллект . 1 (1): 63–82. дои : 10.1007/s12065-007-0003-3 . ISSN   1864-5909 . S2CID   27153843 .
  18. ^ Смит С. (1980) Система обучения, основанная на генетической адаптивности. алгоритмы. доктор философии кандидатская диссертация, кафедра компьютерных наук, Университет Питтсбурга
  19. ^ Смит С (1983) Гибкое изучение эвристики решения проблем посредством адаптивного поиска . В: Восьмая международная совместная конференция. по искусственному интеллекту. Морган Кауфманн, Лос-Альтос, стр. 421–425
  20. ^ Де Йонг К.А. (1988) Обучение с помощью генетических алгоритмов: обзор. Узнай Маха 3: 121–138.
  21. ^ Перейти обратно: а б с Холланд, Джон Х. «Как избежать хрупкости: возможности алгоритмов обучения общего назначения, применяемых к параллельным системам, основанным на правилах». Машинное обучение (1986): 593-623.
  22. ^ Холланд, Джон Х. (1 января 1985 г.). Свойства ковшовой бригады . Хиллсдейл, Нью-Джерси, США: L. Erlbaum Associates Inc., стр. 1–7. ISBN  978-0805804263 . {{cite book}}: |journal= игнорируется ( помогите )
  23. ^ Букер, Л. (1 января 1982 г.). Интеллектуальное поведение как адаптация к рабочей среде (Диссертация). Мичиганский университет.
  24. ^ Перейти обратно: а б с Уилсон, С.В. « Рост знаний об искусственном животном . Материалы Первой международной конференции по генетическим алгоритмам и их приложениям». (1985).
  25. ^ Уилсон, Стюарт В. (1987). «Системы классификаторов и проблема анимата» . Машинное обучение . 2 (3): 199–228. дои : 10.1007/BF00058679 . ISSN   0885-6125 .
  26. ^ Бонелли, Пьер; Пароди, Александр; Сен, Сандип; Уилсон, Стюарт (1 января 1990 г.). NEWBOOLE: быстрая система GBML . Сан-Франциско, Калифорния, США: Morgan Kaufmann Publishers Inc., стр. 153–159 . ISBN  978-1558601413 . {{cite book}}: |journal= игнорируется ( помогите )
  27. ^ Фрей, Питер В.; Слейт, Дэвид Дж. (1991). «Распознавание букв с использованием адаптивных классификаторов голландского типа» . Машинное обучение . 6 (2): 161–182. дои : 10.1007/BF00114162 . ISSN   0885-6125 .
  28. ^ Валенсуэла-Рендон, Мануэль. « Система нечеткой классификатора: система классификаторов для непрерывно меняющихся переменных ». В ICGA , стр. 346-353. 1991.
  29. ^ Риоло, Рик Л. (1 января 1988 г.). Эмпирические исследования иерархий по умолчанию и последовательностей правил в обучающихся системах классификаторов (Диссертация). Анн-Арбор, Мичиган, США: Мичиганский университет.
  30. ^ РЛ, Риоло (1 января 1987 г.). «Работа ковшовой бригады. I. Длинные последовательности классификаторов» . Генетические алгоритмы и их приложения: материалы Второй международной конференции по генетическим алгоритмам: 28–31 июля 1987 г., Массачусетский технологический институт, Кембридж, Массачусетс .
  31. ^ РЛ, Риоло (1 января 1987 г.). «Производительность бригады ведер. II. Иерархии по умолчанию» . Генетические алгоритмы и их приложения: материалы Второй международной конференции по генетическим алгоритмам: 28–31 июля 1987 г., Массачусетский технологический институт, Кембридж, Массачусетс .
  32. ^ Перейти обратно: а б В. Штольцманн, «Системы упреждающих классификаторов», в сборнике статей. 3-й ежегодной конференции по генетическому программированию, стр. 658–664, 1998.
  33. ^ Риоло, Рик Л. (1 января 1990 г.). Упреждающее планирование и скрытое обучение в системе классификаторов . Кембридж, Массачусетс, США: MIT Press. стр. 316–326. ISBN  978-0262631389 . {{cite book}}: |journal= игнорируется ( помогите )
  34. ^ Уоткинс, Кристофер Джон Корниш Хеллаби. «Учимся на отсроченных наградах». Докторская диссертация, Кембриджский университет, 1989 г.
  35. ^ Перейти обратно: а б Уилсон, Стюарт В. (1 марта 1994 г.). «ZCS: Система классификатора нулевого уровня». Эволюционные вычисления . 2 (1): 1–18. CiteSeerX   10.1.1.363.798 . дои : 10.1162/evco.1994.2.1.1 . ISSN   1063-6560 . S2CID   17680778 .
  36. ^ Ланци, Польша (2002). «Изучение систем классификаторов с точки зрения обучения с подкреплением». Мягкие вычисления . 6 (3–4): 162–170. дои : 10.1007/s005000100113 . ISSN   1432-7643 . S2CID   39103390 .
  37. ^ Ковач, Тимоти Майкл Дуглас. Сравнение физической подготовленности, основанной на силе и точности, в системах обучения и классификаторов . 2002.
  38. ^ Ковач, Тим (2002). «Два взгляда на системы классификаторов» . Достижения в области изучения систем классификаторов . Конспекты лекций по информатике. Том. 2321. стр. 74–87. дои : 10.1007/3-540-48104-4_6 . ISBN  978-3-540-43793-2 .
  39. ^ Перейти обратно: а б Конгдон, Клэр Бейтс. «Сравнение генетических алгоритмов и других систем машинного обучения в решении сложной задачи классификации из исследований распространенных заболеваний». Докторская диссертация, Мичиганский университет, 1995 г.
  40. ^ Холмс, Джон Х. (1 января 1996 г.). «Подход машинного обучения на основе генетики к обнаружению знаний в клинических данных» . Материалы ежегодного осеннего симпозиума AMIA : 883. ISSN   1091-8280 . ПМК   2233061 .
  41. ^ Холмс, Джон Х. « Обнаружение риска заболеваний с помощью системы классификаторов обучения ». В ICGA , стр. 426-433. 1997.
  42. ^ Холмс, Джон Х. и Дженнифер А. Сейгер. « Обнаружение правил в данных эпидемиологического надзора с использованием EpiXCS: эволюционный подход к вычислениям ». На конференции по искусственному интеллекту в медицине в Европе , стр. 444-452. Шпрингер Берлин Гейдельберг, 2005.
  43. ^ Бутц, Мартин В. « Исследование смещения в системе классификаторов упреждающего обучения ». На Международном семинаре по изучению систем классификаторов , стр. 3–22. Шпрингер Берлин Гейдельберг, 2001.
  44. ^ Уилсон, Стюарт В. (2002). «Классификаторы, аппроксимирующие функции». Естественные вычисления . 1 (2–3): 211–234. дои : 10.1023/А:1016535925043 . ISSN   1567-7818 . S2CID   23032802 .
  45. ^ Бык, Ларри. « Простая система классификаторов обучения, основанная на точности ». Технический отчет группы обучающих классификаторов UWELCSG03-005, Университет Западной Англии, Бристоль, Великобритания (2003 г.).
  46. ^ Бык, Ларри. « Простая система классификаторов обучения, основанная на вознаграждении ». На Международной конференции по параллельному решению проблем из природы , стр. 1032–1041. Шпрингер Берлин Гейдельберг, 2004 г.
  47. ^ Пеньярроя, Жауме Бакардит. «Питтсбургское генетическое машинное обучение в эпоху интеллектуального анализа данных: представления, обобщение и время выполнения». Докторская диссертация, Университет Рамона Луллия, 2004 г.
  48. ^ Бакардит, Жауме; Берк, Эдмунд К.; Красногор, Наталио (12 декабря 2008 г.). «Улучшение масштабируемости эволюционного обучения на основе правил». Меметические вычисления . 1 (1): 55–67. дои : 10.1007/s12293-008-0005-4 . ISSN   1865-9284 . S2CID   775199 .
  49. ^ Другович, Январь (2008). Проектирование и анализ систем обучающихся классификаторов — Springer . Исследования в области вычислительного интеллекта. Том. 139. дои : 10.1007/978-3-540-79866-8 . ISBN  978-3-540-79865-1 .
  50. ^ Урбанович, Райан Дж., Гедиминас Бертасиус и Джейсон Х. Мур. « Расширенная система классификаторов обучения в мичиганском стиле для гибкого контролируемого обучения, классификации и интеллектуального анализа данных ». На Международной конференции по параллельному решению проблем из природы , стр. 211-221. Международное издательство Спрингер, 2014.
  51. ^ Урбанович, Райан Дж., Делани Гранизо-Маккензи и Джейсон Х. Мур. « Использование экспертных знаний для управления покрытием и мутациями в системе классификаторов обучения в мичиганском стиле для выявления эпистаза и гетерогенности ». На Международной конференции по параллельному решению проблем из природы , стр. 266-275. Шпрингер Берлин Гейдельберг, 2012.
  52. ^ Урбанович, Райан; Гранизо-Маккензи, Амброуз; Мур, Джейсон (1 января 2012 г.). «Отслеживание атрибутов, связанных с экземплярами, и обратная связь для систем классификаторов обучения с учителем в мичиганском стиле». Материалы 14-й ежегодной конференции по генетическим и эволюционным вычислениям . ГЕККО '12. Нью-Йорк, штат Нью-Йорк, США: ACM. стр. 927–934. дои : 10.1145/2330163.2330291 . ISBN  9781450311779 . S2CID   142534 .
  53. ^ Бакардит, Жауме; Красногор, Наталио (1 января 2009 г.). «Смешанное дискретно-непрерывное представление списка атрибутов для крупномасштабных классификационных областей». Материалы 11-й ежегодной конференции по генетическим и эволюционным вычислениям . ГЕККО '09. Нью-Йорк, штат Нью-Йорк, США: ACM. стр. 1155–1162. CiteSeerX   10.1.1.158.7314 . дои : 10.1145/1569901.1570057 . ISBN  9781605583259 . S2CID   10906515 .
  54. ^ Икбал, Мухаммед; Браун, Уилл Н.; Чжан, Мэнцзе (01 августа 2014 г.). «Повторное использование строительных блоков извлеченных знаний для решения сложных, крупномасштабных логических задач». Транзакции IEEE в эволюционных вычислениях . 18 (4): 465–480. дои : 10.1109/tevc.2013.2281537 . S2CID   525358 .
  55. ^ Букер, LB; Гольдберг, Делавэр; Холланд, Дж. Х. (1 сентября 1989 г.). «Системы классификаторов и генетические алгоритмы» (PDF) . Искусственный интеллект . 40 (1): 235–282. дои : 10.1016/0004-3702(89)90050-7 . hdl : 2027.42/27777 .
  56. ^ Уилсон, Стюарт В. и Дэвид Э. Голдберг. «Критический обзор систем классификаторов». В материалах третьей международной конференции по генетическим алгоритмам , стр. 244-255. Морган Кауфманн Паблишерс Инк., 1989.
[ редактировать ]

Видеоурок

[ редактировать ]

Веб-страницы

[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 59205cda7e90701ae7a886da2fe27dbc__1720623480
URL1:https://arc.ask3.ru/arc/aa/59/bc/59205cda7e90701ae7a886da2fe27dbc.html
Заголовок, (Title) документа по адресу, URL1:
Learning classifier system - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)