~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ BEF2644B2088CAAAEC38D7988F9279B7__1718020260 ✰
Заголовок документа оригинал.:
✰ Unsupervised learning - Wikipedia ✰
Заголовок документа перевод.:
✰ Обучение без учителя — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Unsupervised_machine_learning ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/be/b7/bef2644b2088caaaec38d7988f9279b7.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/be/b7/bef2644b2088caaaec38d7988f9279b7__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 23:45:36 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 10 June 2024, at 14:51 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Обучение без учителя — Википедия Jump to content

Обучение без присмотра

Из Википедии, бесплатной энциклопедии

Обучение без учителя — это метод машинного обучения , при котором, в отличие от обучения с учителем , алгоритмы изучают закономерности исключительно на основе немаркированных данных. [1] В рамках такого подхода модель машинного обучения пытается самостоятельно найти любые сходства, различия, закономерности и структуру в данных. Никакого предварительного вмешательства человека не требуется. [1]

Другие методы в спектре контроля — это обучение с подкреплением, при котором машине в качестве ориентира присваивается только числовая оценка производительности. [2] и Слабый или Полуконтроль , при котором помечена небольшая часть данных, и Самоконтроль .

Нейронные сети [ править ]

Задачи и методы [ править ]

Тенденция к использованию в задаче контролируемых и неконтролируемых методов. Названия задач, выходящие за границы круга, созданы намеренно. Это показывает, что классическое разделение творческих задач (слева) с использованием неконтролируемых методов размыто в современных схемах обучения.

Задачи нейронной сети часто подразделяются на дискриминационные (распознавание) или генеративные (воображение). Часто, но не всегда, в различительных задачах используются контролируемые методы, а в генеративных задачах — неконтролируемые (см. диаграмму Венна ); однако разделение очень размыто. Например, распознавание объектов способствует обучению с учителем, но обучение без учителя также может группировать объекты в группы. Более того, по мере продвижения вперед в некоторых задачах используются оба метода, а в некоторых задачах меняется один на другой. Например, распознавание изображений началось с жесткого контроля, но стало гибридным из-за использования неконтролируемого предварительного обучения, а затем снова перешло к контролю с появлением отсева , ReLU и адаптивных скоростей обучения .

Обучение [ править ]

На этапе обучения неконтролируемая сеть пытается имитировать данные, которые ей дают, и использует ошибку в имитируемых выходных данных, чтобы исправить себя (т. е. исправить свои веса и смещения). Иногда ошибка выражается как низкая вероятность возникновения ошибочного вывода или как нестабильное состояние с высокой энергией в сети.

В отличие от доминирующего использования обратного распространения ошибки в методах с учителем , в обучении без учителя также используются другие методы, в том числе: правило обучения Хопфилда, правило обучения Больцмана, контрастное расхождение , бодрствование и сон , вариационный вывод , максимальное правдоподобие , максимум апостериори , выборка Гиббса и ошибки реконструкции с обратным распространением ошибки. или скрытые репараметризации состояния. Более подробную информацию смотрите в таблице ниже.

Энергия [ править ]

Энергетическая функция — это макроскопическая мера состояния активации сети. В машинах Больцмана она играет роль функции стоимости. Эта аналогия с физикой навеяна анализом Людвигом Больцманом макроскопической энергии газа на основе микроскопических вероятностей движения частиц. , где k — постоянная Больцмана, а T — температура. В сети RBM соотношение , [3] где и различаться по каждому возможному шаблону активации и . Если быть более точным, , где представляет собой паттерн активации всех нейронов (видимых и скрытых). Следовательно, некоторые ранние нейронные сети носят название «Машина Больцмана». Павел Смоленский звонит Гармония . Сеть ищет низкую энергию, которая является высокой Гармонией.

Сети [ править ]

В этой таблице приведены схемы подключения различных неконтролируемых сетей, подробности о которых будут приведены в разделе «Сравнение сетей». Круги — это нейроны, а ребра между ними — веса связей. По мере изменения конструкции сети функции добавляются, чтобы обеспечить новые возможности, или удаляются, чтобы ускорить обучение. Например, нейроны меняются между детерминированными (Хопфилд) и стохастическими (Больцманн), чтобы обеспечить устойчивый вывод, веса удаляются внутри слоя (RBM), чтобы ускорить обучение, или соединениям позволяют стать асимметричными (Гельмгольц).

Хопфилд Больцман УОР Сложенный Больцман
Сеть на основе магнитных доменов в железе с одним самосвязным слоем. Его можно использовать в качестве адресуемой памяти по содержимому.
Сеть разделена на 2 слоя (скрытый и видимый), но при этом используются симметричные двусторонние веса. Согласно термодинамике Больцмана, отдельные вероятности порождают макроскопические энергии.
Ограниченная машина Больцмана. Это машина Больцмана, в которой боковые связи внутри слоя запрещены, чтобы облегчить анализ.
Эта сеть имеет несколько RBM для кодирования иерархии скрытых функций. После обучения одного RBM добавляется еще один синий скрытый слой (см. RBM слева), а два верхних слоя обучаются как красный и синий RBM. Таким образом, средние уровни RBM действуют как скрытые или видимые, в зависимости от фазы обучения, на которой они находятся.
Гельмгольц Автоэнкодер НОГИ
Вместо двунаправленного симметричного соединения многоуровневых машин Больцмана у нас есть отдельные односторонние соединения, образующие петлю. Он выполняет как генерацию, так и дискриминацию.
Сеть прямой связи, целью которой является поиск хорошего представления среднего уровня своего входного мира. Эта сеть является детерминированной, поэтому она не так надежна, как ее преемница VAE.
Применяет вариационный вывод к автоэнкодеру. Средний уровень представляет собой набор средних и дисперсий для гауссовских распределений. Стохастическая природа обеспечивает более сильное воображение, чем детерминированный автокодировщик.

Из сетей, носящих имена людей, только Хопфилд работал напрямую с нейронными сетями. Больцман и Гельмгольц появились раньше искусственных нейронных сетей, но их работы в области физики и физиологии вдохновили на использование аналитических методов.

История [ править ]

1969 Перцептроны от Мински и Паперт показывают, что перцептрон без скрытых слоев не работает при выполнении XOR
1970-е годы (приблизительные даты) Первая зима AI
1974 Магнитная модель Изинга, предложенная У. А. Литтлом [ де ] для познания
1980 На Фукусиме внедряется неокогнитрон , который позже назовут сверточной нейронной сетью . Чаще всего он используется в SL, но здесь заслуживает упоминания.
1982 Вариант сети Хопфилда Изинга, описанный как CAM Джоном Хопфилдом и классификаторы.
1983 Вариант машины Больцмана Изинга с вероятностными нейронами, описанный Хинтоном и Сейновски после работы Шерингтона и Киркпатрика 1975 года.
1986 Пол Смоленский публикует «Теорию гармонии», которая представляет собой RBM с практически той же энергетической функцией Больцмана. Смоленский не дал схемы практической подготовки. Хинтон сделал это в середине 2000-х.
1995 Шмидтубер представляет нейрон LSTM для языков.
1995 Dayan & Hinton представляет машину Гельмгольца
1995-2005 (приблизительные даты) Вторая зима AI
2013 Кингма, Резенде и компания. представила вариационные автоэнкодеры как байесовскую графическую вероятностную сеть с нейронными сетями в качестве компонентов.

Конкретные сети [ править ]

Здесь мы выделим некоторые характеристики избранных сетей. Подробности о каждом из них приведены в сравнительной таблице ниже.

Сеть Хопфилда
Ферромагнетизм вдохновил сети Хопфилда. Нейрон соответствует железному домену с бинарными магнитными моментами Up и Down, а нейронные связи соответствуют влиянию доменов друг на друга. Симметричные связи позволяют создать глобальную энергетическую формулу. Во время вывода сеть обновляет каждое состояние, используя стандартную функцию шага активации. Симметричные веса и правильные энергетические функции гарантируют сходимость к стабильному шаблону активации. Асимметричные веса трудно анализировать. Сети Хопфилда используются в качестве адресуемой памяти (CAM).
Машина Больцмана
Это стохастические сети Хопфилда. Значение их состояния выбирается из этого PDF-файла следующим образом: предположим, что бинарный нейрон срабатывает с вероятностью Бернулли p(1) = 1/3 и отдыхает с p(0) = 2/3. Из него берут выборку, беря равномерно распределенное случайное число y и подставляя его в инвертированную кумулятивную функцию распределения , которая в данном случае является ступенчатой ​​функцией с порогом 2/3. Обратная функция = { 0, если x <= 2/3, 1, если x > 2/3 }.
Сигмовидная сеть убеждений
Эта сеть, представленная Рэдфордом Нилом в 1992 году, применяет идеи вероятностных графических моделей к нейронным сетям. Ключевое отличие состоит в том, что узлы в графических моделях имеют заранее заданные значения, тогда как функции нейронов сети убеждений определяются после обучения. Сеть представляет собой разреженный ориентированный ациклический граф, состоящий из бинарных стохастических нейронов. Правило обучения основано на максимальном правдоподобии для p(X): Δw ij s j * (s i - p i ), где p i = 1 / ( 1 + e взвешенные входы в нейрон i ). s j являются активациями из несмещенной выборки апостериорного распределения, и это проблематично из-за проблемы объяснения, поднятой Джудеей Перлом. Вариационные байесовские методы используют суррогатный апостериор и явно игнорируют эту сложность.
Сеть глубоких убеждений
Эта сеть, представленная Хинтоном, представляет собой гибрид RBM и сигмовидной сети убеждений. Два верхних уровня представляют собой RBM, а второй уровень, расположенный ниже, образует сигмовидную сеть убеждений. Его обучают методом составного RBM , а затем отбрасывают веса распознавания ниже верхнего RBM. По состоянию на 2009 год оптимальной глубиной кажется 3-4 слоя. [4]
Машина Гельмгольца
Это ранние источники вдохновения для вариационных автоэнкодеров. Его две сети объединены в одну: прямые веса управляют распознаванием, а обратные веса реализуют воображение. Возможно, это первая сеть, которая делает и то, и другое. Гельмгольц не занимался машинным обучением, но он вдохновил идею «машины статистического вывода, функция которой состоит в том, чтобы определить вероятные причины сенсорной информации». [5] стохастический бинарный нейрон выводит вероятность того, что его состояние равно 0 или 1. Входные данные обычно не считаются слоем, но в режиме генерации машины Гельмгольца уровень данных получает входные данные от среднего уровня и имеет для этой цели отдельные веса, поэтому это считается слоем. Следовательно, эта сеть имеет 3 слоя.
Вариационный автоэнкодер
Они вдохновлены машинами Гельмгольца и сочетают в себе сеть вероятностей с нейронными сетями. Автоэнкодер — это трехуровневая сеть CAM, где средний уровень должен представлять собой некоторое внутреннее представление входных шаблонов. Нейронная сеть кодера представляет собой распределение вероятностей q φ (z при заданном x), а сеть декодера — это p θ (x при заданном z). Веса называются фи и тета, а не W и V, как у Гельмгольца — косметическое отличие. Эти две сети здесь можно полностью соединить или использовать другую схему NN.

Сравнение сетей [ править ]

Хопфилд Больцман УОР Сложенный УОР Гельмгольц Автоэнкодер НОГИ
Использование и примечания CAM, задача коммивояжера САМ. Свобода связей затрудняет анализ этой сети. распознавание образов. используется в цифрах и речи MNIST. узнавание и воображение. обучены с помощью предварительной подготовки без присмотра и/или контролируемой точной настройки. воображение, мимикрия язык: творческое письмо, перевод. зрение: улучшение размытых изображений генерировать реалистичные данные
Нейрон детерминированное бинарное состояние. Активация = { 0 (или -1), если x отрицательное значение, 1 в противном случае } стохастический бинарный нейрон Хопфилда ← то же самое. (распространено на реальную стоимость середины 2000-х годов) ← то же самое ← то же самое язык: LSTM. зрение: локальные рецептивные поля. обычно активация relu имеет действительное значение. Нейроны среднего слоя кодируют средние значения и отклонения для гауссиан. В режиме выполнения (вывод) выходные данные среднего слоя представляют собой выборочные значения гауссиан.
Соединения 1-слойный с симметричными грузами. Никаких самоподключений. 2-слойные. 1-скрытый и 1-видимый. симметричные веса. ← то же самое.
отсутствие боковых связей внутри слоя.
верхний слой ненаправленный, симметричный. остальные слои двухсторонние, асимметричные. 3 слоя: асимметричные веса. 2 сети объединены в 1. 3-слойные. Входные данные считаются слоем, даже если они не имеют входящих весов. рекуррентные слои для НЛП. извилины с прямой связью для зрения. вход и выход имеют одинаковое количество нейронов. 3 уровня: вход, кодер, декодер сэмплера распределения. сэмплер не считается слоем
Выводы и энергия Энергия определяется вероятностной мерой Гиббса: ← то же самое ← то же самое минимизировать расхождение KL вывод является только прямой связью. предыдущие сети UL работали вперед И назад ошибка минимизации = ошибка реконструкции - KLD
Обучение Δw ij = s i *s j , для +1/-1 нейрона Δw ij = e*(p ij - p' ij ). Это получено в результате минимизации KLD. e = скорость обучения, p' = прогнозируемое и p = фактическое распределение. Δw ij = e*( < v i h j > данные - < v i h j > равновесие ). Это форма контрастного расхождения с выборкой Гиббса. «<>» — ожидания. ← похожее. тренируйте по одному слою за раз. приблизительное равновесное состояние при 3-сегментном проходе. нет обратного распространения. двухфазная тренировка бодрствования и сна обратное распространение ошибки реконструкции перепараметризировать скрытое состояние для обратного распространения
Сила напоминает физические системы, поэтому наследует их уравнения ← то же самое. скрытые нейроны действуют как внутреннее представление внешнего мира более быстрая и практичная схема обучения, чем на машинах Больцмана тренируется быстро. дает иерархический уровень функций умеренно анатомический. поддается анализу с помощью теории информации и статистической механики
Слабость трудно тренироваться из-за боковых связей равновесие требует слишком много итераций Целочисленные и действительные нейроны более сложны.

Hebbian Learning, ART, SOM [ править ]

Классическим примером обучения без учителя при изучении нейронных сетей является принцип Дональда Хебба , то есть нейроны, которые срабатывают вместе, соединяются вместе. [6] При обучении Хебба связь усиливается независимо от ошибки, но является исключительно функцией совпадения потенциалов действия между двумя нейронами. [7] Аналогичная версия, которая изменяет синаптические веса, учитывает время между потенциалами действия ( пластичность, зависящая от времени спайка, или STDP). Было высказано предположение, что хеббианское обучение лежит в основе ряда когнитивных функций, таких как распознавание образов и экспериментальное обучение.

Среди нейронных сетей моделей самоорганизующаяся карта (SOM) и теория адаптивного резонанса в алгоритмах обучения без учителя обычно используются (ART). SOM — это топографическая организация, в которой близлежащие места на карте представляют собой входные данные со схожими свойствами. Модель ART позволяет изменять количество кластеров в зависимости от размера проблемы и позволяет пользователю контролировать степень сходства между членами одних и тех же кластеров с помощью определяемой пользователем константы, называемой параметром бдительности. Сети ART используются для многих задач распознавания образов, таких как автоматическое распознавание целей и обработка сейсмических сигналов. [8]

Вероятностные методы [ править ]

Двумя основными методами, используемыми в обучении без учителя, являются анализ главных компонентов и кластерный анализ . Кластерный анализ используется при обучении без учителя для группировки или сегментирования наборов данных с общими атрибутами для экстраполяции алгоритмических связей. [9] Кластерный анализ — это отрасль машинного обучения , которая группирует данные, которые не были помечены , классифицированы или категоризированы. Вместо того, чтобы реагировать на обратную связь, кластерный анализ выявляет общие черты в данных и реагирует на основе наличия или отсутствия таких общих черт в каждой новой части данных. Этот подход помогает обнаружить аномальные точки данных, которые не вписываются ни в одну группу.

Основное применение обучения без учителя находится в области оценки плотности в статистике . [10] хотя обучение без учителя охватывает множество других областей, связанных с обобщением и объяснением особенностей данных. Его можно противопоставить обучению с учителем, сказав, что обучение с учителем направлено на вывод условного распределения вероятностей, обусловленного меткой входных данных; Обучение без учителя направлено на получение априорного распределения вероятностей.

Подходы [ править ]

Некоторые из наиболее распространенных алгоритмов, используемых в обучении без учителя, включают: (1) Кластеризация, (2) Обнаружение аномалий, (3) Подходы к обучению моделей со скрытыми переменными. Каждый подход использует несколько методов, а именно:

Метод моментов [ править ]

Одним из статистических подходов к обучению без учителя является метод моментов . В методе моментов неизвестные параметры (интересующие) в модели связаны с моментами одной или нескольких случайных величин, и, таким образом, эти неизвестные параметры могут быть оценены с учетом моментов. Моменты обычно оцениваются по выборкам эмпирическим путем. Базовыми моментами являются моменты первого и второго порядка. Для случайного вектора момент первого порядка — это средний вектор, а момент второго порядка — ковариационная матрица (когда среднее значение равно нулю). Моменты более высокого порядка обычно представляются с помощью тензоров , которые представляют собой обобщение матриц до более высоких порядков в виде многомерных массивов.

В частности, показана эффективность метода моментов при изучении параметров моделей со скрытыми переменными . Модели со скрытыми переменными — это статистические модели, в которых помимо наблюдаемых переменных существует также набор скрытых переменных, которые не наблюдаются. Весьма практичным примером моделей скрытых переменных в машинном обучении является тематическое моделирование , которое представляет собой статистическую модель для генерации слов (наблюдаемых переменных) в документе на основе темы (латентной переменной) документа. При тематическом моделировании слова в документе генерируются в соответствии с различными статистическими параметрами при изменении темы документа. Показано, что метод моментов (методы тензорной декомпозиции) последовательно восстанавливают параметры большого класса моделей со скрытыми переменными при некоторых предположениях. [13]

Алгоритм ожидания-максимизации (EM) также является одним из наиболее практичных методов изучения моделей со скрытыми переменными. Однако он может застрять в локальных оптимумах, и нет гарантии, что алгоритм сходится к истинным неизвестным параметрам модели. Напротив, для метода моментов глобальная сходимость гарантируется при некоторых условиях.

См. также [ править ]

Ссылки [ править ]

  1. ^ Перейти обратно: а б Ву, Вэй. «Обучение без учителя» (PDF) . Архивировано (PDF) из оригинала 14 апреля 2024 года . Проверено 26 апреля 2024 г.
  2. ^ Гахрамани, Зубин. «Обучение без учителя» (PDF) . Архивировано (PDF) из оригинала 12 ноября 2023 года . Проверено 26 апреля 2024 г.
  3. ^ Хинтон, Г. (2012). «Практическое руководство по обучению ограниченных машин Больцмана» (PDF) . Нейронные сети: хитрости . Конспекты лекций по информатике. Том. 7700. Спрингер. стр. 599–619. дои : 10.1007/978-3-642-35289-8_32 . ISBN  978-3-642-35289-8 . Архивировано (PDF) из оригинала 3 сентября 2022 г. Проверено 3 ноября 2022 г.
  4. ^ Хинтон, Джеффри (сентябрь 2009 г.). «Сети глубокой веры» (видео). Архивировано из оригинала 8 марта 2022 г. Проверено 27 марта 2022 г.
  5. ^ Питер, Даян ; Хинтон, Джеффри Э .; Нил, Рэдфорд М .; Земель, Ричард С. (1995). «Машина Гельмгольца». Нейронные вычисления . 7 (5): 889–904. дои : 10.1162/neco.1995.7.5.889 . hdl : 21.11116/0000-0002-D6D3-E . ПМИД   7584891 . S2CID   1890561 . Значок закрытого доступа
  6. ^ Буманн, Дж.; Кунель, Х. (1992). «Неконтролируемая и контролируемая кластеризация данных с помощью конкурентных нейронных сетей». [Труды 1992 г.] Международная совместная конференция IJCNN по нейронным сетям . Том. 4. ИИЭР. стр. 796–801. дои : 10.1109/ijcnn.1992.227220 . ISBN  0780305590 . S2CID   62651220 .
  7. ^ Комесанья-Кампос, Альберто; Буза-Родригес, Хосе Бенито (июнь 2016 г.). «Применение Хеббианского обучения при принятии решений в процессе проектирования». Журнал интеллектуального производства . 27 (3): 487–506. дои : 10.1007/s10845-014-0881-z . ISSN   0956-5515 . S2CID   207171436 .
  8. ^ Карпентер, Джорджия, и Гроссберг, С. (1988). «ИСКУССТВО адаптивного распознавания образов с помощью самоорганизующейся нейронной сети» (PDF) . Компьютер . 21 (3): 77–88. дои : 10.1109/2.33 . S2CID   14625094 . Архивировано из оригинала (PDF) 16 мая 2018 г. Проверено 16 сентября 2013 г.
  9. ^ Роман, Виктор (21 апреля 2019 г.). «Машинное обучение без учителя: кластерный анализ» . Середина . Архивировано из оригинала 21 августа 2020 г. Проверено 1 октября 2019 г.
  10. ^ Джордан, Майкл И.; Бишоп, Кристофер М. (2004). «7. Интеллектуальные системы §Нейронные сети». В Такере, Аллен Б. (ред.). Справочник по информатике (2-е изд.). Чепмен и Холл/CRC Press. дои : 10.1201/9780203494455 . ISBN  1-58488-360-Х . Архивировано из оригинала 3 ноября 2022 г. Проверено 3 ноября 2022 г.
  11. ^ Хасти, Тибширани и Фридман, 2009 , стр. 485–586.
  12. ^ Гарбаде, доктор Майкл Дж. (12 сентября 2018 г.). «Понимание кластеризации K-средних в машинном обучении» . Середина . Архивировано из оригинала 28 мая 2019 г. Проверено 31 октября 2019 г.
  13. ^ Анандкумар, Анимашри; Ге, Ронг; Сюй, Дэниел; Какаде, Шам; Тельгарский, Матус (2014). «Тензорные разложения для изучения моделей со скрытыми переменными» (PDF) . Журнал исследований машинного обучения . 15 : 2773–2832. arXiv : 1210.7559 . Бибкод : 2012arXiv1210.7559A . Архивировано (PDF) из оригинала 20 марта 2015 г. Проверено 10 апреля 2015 г.

Дальнейшее чтение [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: BEF2644B2088CAAAEC38D7988F9279B7__1718020260
URL1:https://en.wikipedia.org/wiki/Unsupervised_machine_learning
Заголовок, (Title) документа по адресу, URL1:
Unsupervised learning - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)