Jump to content

Многоагентное обучение с подкреплением

(Перенаправлено из Мультиагентного обучения )
Две конкурирующие команды агентов схлестнулись в эксперименте MARL

Многоагентное обучение с подкреплением (MARL) — это подобласть обучения с подкреплением . Основное внимание уделяется изучению поведения нескольких обучающихся агентов, сосуществующих в общей среде. [1] Каждый агент мотивирован собственным вознаграждением и совершает действия для продвижения своих собственных интересов; в некоторых средах эти интересы противоположны интересам других агентов, что приводит к сложной групповой динамике .

Мультиагентное обучение с подкреплением тесно связано с теорией игр и особенно с повторяющимися играми , а также с мультиагентными системами . Его исследование сочетает в себе поиск идеальных алгоритмов, максимизирующих вознаграждение, с более социологическим набором концепций. В то время как исследования в области одноагентного обучения с подкреплением направлены на поиск алгоритма, который наберет наибольшее количество баллов для одного агента, исследования в области многоагентного обучения с подкреплением оценивают и количественно определяют социальные показатели, такие как сотрудничество, [2] взаимность, [3] капитал, [4] социальное влияние, [5] язык [6] и дискриминация. [7]

Определение

[ редактировать ]

Подобно обучению с подкреплением с одним агентом , обучение с подкреплением с несколькими агентами моделируется как некоторая форма марковского процесса принятия решений (MDP) . Например,

  • Набор состояний окружающей среды.
  • Один комплект действий для каждого из агентов .
  • – вероятность перехода (в момент времени ) из штата заявить в рамках совместных действий .
  • это непосредственная совместная награда после перехода от к с совместными действиями .

В условиях с точной информацией , таких как игры в шахматы и го , MDP будет полностью наблюдаемым. В условиях несовершенной информации, особенно в реальных приложениях, таких как беспилотные автомобили , каждый агент будет иметь доступ к наблюдению, которое содержит только часть информации о текущем состоянии. В частично наблюдаемой ситуации основной моделью является частично наблюдаемая стохастическая игра в общем случае и децентрализованная POMDP в кооперативном случае.

Сотрудничество против конкуренции

[ редактировать ]

Когда несколько агентов действуют в общей среде, их интересы могут совпадать или не совпадать. MARL позволяет изучить все различные мировоззрения и то, как они влияют на поведение агентов:

Настройки чистой конкуренции

[ редактировать ]

Когда два агента играют в игру с нулевой суммой , они находятся в состоянии чистой конкуренции друг с другом. Многие традиционные игры, такие как шахматы и го, подпадают под эту категорию, а также варианты современных игр для двух игроков, таких как StarCraft . Поскольку каждый агент может выиграть только за счет другого агента, многие сложности устраняются. Нет никакой перспективы общения или социальных дилемм, поскольку ни один из агентов не заинтересован в совершении действий, которые принесут пользу его противнику.

Глубокий синий [8] и проекты AlphaGo демонстрируют, как оптимизировать работу агентов в условиях чистой конкуренции.

Одной из сложностей, которая не устраняется в условиях чистой конкуренции, являются автоучебные программы . Поскольку политика агентов улучшается с помощью самостоятельной игры , может возникнуть несколько уровней обучения.

Настройки чистого сотрудничества

[ редактировать ]

MARL используется для изучения того, как отдельные агенты с одинаковыми интересами могут общаться и работать вместе. Настройки чистого сотрудничества исследуются в развлекательных кооперативных играх, таких как Overcooked , [9] а также реальные сценарии в робототехнике . [10]

В условиях чистого сотрудничества все агенты получают одинаковое вознаграждение, а это означает, что социальных дилемм не возникает.

В условиях чистого сотрудничества часто существует произвольное количество стратегий координации, и агенты сходятся к определенным «соглашениям» при координации друг с другом. Понятие конвенций изучалось в языке [11] а также упоминается в более общих задачах совместной работы нескольких агентов. [12] [13] [14] [15]

Настройки смешанной суммы

[ редактировать ]
В этой ситуации смешанной суммы каждый из четырех агентов пытается достичь своей цели. Успех каждого агента зависит от того, расчищают ли ему путь другие агенты, хотя у них нет прямого стимула помогать друг другу. [16]

Большинство реальных сценариев с участием нескольких агентов содержат элементы как сотрудничества, так и конкуренции. Например, когда несколько беспилотных автомобилей планируют свои маршруты, у каждого из них есть интересы, которые расходятся, но не исключают друг друга: каждый автомобиль минимизирует время, необходимое для достижения пункта назначения, но все автомобили имеют общий интерес: избежать дорожно-транспортного происшествия . [17]

Настройки с нулевой суммой с тремя или более агентами часто обладают свойствами, аналогичными настройкам со смешанной суммой, поскольку между каждой парой агентов может быть ненулевая сумма полезностей.

Настройки смешанной суммы можно исследовать с помощью классических матричных игр, таких как дилемма заключенного , более сложных последовательных социальных дилемм и развлекательных игр, таких как Среди нас , [18] Дипломатия [19] и Старкрафт II . [20] [21]

Условия смешанной суммы могут привести к коммуникативным и социальным дилеммам.

Социальные дилеммы

[ редактировать ]

Как и в теории игр , большая часть исследований в MARL вращается вокруг социальных дилемм , таких как дилемма заключенного , [22] охота на курицу и оленя . [23]

В то время как исследования теории игр могут быть сосредоточены на равновесии Нэша и на том, какой должна быть идеальная политика для агента, исследования MARL сосредоточены на том, как агенты изучат эти идеальные политики, используя процесс проб и ошибок. Алгоритмы обучения с подкреплением , которые используются для обучения агентов, максимизируют собственное вознаграждение агента; конфликт между потребностями агентов и потребностями группы является предметом активных исследований. [24]

Были исследованы различные методы, чтобы побудить агентов к сотрудничеству: изменение правил среды, [25] добавление внутренних вознаграждений, [4] и многое другое.

Последовательные социальные дилеммы

[ редактировать ]

Социальные дилеммы, такие как дилемма заключенного, охота на курицу и оленя, являются «матричными играми». Каждый агент выполняет только одно действие из двух возможных действий, а для описания вознаграждения, которое получит каждый агент, с учетом действий, предпринятых каждым агентом, используется простая матрица 2x2.

У людей и других живых существ социальные дилеммы, как правило, более сложные. Агенты предпринимают множество действий с течением времени, и различие между сотрудничеством и отказом не столь четкое, как в матричных играх. Концепция последовательной социальной дилеммы (ССД) была введена в 2017 году. [26] как попытка смоделировать эту сложность. Продолжаются исследования по определению различных типов SSD и демонстрации кооперативного поведения агентов, которые в них действуют. [27]

Автокурсы

[ редактировать ]

Автоучебная программа [28] (множественное число: автокурсы) — это концепция обучения с подкреплением, которая широко используется в многоагентных экспериментах. По мере того, как агенты улучшают свою работу, они меняют свою среду; это изменение окружающей среды влияет на них самих и на других агентов. Цикл обратной связи приводит к нескольким различным этапам обучения, каждый из которых зависит от предыдущего. Сложные уровни обучения называются автокурсом. Автоучебные программы особенно очевидны в состязательных условиях, [29] где каждая группа агентов стремится противостоять текущей стратегии противостоящей группы.

Игра «Прятки» — доступный пример автоучебной программы, происходящей в состязательной обстановке. В этом эксперименте команда искателей соревнуется с командой скрывающихся. Всякий раз, когда одна из команд изучает новую стратегию, противоборствующая команда адаптирует свою стратегию, чтобы нанести наилучший ответ. Когда скрывающиеся учатся использовать коробки для строительства убежища, искатели в ответ учатся использовать пандус, чтобы проникнуть в это убежище. В ответ скрывающиеся запирают пандусы, делая их недоступными для использования искателями. Затем искатели в ответ «серфят по ящикам», используя сбой в игре, чтобы проникнуть в убежище. Каждый «уровень» обучения представляет собой возникающее явление, предпосылкой которого является предыдущий уровень. В результате получается набор поведений, каждое из которых зависит от своего предшественника.

Автокурсы в экспериментах по обучению с подкреплением сравниваются с этапами эволюции жизни на Земле и развития человеческой культуры . Главный этап эволюции произошел 2–3 миллиарда лет назад, когда фотосинтезирующие формы жизни начали производить огромное количество кислорода , изменив баланс газов в атмосфере. [30] На следующих этапах эволюции появились формы жизни, дышащие кислородом, которые в конечном итоге привели к наземным млекопитающим и человеку. Эти более поздние стадии могли произойти только после того, как стадия фотосинтеза сделала кислород широко доступным. Точно так же человеческая культура не смогла бы пережить промышленную революцию XVIII века без ресурсов и знаний, полученных в результате сельскохозяйственной революции примерно в 10 000 году до нашей эры. [31]

Приложения

[ редактировать ]

Мультиагентное обучение с подкреплением применялось в различных случаях использования в науке и промышленности:

Выравнивание ИИ

[ редактировать ]

Мультиагентное обучение с подкреплением использовалось в исследованиях по согласованию ИИ . Отношения между различными агентами в среде MARL можно сравнить с отношениями между человеком и агентом ИИ. Исследовательские усилия на стыке этих двух областей пытаются смоделировать возможные конфликты между намерениями человека и действиями агента ИИ, а затем выяснить, какие переменные можно изменить, чтобы предотвратить эти конфликты. [45] [46]

Ограничения

[ редактировать ]

Многоагентное обучение с глубоким подкреплением связано с некоторыми трудностями . [47] Среда больше не является стационарной, таким образом нарушается марковское свойство : переходы и вознаграждения зависят не только от текущего состояния агента.

Дальнейшее чтение

[ редактировать ]
  • Стефано В. Альбрехт, Филиппос Кристианос, Лукас Шефер. Многоагентное обучение с подкреплением: основы и современные подходы . MIT Press, 2024. https://www.marl-book.com.
  • Кайцин Чжан, Чжуоран Ян, Тамер Басар. Мультиагентное обучение с подкреплением: выборочный обзор теорий и алгоритмов . Исследования в области систем, принятия решений и контроля, Справочник по RL и контролю, 2021. [1]
  • Ян, Яодун; Ван, июнь (2020). «Обзор многоагентного обучения с подкреплением с точки зрения теории игр». arXiv : 2011.00583 [ cs.MA ].
  1. ^ Стефано В. Альбрехт, Филиппос Кристианос, Лукас Шефер. Многоагентное обучение с подкреплением: основы и современные подходы. MIT Press, 2024. https://www.marl-book.com/
  2. ^ Лоу, Райан; Ву, Йи (2020). «Многоагентный актер-критик для смешанной кооперативно-конкурентной среды». arXiv : 1706.02275v4 [ cs.LG ].
  3. ^ Бейкер, Боуэн (2020). «Возможная взаимность и формирование команды на основе рандомизированных неопределенных социальных предпочтений». Протоколы NeurIPS 2020 . arXiv : 2011.05373 .
  4. ^ Перейти обратно: а б Хьюз, Эдвард; Лейбо, Джоэл З.; и др. (2018). «Неприятие неравенства улучшает сотрудничество в решении межвременных социальных дилемм». Протоколы NeurIPS 2018 . arXiv : 1803.08884 .
  5. ^ Жак, Наташа; Лазариду, Анжелики; Хьюз, Эдвард; и др. (2019). «Социальное влияние как внутренняя мотивация многоагентного глубокого обучения с подкреплением». Материалы 35-й Международной конференции по машинному обучению . arXiv : 1810.08647 .
  6. ^ Лазариду, Анжелики (2017). «Многоагентное сотрудничество и появление (естественного) языка». ИКЛР 2017 . arXiv : 1612.07182 .
  7. ^ Дуэньес-Гусман, Эдгар; и др. (2021). «Статистическая дискриминация обучающихся агентов». arXiv : 2110.11404v1 [ cs.LG ].
  8. ^ Кэмпбелл, Мюррей; Хоан, А. Джозеф младший; Сюй, Фэн-сюн (2002). «Глубокий синий». Искусственный интеллект . 134 (1–2). Эльзевир: 57–83. дои : 10.1016/S0004-3702(01)00129-1 . ISSN   0004-3702 .
  9. ^ Кэрролл, Мика; и др. (2019). «О полезности знаний о людях для координации человека и искусственного интеллекта». arXiv : 1910.05789 [ cs.LG ].
  10. ^ Се, Энни; Лоузи, Дилан; Толсма, Райан; Финн, Челси ; Садиг, Дорса (ноябрь 2020 г.). Изучение скрытых представлений для влияния на многоагентное взаимодействие (PDF) . КОРЛ.
  11. ^ Кларк, Герберт; Уилкс-Гиббс, Дина (февраль 1986 г.). «Обращение как совместный процесс». Познание . 22 (1): 1–39. дои : 10.1016/0010-0277(86)90010-7 . ПМИД   3709088 . S2CID   204981390 .
  12. ^ Бутилье, Крейг (17 марта 1996 г.). «Планирование, обучение и координация в многоагентных процессах принятия решений» . Материалы 6-й конференции по теоретическим аспектам рациональности и познания : 195–210.
  13. ^ Стоун, Питер; Каминка, Гал А.; Краус, Сарит; Розеншайн, Джеффри С. (июль 2010 г.). Специальные группы автономных агентов: сотрудничество без предварительной координации . АААИ 11.
  14. ^ Ферстер, Якоб Н.; Сонг, Х. Фрэнсис; Хьюз, Эдвард; Берч, Нил; Даннинг, Иэн; Уайтсон, Шимон; Ботвиник, Мэтью М; Боулинг, Майкл Х. Байесовский декодер действий для глубокого многоагентного обучения с подкреплением . ICML 2019. arXiv : 1811.01458 .
  15. ^ Ши, Энди; Сони, Арджун; Кондич, Йована; Эрмон, Стефано; Садиг, Дорса. О критической роли соглашений в адаптивном сотрудничестве человека и искусственного интеллекта . ICLR 2021. arXiv : 2104.02871 .
  16. ^ Беттини, Маттео; Кортвелеси, Райан; Блюменкамп, Ян; Пророк, Аманда (2022). «VMAS: векторизованный многоагентный симулятор для коллективного обучения роботов». 16-й Международный симпозиум по распределенным автономным робототехническим системам . Спрингер. arXiv : 2207.03530 .
  17. ^ Шалев-Шварц, Шай; Шамма, Шакед; Шашуа, Амнон (2016). «Безопасное многоагентное обучение с подкреплением для автономного вождения». arXiv : 1610.03295 [ cs.AI ].
  18. ^ Коппарапу, Кавья; Дуэньес-Гусман, Эдгар А.; Матиас, Джейд; Вежневец, Александр Саша; Агапиу, Джон П.; Макки, Кевин Р.; Эверетт, Ричард; Марецкий, Януш; Лейбо, Джоэл З.; Грепель, Тор (2022). «Скрытая повестка дня: игра в социальную дедукцию с разнообразными изученными равновесиями». arXiv : 2201.01816 [ cs.AI ].
  19. ^ Бахтин, Антон; Браун, Ноам; и др. (2022). «Игра в дипломатию на человеческом уровне путем объединения языковых моделей со стратегическим мышлением» . Наука . 378 (6624). Спрингер: 1067–1074. Бибкод : 2022Sci...378.1067M . дои : 10.1126/science.ade9097 . ПМИД   36413172 . S2CID   253759631 .
  20. ^ Самвелян, Микаел; Рашид, Табиш; де Витт, Кристиан Шредер; Фаркуар, Грегори; Нарделли, Нантас; Руднер, Тим Дж.Дж.; Хунг, Чиа-Ман; Торр, Филип Х.С.; Ферстер, Якоб; Уайтсон, Шимон (2019). «Мультиагентное испытание StarCraft». arXiv : 1902.04043 [ cs.LG ].
  21. ^ Эллис, Бенджамин; Моалла, Скандер; Самвелян, Микаел; Сунь, Минфэй; Махаджан, Анудж; Ферстер, Якоб Н.; Уайтсон, Шимон (2022). «SMACv2: улучшенный эталон совместного многоагентного обучения с подкреплением». arXiv : 2212.07489 [ cs.LG ].
  22. ^ Сандхольм, Тумас В.; Криты, Роберт Х. (1996). «Многоагентное обучение с подкреплением в повторяющейся дилемме заключенного». Биосистемы . 37 (1–2): 147–166. Бибкод : 1996BiSys..37..147S . дои : 10.1016/0303-2647(95)01551-5 . ПМИД   8924633 .
  23. ^ Пейсахович, Александр; Лерер, Адам (2018). «Агенты просоциального обучения решают общие охоты на оленей лучше, чем эгоистичные». ААМАС 2018 . arXiv : 1709.02865 .
  24. ^ Дефо, Аллан; Хьюз, Эдвард; Бахрах, Йорам; и др. (2020). «Открытые проблемы кооперативного ИИ». НейрИПС 2020 . arXiv : 2012.08630 .
  25. ^ Кестер, Рафаэль; Хэдфилд-Менелл, Дилан; Хэдфилд, Джиллиан К.; Лейбо, Джоэл З. «Глупые правила улучшают способность агентов учиться стабильному поведению в области соблюдения и соблюдения требований». ААМАС 2020 . arXiv : 2001.09318 .
  26. ^ Лейбо, Джоэл З.; Замбальди, Виниций; Ланкто, Марк; Марецкий, Януш; Грепель, Тор (2017). «Многоагентное обучение с подкреплением в последовательных социальных дилеммах». ААМАС 2017 . arXiv : 1702.03037 .
  27. ^ Баджатия, Пинкеш; Саркар, Маусум (2020). «Стимулирование кооперативного поведения в решении последовательно-социальных дилемм посредством многоагентного обучения с подкреплением с использованием потери статус-кво». arXiv : 2001.05458 [ cs.AI ].
  28. ^ Лейбо, Джоэл З.; Хьюз, Эдвард; и др. (2019). «Автоучебные программы и появление инноваций в результате социального взаимодействия: манифест многоагентных разведывательных исследований». arXiv : 1903.00742v2 [ cs.AI ].
  29. ^ Бейкер, Боуэн; и др. (2020). «Неожиданное использование инструментов из многоагентных автоучебных программ». ИКЛР 2020 . arXiv : 1909.07528 .
  30. ^ Кастинг, Джеймс Ф.; Зиферт, Джанет Л. (2002). «Жизнь и эволюция земной атмосферы». Наука . 296 (5570): 1066–1068. Бибкод : 2002Sci...296.1066K . дои : 10.1126/science.1071184 . ПМИД   12004117 . S2CID   37190778 .
  31. ^ Кларк, Грегори (2008). Прощание с милостыней: краткая экономическая история мира . Издательство Принстонского университета. ISBN  978-0-691-14128-2 .
  32. ^ Перейти обратно: а б с д и ж г час Ли, Тяньсюй; Чжу, Кун; Луонг, Нгуен Конг; Ниято, Дусит; Ву, Цихуэй; Чжан, Ян; Чен, Бин (2021). «Применение многоагентного обучения с подкреплением в будущем Интернете: комплексное исследование». arXiv : 2110.13484 [ cs.AI ].
  33. ^ Ле, Нган; Ратур, Видхивар Сингх; Ямадзаки, Касю; Луу, Хоа; Саввидес, Мариос (2021). «Глубокое обучение с подкреплением в компьютерном зрении: комплексное исследование». arXiv : 2108.11510 [ cs.CV ].
  34. ^ Мулен-Фрие, Клеман; Удейер, Пьер-Ив (2020). «Многоагентное обучение с подкреплением как вычислительный инструмент для исследования эволюции языка: исторический контекст и будущие задачи». arXiv : 2002.08878 [ cs.MA ].
  35. ^ Киллиан, Джексон; Сюй, Лили; Бисвас, Арпита; Верма, Шрест; и др. (2023). Надежное планирование в отношении беспокойных групп: меры по вовлечению в крупномасштабную программу телемедицины матерей . АААИ.
  36. ^ Кришнан, Шриватсан; Жак, Наташа; Омидшафии, Шайеган; Чжан, Дэн; Гур, Иззеддин; Редди, Виджай Джанапа; Фауст, Александра (2022). «Многоагентное обучение с подкреплением для исследования космоса при проектировании микропроцессоров». arXiv : 2211.16385 [ cs.AR ].
  37. ^ Ли, Юаньчжэн; Он, Шанъян; Ли, Ян; Ши, Ян; Цзэн, Чжиган (2023). «Подход к федеративному многоагентному глубокому обучению с использованием основанного на физике вознаграждения за управление энергопотреблением в нескольких микросетях». Транзакции IEEE в нейронных сетях и системах обучения . ПП (5): 5902–5914. arXiv : 2301.00641 . дои : 10.1109/TNNLS.2022.3232630 . ПМИД   37018258 . S2CID   255372287 .
  38. ^ Ци, Хай; Лю, Микель; Пан, Сюэхай; Чжун, Фанвэй; Ван, Ичжоу (2023). Проактивная совместная работа нескольких камер для трехмерной оценки позы человека . Международная конференция по обучению представлений.
  39. ^ Виницкий, Евгений; Крейди, Абуди; Ле Флем, Люк; Хетерпал, Нишант; Джанг, Кэти; Ву, Фангюй; Лиау, Ричард; Лян, Эрик; Байен, Александр М. (2018). Тесты для обучения с подкреплением в трафике со смешанной автономией (PDF) . Конференция по обучению роботов.
  40. ^ Тейлс, Карл; Омидшафии, Шайеган; Мюллер, Пол; Ван, Чжэ; Коннор, Джером; Хеннес, Дэниел; Грэм, Ян; Спирмен, Уильям; Васкетт, Тим; Стил, Дэфид; Люк, Полина; Реказенс, Адриа; Галашов, Александр; Торнтон, Грегори; Эли, Ромуальд; Шпрехманн, Пабло; Морено, Пол; Цао, Крис; Гарнело, Марта; Дутта, Пранит; Валко, Михал; Хесс, Николас; Бриджланд, Алекс; Перола, Жюльен; Де Вилдер, Барт; Эслами, Али; Роуленд, Марк; Джегл, Эндрю; Мунос, Реми; Назад, Тревор; Ахамед, Разия; Бутон, Саймон; Богерланж, Натали; Брошир, Джексон; Грепель, Торе; Хассабис, Демис (2020). «План игры: что ИИ может сделать для футбола и что футбол может сделать для ИИ». arXiv : 2011.09192 [ cs.AI ].
  41. ^ Чу, Тяньшу; Ван, Цзе; Кодек├á, Лара; Ли, Чжаоцзян (2019). «Многоагентное глубокое обучение с подкреплением для крупномасштабного управления светофорами». arXiv : 1903.04527 [ cs.LG ].
  42. ^ Беллетти, Франсуа; Хазиза, Дэниел; Гомес, Габриэль; Байен, Александр М. (2017). «Экспертный уровень контроля линейного измерения на основе многозадачного глубокого обучения с подкреплением». arXiv : 1701.08832 [ cs.AI ].
  43. ^ Дин, Яхао; Ян, Чжаохуэй; Фам, Куок-Вьет; Чжан, Чжаоян; Ших-Бахаи, Мохаммед (2023). «Распределенное машинное обучение для групп БПЛА: вычисления, зондирование и семантика». arXiv : 2301.00912 [ cs.LG ].
  44. ^ Сюй, Лили; Перро, Эндрю; Фанг, Фей; Чен, Хайпэн; Тамбе, Милинд (2021). «Надежное обучение с подкреплением при минимаксном сожалении по поводу зеленой безопасности». arXiv : 2106.08413 [ cs.LG ].
  45. ^ Лейке, Джон; Мартич, Мильян; Краковна, Виктория; Ортега, Педро А.; Эверитт, Том; Лефранк, Эндрю; Орсо, Лоран; Легг, Шейн (2017). «Сетевые миры безопасности искусственного интеллекта». arXiv : 1711.09883 [ cs.AI ].
  46. ^ Хэдфилд-Менелл, Дилан; Драган, Анка; Аббель, Питер; Рассел, Стюарт (2016). «Игра с выключением». arXiv : 1611.08219 [ cs.AI ].
  47. ^ Эрнандес-Леаль, Пабло; Картал, Билал; Тейлор, Мэтью Э. (01 ноября 2019 г.). «Обзор и критика многоагентного обучения с глубоким подкреплением». Автономные агенты и мультиагентные системы . 33 (6): 750–797. arXiv : 1810.05587 . дои : 10.1007/s10458-019-09421-1 . ISSN   1573-7454 . S2CID   52981002 .
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 47c0b53998116496910d4623515711ce__1721765640
URL1:https://arc.ask3.ru/arc/aa/47/ce/47c0b53998116496910d4623515711ce.html
Заголовок, (Title) документа по адресу, URL1:
Multi-agent reinforcement learning - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)