Jump to content

Закон об искусственном интеллекте

Регулирование
Регламент Европейского Союза
Заголовок Закон об искусственном интеллекте [а]
Сделано Европейский парламент и Совет
История
Голосование в Европейском парламенте 13 марта 2024 г.
Голосование Совета 21 мая 2024 г.
Подготовительные тексты
комиссии Предложение 2021/206
Действующее законодательство

Закон об искусственном интеллекте ( Закон об искусственном интеллекте ) [а] — это постановление Европейского Союза, касающееся искусственного интеллекта (ИИ).

Он устанавливает общую нормативно- правовую базу для ИИ в Европейском Союзе (ЕС). [1] Предложено Европейской комиссией 21 апреля 2021 г. [2] он был принят Европейским парламентом 13 марта 2024 года, [3] и был единогласно одобрен Советом ЕС 21 мая 2024 года. [4] Закон также создает Европейский совет по искусственному интеллекту для содействия национальному сотрудничеству и обеспечения соблюдения правил. [5] ЕС Как и Общий регламент по защите данных , Закон может применяться экстерриториально к поставщикам из-за пределов ЕС, если у них есть пользователи на территории ЕС. [6]

Он охватывает все типы ИИ в широком спектре секторов, за исключением систем ИИ, используемых исключительно в военных целях, национальной безопасности, исследованиях и непрофессиональных целях. [7] Как часть регулирования продукции, он не предоставляет права отдельным лицам, но регулирует поставщиков систем ИИ и организаций, использующих ИИ в профессиональном контексте. [6] Проект закона был пересмотрен с учетом роста популярности генеративных систем искусственного интеллекта , таких как ChatGPT , чьи универсальные возможности не вписывались в основную структуру. [8] Более строгие правила планируются для мощных генеративных систем искусственного интеллекта с системным воздействием. [9]

Закон классифицирует приложения ИИ, не освобожденные от налога, по риску причинения вреда. Существует четыре уровня — неприемлемый, высокий, ограниченный, минимальный — плюс дополнительная категория для ИИ общего назначения. Приложения с неприемлемыми рисками запрещены. Приложения с высоким уровнем риска должны соответствовать обязательствам по безопасности, прозрачности и качеству и проходить оценку соответствия . Приложения с ограниченным риском имеют только обязательства по прозрачности, тогда как приложения с минимальным риском не регулируются. Для ИИ общего назначения предъявляются требования прозрачности, а для моделей с высокими возможностями проводятся дополнительные оценки. [9] [10]

Положения [ править ]

Категории рисков [ править ]

Существуют различные категории риска в зависимости от типа приложения, при этом определенная категория посвящена генеративному ИИ общего назначения:

  • Неприемлемый риск — приложения ИИ в этой категории запрещены, за исключением особых исключений . [11] Если не применяется исключение, сюда входят приложения искусственного интеллекта, которые манипулируют поведением человека идентификацию в реальном времени , те, которые используют дистанционную биометрическую (например, распознавание лиц ) в общественных местах, а также те, которые используются для социального рейтинга (ранжирование людей на основе их личных характеристик, социально-социальных характеристик). экономический статус или поведение). [10]
  • Высокий риск – приложения ИИ, которые, как ожидается, будут представлять значительную угрозу здоровью, безопасности или основным правам людей. В частности, системы искусственного интеллекта используются в здравоохранении, образовании, подборе персонала, управлении критически важной инфраструктурой, правоохранительной деятельности или правосудии. На них распространяются обязательства по качеству, прозрачности, человеческому надзору и безопасности, а в некоторых случаях перед развертыванием требуется «Оценка воздействия на фундаментальные права». [12] Их необходимо оценивать как до того, как они будут размещены на рынке, так и на протяжении всего их жизненного цикла. Список приложений высокого риска может со временем расширяться без необходимости изменения самого Закона об ИИ. [6]
  • ИИ общего назначения. Эта категория добавлена ​​в 2023 году и включает, в частности, базовые модели, такие как ChatGPT. На них распространяются требования прозрачности. Высокоэффективные системы искусственного интеллекта общего назначения, которые могут представлять системные риски (особенно те, которые обучены с использованием вычислительных возможностей, превышающих 10 25 ФЛОПС ) [13] также должны пройти тщательную процедуру оценки. [10]
  • Ограниченный риск. Системы ИИ в этой категории имеют обязательства по прозрачности, гарантируя, что пользователи будут информированы о том, что они взаимодействуют с системой ИИ, и позволяя им делать осознанный выбор. В эту категорию входят, например, приложения искусственного интеллекта, которые позволяют создавать или манипулировать изображениями, звуком или видео (например, дипфейки ). [10] В этой категории не регулируются, за некоторыми исключениями, бесплатные модели с открытым исходным кодом ( т. е. параметры которых общедоступны). [13] [14]
  • Минимальный риск. В эту категорию входят, например, системы искусственного интеллекта, используемые в видеоиграх, или спам-фильтры . Ожидается, что большинство приложений ИИ попадут в эту категорию. [15] Эти системы не регулируются, и государства-члены не могут вводить дополнительные правила из-за правил максимальной гармонизации . Существующие национальные законы, касающиеся проектирования или использования таких систем, игнорируются. Однако предлагается добровольный кодекс поведения. [16]

Исключения [ править ]

Статьи 2.3 и 2.6 освобождают системы искусственного интеллекта, используемые для целей военной или национальной безопасности , а также чисто научных исследований и разработок, от действия Закона об искусственном интеллекте. [11]

Статья 5.2 запрещает алгоритмическое видеонаблюдение только в том случае, если оно ведется в режиме реального времени. Исключения, допускающие алгоритмическое видеонаблюдение в режиме реального времени, включают полицейские цели, включая «реальную и настоящую или реальную и предсказуемую угрозу террористической атаки». [11]

Статья 31 закона запрещает «системы искусственного интеллекта, обеспечивающие социальную оценку физических лиц государственными или частными субъектами», но допускает «законную практику оценки физических лиц, которая осуществляется для конкретной цели в соответствии с законодательством Союза и национальным законодательством». [17] La Quadrature du Net интерпретирует это исключение как разрешение использования систем социального оценивания для конкретных секторов. [11] например, рейтинг подозрительности, используемый французским агентством семейных платежей Caisse d'allocations familiales . [18] [11]

управление Институциональное

Закон об AI, согласно Законодательной резолюции Европейского парламента от 13 марта 2024 года, предусматривает создание различных новых институтов в статье 64 и последующих статьях. Этим учреждениям поручено осуществлять и обеспечивать соблюдение Закона об искусственном интеллекте. Подход характеризуется многоплановым сочетанием централизованного и децентрализованного, а также государственного и частного правоприменения благодаря взаимодействию различных институтов и субъектов как на уровне ЕС, так и на национальном уровне.

Будут созданы следующие новые учреждения: [19] [20]

  1. Управление ИИ: этот орган, прикрепленный к Европейской комиссии, будет координировать реализацию Закона об ИИ во всех государствах-членах и контролировать соблюдение требований поставщиками ИИ общего назначения.
  2. Европейский совет по искусственному интеллекту: состоит из одного представителя от каждого государства-члена. Совет будет консультировать и помогать Комиссии и государствам-членам способствовать последовательному и эффективному применению Закона об искусственном интеллекте. В его задачи входит сбор и обмен техническими и нормативными знаниями, предоставление рекомендаций, письменных заключений и других консультаций.
  3. Консультативный форум: созданный для консультирования и предоставления технических знаний Совету и Комиссии. Этот форум будет представлять сбалансированный выбор заинтересованных сторон, включая промышленность, стартапы, малые и средние предприятия, гражданское общество и научные круги, гарантируя, что В процессе внедрения и применения представлен широкий спектр мнений.
  4. Научная группа независимых экспертов: эта группа будет предоставлять технические консультации и информацию Управлению ИИ и национальным органам власти, обеспечивать соблюдение правил для моделей ИИ общего назначения (в частности, путем запуска квалифицированных предупреждений о возможных рисках для Управления ИИ) и обеспечивать соблюдение правил. а реализация Закона об искусственном интеллекте соответствует последним научным открытиям.

Хотя создание новых институтов планируется на уровне ЕС, государствам-членам придется назначить «национальные компетентные органы». [21] Эти органы будут нести ответственность за обеспечение применения и реализации Закона об искусственном интеллекте, а также за проведение «надзора за рынком». [22] Они будут проверять соответствие систем искусственного интеллекта нормативам, в частности, проверяя правильность проведения оценок соответствия и назначая третьи стороны для проведения внешних оценок соответствия.

Правоприменение [ править ]

Закон регулирует выход на внутренний рынок ЕС с использованием новой законодательной базы. Он содержит основные требования, которым должны соответствовать все системы искусственного интеллекта для доступа на рынок ЕС. Эти основные требования передаются Европейским организациям по стандартизации, которые разрабатывают технические стандарты, детализирующие эти требования. [23]

Закон требует, чтобы государства-члены создавали свои собственные уведомляющие органы. Оценка соответствия проводится для проверки соответствия систем ИИ стандартам, изложенным в Законе об ИИ. [24] Эту оценку можно проводить двумя способами: либо посредством самооценки, когда поставщик системы ИИ проверяет соответствие, либо посредством оценки соответствия третьей стороной, когда оценку проводит уведомляющий орган. [25] Уведомляющие органы также имеют полномочия проводить аудит для обеспечения надлежащей оценки соответствия. [26]

Критика возникла в связи с тем, что многие системы искусственного интеллекта высокого риска не требуют сторонней оценки соответствия. [27] [28] [29] Некоторые комментаторы утверждают, что независимые сторонние оценки необходимы для систем искусственного интеллекта высокого риска, чтобы обеспечить безопасность перед их развертыванием. Ученые-правоведы предположили, что системы искусственного интеллекта, способные генерировать дипфейки для политической дезинформации или создавать интимные образы без согласия, следует отнести к категории высокого риска и подвергнуть более строгому регулированию. [30]

Законодательная процедура [ править ]

В феврале 2020 года Европейская комиссия опубликовала «Белую книгу по искусственному интеллекту – европейский подход к совершенству и доверию». [31] прошли дебаты между лидерами ЕС В октябре 2020 года в Европейском совете . 21 апреля 2021 года Закон об искусственном интеллекте был официально предложен Комиссией. 6 декабря 2022 года Европейский совет принял общую ориентацию, позволяющую начать переговоры с Европейским парламентом . 9 декабря 2023 года, после трех дней «марафона» переговоров, Совет ЕС и Парламент заключили соглашение. [32]

Закон был принят Европейским парламентом 13 марта 2024 года 523 голосами за, 46 против и 49 воздержавшихся. [33] Он был одобрен Советом ЕС 21 мая 2024 года. [4] Он вступит в силу через 20 дней после публикации в Официальном журнале в конце законодательного срока в мае. [3] [34] После вступления в силу пройдет задержка, прежде чем он начнет применяться, что зависит от типа заявления. Эта задержка составляет 6 месяцев для запретов на системы ИИ с «неприемлемым риском», 9 месяцев для кодексов практики, 12 месяцев для систем ИИ общего назначения, 36 месяцев для некоторых обязательств, связанных с системами ИИ «высокого риска», и 24 месяца для все остальное. [34] [33]

Реакция [ править ]

Эксперты утверждают, что, хотя юрисдикция закона является европейской, он может иметь далеко идущие последствия для международных компаний, которые планируют расширяться в Европу. [35] Ану Брэдфорд из Колумбийского университета утверждает, что закон придает значительный импульс всемирному движению по регулированию технологий искусственного интеллекта. [35]

Amnesty International раскритиковала Закон об искусственном интеллекте за то, что он не полностью запрещает распознавание лиц в реальном времени , что, по их словам, может нанести ущерб «правам человека, гражданскому пространству и верховенству закона» в Европейском Союзе. Он также раскритиковал отсутствие запрета на экспорт технологий искусственного интеллекта, которые могут нанести ущерб правам человека. [35]

Некоторые наблюдатели за технологиями утверждают, что в законе есть серьезные лазейки, которые позволяют крупным технологическим монополиям закреплять свое преимущество в области ИИ или лоббировать ослабление правил. [36] [37] Некоторые стартапы приветствовали разъяснения, которые дает закон, в то время как другие утверждали, что дополнительное регулирование сделает европейские стартапы неконкурентоспособными по сравнению со стартапами из Америки и Китая. [37] La Quadrature du Net (LQDN) охарактеризовала Закон об искусственном интеллекте как «специально созданный для технологической индустрии, европейских полицейских сил, а также других крупных бюрократических структур, стремящихся автоматизировать социальный контроль». LQDN описал роль саморегулирования и исключений из закона, чтобы сделать его «в значительной степени неспособным противостоять социальному, политическому и экологическому ущербу, связанному с распространением ИИ». [11]

См. также [ править ]

Примечания [ править ]

  1. ^ Jump up to: Перейти обратно: а б Официально Регламент Европейского парламента и Совета, устанавливающий гармонизированные правила в области искусственного интеллекта и вносящий поправки в Регламенты (ЕС) № 300/2008, (ЕС) № 167/2013, (ЕС) № 168/2013, (ЕС) 2018/ 858, (ЕС) 2018/1139 и (ЕС) 2019/2144, а также директивы 2014/90/EU, (ЕС) 2016/797 и (ЕС) 2020/1828.

Ссылки [ править ]

  1. ^ «Предложение о постановлении, устанавливающем гармонизированные правила в области искусственного интеллекта: формирование цифрового будущего Европы» . digital-strategy.ec.europa.eu . 21 апреля 2021 года. Архивировано из оригинала 4 января 2023 года . Проверено 9 января 2023 г.
  2. ^ «EUR-Lex – 52021PC0206 – EN – EUR-Lex» . eur-lex.europa.eu . Архивировано из оригинала 23 августа 2021 года . Проверено 7 сентября 2021 г.
  3. ^ Jump up to: Перейти обратно: а б «Первый в мире крупный закон по регулированию ИИ принят европейскими законодателями» . CNBC . 14 марта 2024 года. Архивировано из оригинала 13 марта 2024 года . Проверено 13 марта 2024 г.
  4. ^ Jump up to: Перейти обратно: а б Браун, Райан (21 мая 2024 г.). «Первый в мире крупный закон об искусственном интеллекте получил окончательный зеленый свет ЕС» . CNBC . Архивировано из оригинала 21 мая 2024 года . Проверено 22 мая 2024 г.
  5. ^ Маккарти, Марк; Пропп, Кеннет (4 мая 2021 г.). «Машины узнают, что правила пишет Брюссель: новое регулирование ИИ в ЕС» . Брукингс . Архивировано из оригинала 27 октября 2022 года . Проверено 7 сентября 2021 г.
  6. ^ Jump up to: Перейти обратно: а б с Мюллер, Бенджамин (4 мая 2021 г.). «Закон об искусственном интеллекте: краткое объяснение» . Центр инноваций в области данных . Архивировано из оригинала 14 октября 2022 года . Проверено 6 января 2024 г.
  7. ^ «Закон об искусственном интеллекте: Совет и парламент заключают соглашение о первых в мире правилах для ИИ» . Совет ЕС . 9 декабря 2023 года. Архивировано из оригинала 10 января 2024 года . Проверено 6 января 2024 г.
  8. ^ Коултер, Мартин (7 декабря 2023 г.). «Что такое Закон ЕС об искусственном интеллекте и когда он вступит в силу?» . Рейтер . Архивировано из оригинала 10 декабря 2023 года . Проверено 11 января 2024 г.
  9. ^ Jump up to: Перейти обратно: а б Эспиноза, Хавьер (9 декабря 2023 г.). «ЕС согласовывает эпохальные правила по искусственному интеллекту» . Файнэншл Таймс . Архивировано из оригинала 29 декабря 2023 года . Проверено 6 января 2024 г.
  10. ^ Jump up to: Перейти обратно: а б с д «Закон ЕС об искусственном интеллекте: первое постановление об искусственном интеллекте» . Новости Европейского Парламента . Архивировано из оригинала 10 января 2024 года . Проверено 6 января 2024 г.
  11. ^ Jump up to: Перейти обратно: а б с д и ж С принятием Закона об искусственном интеллекте золотая лихорадка техно-решений может продолжиться , La Quadrature du Net , 22 мая 2024 г., Викиданные   Q126064181 , заархивировано из оригинала 23 мая 2024 г.
  12. ^ Мантелеро, Алессандро (2022), Beyond Data. Оценка прав человека, этического и социального воздействия ИИ , Серия «Информационные технологии и право», том. 36, Гаага: Springer-TMC Asser Press, doi : 10.1007/978-94-6265-531-7 , ISBN  978-94-6265-533-1
  13. ^ Jump up to: Перейти обратно: а б Бертуцци, Лука (7 декабря 2023 г.). «Закон об искусственном интеллекте: политики ЕС устанавливают правила для моделей искусственного интеллекта, спорят с правоохранительными органами» . Еврактив . Архивировано из оригинала 8 января 2024 года . Проверено 6 января 2024 г.
  14. ^ «Регулирование чат-ботов и дипфейков» . mhc.ie. ​Мейсон Хейс и Карран. Архивировано из оригинала 9 января 2024 года . Проверено 11 января 2024 г.
  15. ^ Либорейро, Хорхе (21 апреля 2021 г.). « Высший риск, более строгие правила»: новые правила ЕС в области искусственного интеллекта» . Евроньюс . Архивировано из оригинала 6 января 2024 года . Проверено 6 января 2024 г.
  16. ^ Вил, Майкл (2021). «Демистификация проекта Закона ЕС об искусственном интеллекте». Обзор компьютерного права International . 22 (4). arXiv : 2107.03721 . дои : 10.31235/osf.io/38p5f . S2CID   241559535 .
  17. ^ «Законодательная резолюция Европейского парламента от 13 марта 2024 года о предложении постановления Европейского парламента и Совета об установлении гармонизированных правил в области искусственного интеллекта (Закон об искусственном интеллекте) и внесении поправок в некоторые законодательные акты Союза (COM(2021)0206 – C9) -0146/2021 – 2021/0106(COD))" . Архивировано из оригинала 21 мая 2024 года . Проверено 24 мая 2024 г.
  18. ^ Рейтинг бенефициаров: CAF расширяет свой мониторинг до анализа доходов в режиме реального времени (на французском языке), La Quadrature du Net , 13 марта 2024 г., Wikidata   Q126066451 , заархивировано из оригинала 1 апреля 2024 г.
  19. ^ Бертуцци, Лука (21 ноября 2023 г.). «Законодатели ЕС обсудят пересмотренную структуру управления сводом правил ИИ» . Еврактив . Архивировано из оригинала 22 мая 2024 года . Проверено 18 апреля 2024 г.
  20. ^ Фридл, Пауль; Гасиола, Густаво Хиль (7 февраля 2024 г.). «Изучение Закона ЕС об искусственном интеллекте» . Verfassungsblog . Архивировано из оригинала 22 мая 2024 года . Проверено 16 апреля 2024 г.
  21. ^ «Закон об искусственном интеллекте» . Европейский парламент . 13 марта 2024 года. Архивировано из оригинала 18 апреля 2024 года . Проверено 18 апреля 2024 г. Статья 3 – определения. Выдержка: «национальный компетентный орган» означает национальный надзорный орган, уведомляющий орган и орган по надзору за рынком;»
  22. ^ «Искусственный интеллект – вопросы и ответы» . Европейская комиссия . 12 декабря 2023 года. Архивировано из оригинала 6 апреля 2024 года . Проверено 17 апреля 2024 г.
  23. ^ Тартаро, Алессио (2023). «Регулирование посредством стандартов: текущий прогресс и основные проблемы в стандартизации искусственного интеллекта в поддержку Закона об искусственном интеллекте» . Европейский журнал права и технологий конфиденциальности . 1 (1). Архивировано из оригинала 3 декабря 2023 года . Проверено 10 декабря 2023 г.
  24. ^ «EUR-Lex – 52021SC0084 – EN – EUR-Lex» . eur-lex.europa.eu . Архивировано из оригинала 17 апреля 2023 года . Проверено 17 апреля 2023 г.
  25. ^ Вил, Майкл; Боргезиус, Фредерик Зейдервен (1 августа 2021 г.). «Демистификация проекта Закона ЕС об искусственном интеллекте — анализ хороших, плохих и неясных элементов предлагаемого подхода». Обзор компьютерного права International . 22 (4): 97–112. arXiv : 2107.03721 . дои : 10.9785/cri-2021-220402 . ISSN   2194-4164 . S2CID   235765823 .
  26. ^ Касароза, Федерика (1 июня 2022 г.). «Сертификация искусственного интеллекта по кибербезопасности: упущенная возможность координировать действия Закона об искусственном интеллекте и Закона о кибербезопасности». Обзор международного права в области кибербезопасности . 3 (1): 115–130. дои : 10.1365/s43439-021-00043-6 . ISSN   2662-9739 . S2CID   258697805 .
  27. ^ Смуха, Натали А.; Ахмед-Ренгерс, Эмма; Харкенс, Адам; Ли, Вэньлун; Макларен, Джеймс; Пизелли, Риккардо; Юнг, Карен (5 августа 2021 г.). «Как ЕС может добиться юридически надежного искусственного интеллекта: ответ на предложение Европейской комиссии о законе об искусственном интеллекте» . дои : 10.2139/ssrn.3899991 . S2CID   239717302 . ССНР   3899991 . Архивировано из оригинала 26 февраля 2024 года . Проверено 14 марта 2024 г.
  28. ^ Эберс, Мартин; Хох, Вероника Р.С.; Розенкранц, Франк; Рушемайер, Ханна; Штайнрёттер, Бьорн (декабрь 2021 г.). «Предложение Европейской комиссии о Законе об искусственном интеллекте — критическая оценка членов Общества юристов в области робототехники и искусственного интеллекта (RAILS)» . Дж . 4 (4): 589–603. дои : 10.3390/j4040043 . ISSN   2571-8800 .
  29. ^ Алмада, Марко; Пети, Николя (27 октября 2023 г.). «Закон ЕС об искусственном интеллекте: между безопасностью продукции и основными правами» . Исследовательский документ Центра перспективных исследований Роберта Шумана № 2023/59 . дои : 10.2139/ssrn.4308072 . S2CID   255388310 . ССНР   4308072 . Архивировано из оригинала 17 апреля 2023 года . Проверено 14 марта 2024 г.
  30. ^ Ромеро-Морено, Фелипе (29 марта 2024 г.). «Генераторный искусственный интеллект и дипфейки: правозащитный подход к борьбе с вредным контентом» . Международное обозрение права, компьютеров и технологий . 39 (2): 1–30. дои : 10.1080/13600869.2024.2324540 . hdl : 2299/20431 . ISSN   1360-0869 .
  31. ^ «Белая книга по искусственному интеллекту – европейский подход к совершенству и доверию» . Европейская комиссия . 19 февраля 2020 года. Архивировано из оригинала 5 января 2024 года . Проверено 6 января 2024 г.
  32. ^ «Хронология – Искусственный интеллект» . Европейский совет . 9 декабря 2023 года. Архивировано из оригинала 6 января 2024 года . Проверено 6 января 2024 г.
  33. ^ Jump up to: Перейти обратно: а б «Закон об искусственном интеллекте: депутаты Европарламента принимают знаковый закон» . Европейский парламент . 13 марта 2024 года. Архивировано из оригинала 15 марта 2024 года . Проверено 14 марта 2024 г.
  34. ^ Jump up to: Перейти обратно: а б Дэвид, Эмилия (14 декабря 2023 г.). «Закон ЕС об искусственном интеллекте принят — теперь настало время ожидания» . Грань . Архивировано из оригинала 10 января 2024 года . Проверено 6 января 2024 г.
  35. ^ Jump up to: Перейти обратно: а б с «Европа согласовала ведущие в мире правила ИИ. Как они работают и повлияют ли они на людей повсюду?» . АП Новости . 11 декабря 2023 г. Проверено 31 мая 2024 г.
  36. ^ «Парламент ЕС одобрил важные правила в области искусственного интеллекта» . Аль Джазира . Проверено 31 мая 2024 г.
  37. ^ Jump up to: Перейти обратно: а б «ЕС принял первый закон об искусственном интеллекте. Технические эксперты говорят, что он «горько-сладкий» » . Евроньюс . 16 марта 2024 г. Проверено 31 мая 2024 г.

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 583423a0fd1c61d9036dd3fc6b7bca79__1717126560
URL1:https://arc.ask3.ru/arc/aa/58/79/583423a0fd1c61d9036dd3fc6b7bca79.html
Заголовок, (Title) документа по адресу, URL1:
Artificial Intelligence Act - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)