~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 0ED984E4213C721DA1C6F03D8A6F01A6__1717721160 ✰
Заголовок документа оригинал.:
✰ Entropy (information theory) - Wikipedia ✰
Заголовок документа перевод.:
✰ Энтропия (теория информации) — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Entropy_(information_theory) ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/0e/a6/0ed984e4213c721da1c6f03d8a6f01a6.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/0e/a6/0ed984e4213c721da1c6f03d8a6f01a6__translat.html ✰
Дата и время сохранения документа:
✰ 16.06.2024 04:03:29 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 7 June 2024, at 03:46 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Энтропия (теория информации) — Википедия Jump to content

Энтропия (теория информации)

Из Википедии, бесплатной энциклопедии

В теории информации энтропия это средний уровень «информации», «неожиданности» или «неопределенности» , случайной величины присущий возможным результатам переменной. Учитывая дискретную случайную величину , который принимает значения из набора и распределяется по , энтропия

где обозначает сумму возможных значений переменной. Выбор базы для , логарифм , варьируется для разных приложений. База 2 дает единицу измерения битов (или « шеннон »), тогда как база e дает «натуральные единицы» nat , а база 10 дает единицы «диты», «баны» или « хартли ». Эквивалентное определение энтропии — это ожидаемое значение собственной информации переменной. [1]

Два бита энтропии: в случае двух честных бросков монеты информационная энтропия в битах представляет собой логарифм числа возможных результатов по основанию 2 с двумя монетами существует четыре возможных результата и два бита энтропии. Как правило, информационная энтропия — это средний объем информации, передаваемой событием, с учетом всех возможных результатов.

Понятие информационной энтропии было введено Клодом Шенноном в его статье 1948 года « Математическая теория коммуникации ». [2] [3] и также называется энтропией Шеннона . Теория Шеннона определяет систему передачи данных, состоящую из трех элементов: источника данных, канала связи и приемника. «Фундаментальная проблема коммуникации», как выразился Шеннон, заключается в том, чтобы приемник мог определить, какие данные были сгенерированы источником, на основе сигнала, который он получает по каналу. [2] [3] Шеннон рассмотрел различные способы кодирования, сжатия и передачи сообщений из источника данных и в своей теореме о кодировании источника доказал , что энтропия представляет собой абсолютный математический предел того, насколько хорошо данные из источника могут быть сжаты без потерь в совершенно бесшумный канал. Шеннон значительно усилил этот результат для шумных каналов в своей теореме о кодировании шумных каналов .

Энтропия в теории информации прямо аналогична энтропии в статистической термодинамике . Аналогия возникает, когда значения случайной величины обозначают энергии микросостояний, поэтому формула Гиббса для энтропии формально идентична формуле Шеннона. Энтропия имеет отношение к другим областям математики, таким как комбинаторика и машинное обучение . Это определение можно вывести из набора аксиом, устанавливающих, что энтропия должна быть мерой того, насколько информативен средний результат переменной. Для непрерывной случайной величины дифференциальная энтропия аналогична энтропии. Определение обобщает вышесказанное.

Введение [ править ]

Основная идея теории информации заключается в том, что «информационная ценность» передаваемого сообщения зависит от степени неожиданности содержания сообщения. Если происходит весьма вероятное событие, сообщение несет очень мало информации. С другой стороны, если происходит маловероятное событие, сообщение будет гораздо более информативным. Например, знание того, что какое-то конкретное число не будет выигрышным в лотерее, дает очень мало информации, поскольку любое конкретное выбранное число почти наверняка не выиграет. Однако знание о том, что определенное число выиграет в лотерею, имеет высокую информационную ценность, поскольку сообщает о наступлении события с очень низкой вероятностью.

Информационное содержание , также называемое неожиданностью или самоинформацией. события — это функция, которая возрастает с увеличением вероятности события уменьшается. Когда близко к 1, неожиданность события мала, но если близко к 0, неожиданность события высока. Эта связь описывается функцией

где логарифм , который дает 0 сюрпризов, когда вероятность события равна 1. [4] Фактически, log — единственная функция, которая удовлетворяет определенному набору условий, определенных в разделе § Характеристика .

Следовательно, мы можем определить информацию или неожиданность события. к

или эквивалентно,

Энтропия измеряет ожидаемое (т. е. среднее) количество информации, передаваемой путем определения результата случайного испытания. [5] : 67  Это означает, что энтропия при броске игральной кости выше, чем при подбрасывании монеты, поскольку каждый исход при подбрасывании игральной кости имеет меньшую вероятность ( ), чем каждый результат подбрасывания монеты ( ).

Рассмотрим монету с вероятностью p выпадения орла и вероятностью 1 − p выпадения решки. Максимальный сюрприз – это случай, когда p = 1/2 , при котором один результат не ожидается по сравнению с другим. В этом случае энтропия подбрасывания монеты равна одному биту . (Аналогично, один трит с равновероятными значениями содержит (около 1,58496) бит информации, поскольку оно может иметь одно из трех значений.) Минимальная неожиданность — это когда p = 0 или p = 1 , когда результат события известен заранее, а энтропия равна нулю битов. Когда энтропия равна нулю, это иногда называют единицей, где вообще нет неопределенности – нет свободы выбора – нет информации . Другие значения p дают энтропию между нулем и единицей битов.

Пример [ править ]

Теория информации полезна для расчета наименьшего количества информации, необходимой для передачи сообщения, например, при сжатии данных . Например, рассмотрим передачу последовательностей, содержащих 4 символа «A», «B», «C» и «D», по двоичному каналу. Если все 4 буквы равновероятны (25%), нельзя добиться лучшего результата, чем использовать два бита для кодирования каждой буквы. «A» может кодироваться как «00», «B» как «01», «C» как «10» и «D» как «11». Однако, если вероятности каждой буквы неравны, скажем, «A» встречается с вероятностью 70%, «B» с вероятностью 26%, а «C» и «D» с вероятностью 2% каждая, можно назначить коды переменной длины. В этом случае «А» будет кодироваться как «0», «В» как «10», «С» как «110» и «D» как «111». При таком представлении в 70% случаев необходимо отправить только один бит, в 26% случаев — два бита и только в 4% случаев — 3 бита. В среднем требуется менее 2 битов, поскольку энтропия ниже (из-за высокой распространенности «А», за которым следует «В» — вместе 96% символов). Вычисление суммы вероятностно-взвешенных логарифмических вероятностей измеряет и отражает этот эффект. Английский текст, рассматриваемый как строка символов, имеет довольно низкую энтропию; т.е. это достаточно предсказуемо. Мы можем быть вполне уверены, что, например, «е» будет гораздо более распространено, чем «z», что сочетание «цюй» будет гораздо более распространено, чем любое другое сочетание с «q» в нем, и что сочетание «th» будет более распространенным, чем «z», «q» или «qu». По первым буквам зачастую можно угадать остальную часть слова. Английский текст имеет от 0,6 до 1,3 бит энтропии на символ сообщения. [6] : 234 

Определение [ править ]

Названный в честь Н-теоремы Больцмана , Шеннон определил энтропию Н (греческая заглавная буква эта ) дискретной случайной величины. , который принимает значения из набора и распределяется по такой, что :

Здесь ожидаемого значения , а информационное содержание X. I оператор [7] : 11  [8] : 19–20  сама по себе является случайной величиной.

Энтропию можно явно записать как:

где b основание логарифма используемого . Обычными значениями b являются 2, число Эйлера e и 10, а соответствующими единицами энтропии являются биты для b = 2 , nats для b = e и запреты для b = 10 . [9]

В случае для некоторых значение соответствующего слагаемого 0 log b (0) принимается равным 0 , что соответствует пределу : [10] : 13 

Можно также определить условную энтропию двух переменных и получение значений из наборов и соответственно, как: [10] : 16 

где и . Под этой величиной следует понимать остаточную случайность в случайной величине учитывая случайную величину .

Теория меры [ править ]

Энтропию можно формально определить на языке теории меры следующим образом: [11] Позволять быть вероятностным пространством . Позволять быть событием . Сюрприз является

Ожидаемый сюрприз является

А -почти раздел представляет собой набор семейств такой, что и для всех отдельных . (Это ослабление обычных условий разбиения.) Энтропия является

Позволять быть сигма-алгеброй на . Энтропия является

Наконец, энтропия вероятностного пространства равна , то есть энтропия по отношению к сигма-алгебры всех измеримых подмножеств .

Пример [ править ]

Энтропия Η( X ) (т.е. ожидаемый сюрприз ) подбрасывания монеты, измеренная в битах, отображается на графике в зависимости от смещения монеты Pr( X = 1) , где X = 1 представляет собой результат выпадения орла. [10] : 14–15 

Здесь энтропия составляет не более 1 бита, и для сообщения результата подбрасывания монеты (2 возможных значения) потребуется в среднем не более 1 бита (ровно 1 бит для честной монеты). Результат честного кубика (6 возможных значений) будет иметь энтропию log 2 6 бит.

Рассмотрим подбрасывание монеты с известной, но не обязательно справедливой вероятностью выпадения орла или решки; это можно смоделировать как процесс Бернулли .

Энтропия неизвестного результата следующего подбрасывания монеты максимизируется, если монета честная (то есть, если вероятность орла и решки равна 1/2). Это ситуация максимальной неопределенности, поскольку предсказать исход следующего броска труднее всего; результат каждого подбрасывания монеты дает один полный бит информации. Это потому что

Однако, если мы знаем, что монета нечестная, но выпадает орлом или решкой с вероятностью p и q , где p q , тогда неопределенности меньше. Каждый раз, когда его бросают, одна сторона поднимается с большей вероятностью, чем другая. Снижение неопределенности количественно выражается в более низкой энтропии: в среднем каждый бросок монеты дает менее одного полного бита информации. Например, если р = 0,7, то

Равномерная вероятность дает максимальную неопределенность и, следовательно, максимальную энтропию. Таким образом, энтропия может уменьшаться только по сравнению со значением, связанным с равномерной вероятностью. Крайним случаем является двусторонняя монета, у которой никогда не выпадает решка, или двусторонняя монета, у которой никогда не выпадает решка. Тогда нет никакой неопределенности. Энтропия равна нулю: каждый бросок монеты не дает новой информации, поскольку результат каждого броска монеты всегда определен. [10] : 14–15 

Характеристика [ править ]

Чтобы понять значение −Σ p i log( p i ) , сначала определите информационную функцию I в терминах события i с вероятностью p i . Количество информации, полученной в результате наблюдения события i, следует из решения Шеннона фундаментальных свойств информации : [12]

  1. I( p ) по монотонно убывает p : увеличение вероятности события уменьшает информацию от наблюдаемого события, и наоборот.
  2. I(1) = 0 : события, которые происходят всегда, не передают информацию.
  3. I( p1 независимых · p2 представляет ) = I( p1 событий ) + I( p2 . ) : информация, полученная из , собой сумму информации, полученной из каждого события

Учитывая два независимых события, если первое событие может дать один из n равновероятных исходов, а другое имеет один из m равновероятных исходов, то существует mn равновероятных исходов совместного события. Это означает, что если биты log 2 ( n ) необходимы для кодирования первого значения и биты log 2 ( m ) для кодирования второго, то требуется log 2 ( mn ) = log 2 ( m ) + log 2 ( n ). для кодирования обоих .

Шеннон обнаружил, что подходящий выбор дан кем-то: [13]

Фактически, единственно возможные значения являются для . Кроме того, выбор значения k эквивалентен выбору значения для , так что x соответствует основанию логарифма . Таким образом, энтропия характеризуется четырьмя вышеперечисленными свойствами.

Различные единицы информации ( биты для двоичного логарифма log 2 , nats для натурального логарифма ln , запреты для десятичного логарифма log 10 и т. д.) являются постоянными кратными друг другу. Например, в случае честного подбрасывания монеты орел предоставляет log 2 (2) = 1 бит информации, что составляет примерно 0,693 натс или 0,301 десятичной цифры. Из-за аддитивности n бросков предоставляют n бит информации, что составляет примерно 0,693 n nats или 0,301 n десятичных цифр.

Смысл . наблюдаемых событий (смысл сообщений ) не имеет значения в определении энтропии Энтропия учитывает только вероятность наблюдения конкретного события, поэтому инкапсулируемая ею информация — это информация об основном распределении вероятностей , а не о значении самих событий.

Альтернативная характеристика

Другая характеристика энтропии использует следующие свойства. Обозначим p i = Pr( X = x i ) и Η n ( p 1 , ..., p n ) = Η ( X ) .

  1. Непрерывность: H должна быть непрерывной , так что изменение значений вероятностей на очень небольшую величину должно изменить энтропию лишь на небольшую величину.
  2. Симметрия: H не должен меняться, если исходы x i переупорядочиваются. То есть, для любой перестановки из .
  3. Максимум: должно быть максимальным, если все исходы равновероятны, т.е. .
  4. Увеличение количества исходов: для равновероятных событий энтропия должна увеличиваться с увеличением количества исходов, т.е.
  5. Аддитивность: для данного ансамбля из n равномерно распределенных элементов, которые разбиты на k блоков (подсистем) по b 1 , ..., b k элементов в каждой, энтропия всего ансамбля должна быть равна сумме энтропии система ящиков и отдельные энтропии ящиков, каждая из которых взвешена с вероятностью нахождения в этом конкретном ящике.

Обсуждение [ править ]

Правило аддитивности имеет следующие последствия: для натуральных чисел b i где b 1 + ... + b k = n ,

Выбор k = n , b 1 = ... = bn = 1 означает, что энтропия определенного результата равна нулю: Η 1 (1) = 0 . Это означает, что эффективность исходного набора с n символами можно определить просто как равную его n -арной энтропии. См. также Избыточность (теория информации) .

Характеризация здесь налагает аддитивное свойство по отношению к разбиению множества . Между тем, условная вероятность определяется с точки зрения мультипликативного свойства: . Обратите внимание, что логарифм является промежуточным звеном между этими двумя операциями. Условная энтропия и связанные с ней величины, в свою очередь, наследуют простое соотношение. Определение теории меры в предыдущем разделе определяло энтропию как сумму ожидаемых сюрпризов. для экстремального разбиения. Здесь логарифм является специальным, а энтропия сама по себе не является мерой. По крайней мере, в теории информации двоичной строки, поддается практическому толкованию.

На основе таких отношений было определено множество связанных и конкурирующих величин. Например, анализ Дэвида Эллермана «логики разделов» определяет конкурирующую меру в структурах, двойственных мерам подмножеств универсального множества. [14] Информация выражается количественно как «диты» (различия), мера по разделам. «Диты» можно преобразовать в биты Шеннона , чтобы получить формулы условной энтропии и так далее.

аддитивности и субаддитивности посредством Альтернативная характеристика

Другая краткая аксиоматическая характеристика энтропии Шеннона была дана Акселем , Форте и Нг: [15] через следующие свойства:

  1. Субаддитивность: для совместно распределенных случайных величин .
  2. Аддитивность: когда случайные величины независимы.
  3. Расширяемость: , т. е. добавление результата с нулевой вероятностью не меняет энтропию.
  4. Симметрия: инвариантен относительно перестановки .
  5. Малый для малых вероятностей: .

Обсуждение [ править ]

Было показано, что любая функция удовлетворяющее вышеуказанным свойствам, должно быть постоянным кратным энтропии Шеннона с неотрицательной константой. [15] По сравнению с ранее упомянутыми характеристиками энтропии, эта характеристика фокусируется на свойствах энтропии как функции случайных величин (субаддитивность и аддитивность), а не на свойствах энтропии как функции вектора вероятности. .

Стоит отметить, что если отбросить свойство «малая для малых вероятностей», то должна быть неотрицательной линейной комбинацией энтропии Шеннона и энтропии Хартли . [15]

Дальнейшие свойства [ править ]

Энтропия Шеннона удовлетворяет следующим свойствам, для некоторых из которых полезно интерпретировать энтропию как ожидаемое количество полученной информации (или устраненной неопределенности) путем выявления значения случайной величины X :

  • Добавление или удаление события с нулевой вероятностью не увеличивает энтропию:
.
  • Максимальная энтропия события с n различными исходами равна log b ( n ) : она достигается за счет равномерного распределения вероятностей. То есть неопределенность максимальна, когда все возможные события равновероятны:
. [10] : 29 
  • Энтропия или количество информации, выявленной путем оценки ( X , Y ) (то есть оценки X и Y одновременно), равна информации, выявленной путем проведения двух последовательных экспериментов: сначала оценивая значение Y , затем выявляя значение X учитывая, что вы знаете значение Y . Это может быть записано как: [10] : 16 
  • Если где является функцией, то . Применяя предыдущую формулу к урожайность
так энтропия переменной может уменьшаться только тогда, когда последняя передается через функцию.
  • Если X и Y — две независимые случайные величины, то знание значения Y не влияет на наше знание значения X (поскольку они не влияют друг на друга своей независимостью):
  • В более общем смысле для любых случайных величин X и Y мы имеем
. [10] : 29 
  • Энтропия двух одновременных событий есть не более чем сумма энтропий каждого отдельного события, т.е. , с равенством тогда и только тогда, когда два события независимы. [10] : 28 
  • Энтропия является вогнутой относительно функции массы вероятности , то есть [10] : 30 
для всех функций вероятности и . [10] : 32 

Аспекты [ править ]

термодинамической энтропией Связь с

Вдохновением для принятия слова «энтропия» в теории информации послужило близкое сходство между формулой Шеннона и очень похожими известными формулами статистической механики .

В статистической термодинамике наиболее общей формулой термодинамической энтропии S термодинамической системы является энтропия Гиббса.

где k B постоянная Больцмана , а pi вероятность микросостояния . Энтропия Гиббса была определена Дж. Уиллардом Гиббсом в 1878 году после более ранней работы Больцмана (1872). [16]

Энтропия Гиббса практически без изменений переводится в мир квантовой физики , давая энтропию фон Неймана, введенную Джоном фон Нейманом в 1927 году:

где ρ — матрица плотности квантовомеханической системы, а Tr — след . [17]

На повседневном практическом уровне связь между информационной энтропией и термодинамической энтропией неочевидна. Физики и химики склонны больше интересоваться изменениями энтропии по мере того, как система самопроизвольно эволюционирует от своих начальных условий в соответствии со вторым законом термодинамики , а не неизменным распределением вероятностей. Как показывает мелочность константы Больцмана k B , изменения S / k B даже для крошечных количеств веществ в химических и физических процессах представляют собой количества энтропии, которые чрезвычайно велики по сравнению с чем-либо при сжатии данных или обработке сигналов . В классической термодинамике энтропия определяется с точки зрения макроскопических измерений и не имеет отношения к какому-либо распределению вероятностей, которое является центральным для определения информационной энтропии.

Связь между термодинамикой и тем, что сейчас известно как теория информации, была впервые установлена ​​Людвигом Больцманом и выражена его уравнением :

где - термодинамическая энтропия конкретного макросостояния (определяемая термодинамическими параметрами, такими как температура, объем, энергия и т. д.), W - количество микросостояний (различных комбинаций частиц в различных энергетических состояниях), которые могут создать данное макросостояние, и k B постоянная Больцмана . [18] Предполагается, что каждое микросостояние равновероятно, так что вероятность данного микросостояния равна p i = 1/ W . Когда эти вероятности подставляются в приведенное выше выражение для энтропии Гиббса (или, что эквивалентно, в k B раз больше энтропии Шеннона), получается уравнение Больцмана. С точки зрения теории информации, информационная энтропия системы — это количество «недостающей» информации, необходимой для определения микросостояния с учетом макросостояния.

По мнению Джейнса (1957), [19] Термодинамическую энтропию, объясненную статистической механикой , следует рассматривать как применение теории информации Шеннона: термодинамическая энтропия интерпретируется как пропорциональная количеству дополнительной информации Шеннона, необходимой для определения подробного микроскопического состояния системы, которая остается непередаваемой описание исключительно в терминах макроскопических переменных классической термодинамики, где константа пропорциональности представляет собой просто константу Больцмана . Добавление тепла к системе увеличивает ее термодинамическую энтропию, поскольку увеличивает количество возможных микроскопических состояний системы, которые согласуются с измеримыми значениями ее макроскопических переменных, что делает любое полное описание состояния более длинным. (См. статью: Термодинамика максимальной энтропии ). Демон Максвелла может (гипотетически) уменьшить термодинамическую энтропию системы, используя информацию о состояниях отдельных молекул; но, как отметил Ландауэр (с 1961 г.) и соавт. [20] показали, что для функционирования демон сам должен увеличить термодинамическую энтропию, по крайней мере, на количество информации Шеннона, которую он предлагает сначала получить и сохранить; и поэтому полная термодинамическая энтропия не уменьшается (что разрешает парадокс). Принцип Ландауэра устанавливает нижнюю границу количества тепла, которое компьютер должен вырабатывать для обработки заданного объема информации, хотя современные компьютеры гораздо менее эффективны.

Сжатие данных [ править ]

Определение энтропии, данное Шенноном, применительно к источнику информации, может определить минимальную пропускную способность канала, необходимую для надежной передачи источника в виде закодированных двоичных цифр. Энтропия Шеннона измеряет информацию, содержащуюся в сообщении, а не ту часть сообщения, которая определена (или предсказуема). Примеры последних включают избыточность в языковой структуре или статистические свойства, связанные с частотами появления пар букв или слов, троек и т. д. Минимальная пропускная способность канала может быть реализована теоретически с использованием типичного набора или на практике с использованием Хаффмана , Лемпеля-Зива или арифметическое кодирование . (См. также «Колмогоровская сложность» .) На практике алгоритмы сжатия намеренно включают некоторую разумную избыточность в виде контрольных сумм для защиты от ошибок. Уровень энтропии источника данных — это среднее количество бит на символ, необходимое для его кодирования. Эксперименты Шеннона с людьми-предсказателями показывают скорость передачи информации от 0,6 до 1,3 бита на символ в английском языке; [21] Алгоритм сжатия PPM может обеспечить степень сжатия 1,5 бита на символ в английском тексте.

Если схема сжатия без потерь – та, в которой вы всегда можете восстановить все исходное сообщение путем распаковки – тогда сжатое сообщение содержит то же количество информации, что и исходное, но передается меньшим количеством символов. Он имеет больше информации (более высокую энтропию) на символ. Сжатое сообщение имеет меньшую избыточность . Теорема Шеннона о кодировании исходного кода утверждает, что схема сжатия без потерь не может сжимать сообщения в среднем так, чтобы в каждом бите сообщения содержалось более одного бита информации, но что любое значение менее одного бита информации на бит сообщения может быть достигнуто путем использования подходящего метода кодирования. схема кодирования. Энтропия сообщения на бит, умноженная на длину этого сообщения, является мерой общего объема информации, содержащейся в сообщении. Теорема Шеннона также подразумевает, что ни одна схема сжатия без потерь не может сократить все сообщения. Если некоторые сообщения выходят короче, хотя бы одно должно выйти длиннее из-за принципа «ячейки» . При практическом использовании это, как правило, не является проблемой, поскольку обычно интересуются только сжатием определенных типов сообщений, например документов на английском языке, а не бессмысленного текста или цифровых фотографий, а не шума, и неважно, если Алгоритм сжатия увеличивает некоторые маловероятные или неинтересные последовательности.

Исследование, опубликованное в журнале Science в 2011 году , оценивает мировые технологические возможности для хранения и передачи оптимально сжатой информации, нормализованной с помощью наиболее эффективных алгоритмов сжатия, доступных в 2007 году, таким образом оценивая энтропию технологически доступных источников. [22] : 60–65 

Все цифры в энтропийно сжатых эксабайтах.
Тип информации 1986 2007
Хранилище 2.6 295
Транслировать 432 1900
Телекоммуникации 0.281 65

Авторы оценивают технологические возможности человечества по хранению информации (полностью энтропийно сжатой) в 1986 году и снова в 2007 году. Они разбивают информацию на три категории — хранить информацию на носителе, получать информацию через односторонние сети вещания или обмениваться информацией. через двусторонние телекоммуникационные сети. [22]

мера разнообразия как Энтропия

Энтропия является одним из нескольких способов измерения биоразнообразия и применяется в форме индекса Шеннона . [23] Индекс разнообразия — это количественная статистическая мера того, сколько различных типов существует в наборе данных, например видов в сообществе, с учетом экологического богатства , равномерности и доминирования . В частности, энтропия Шеннона представляет собой логарифм 1 D , индекс истинного разнообразия с параметром, равным 1. Индекс Шеннона связан с пропорциональным обилием типов.

Энтропия последовательности [ править ]

Существует ряд концепций, связанных с энтропией, которые математически количественно определяют информационное содержание последовательности или сообщения:

  • самоинформация , отдельного сообщения или символа, взятая из заданного распределения вероятностей (сообщение или последовательность рассматриваются как отдельное событие)
  • совместная энтропия символов, образующих сообщение или последовательность (рассматриваемую как набор событий),
  • случайного скорость энтропии ( процесса сообщение или последовательность рассматриваются как последовательность событий).

(«Скорость самоинформации» также может быть определена для определенной последовательности сообщений или символов, генерируемых данным случайным процессом: она всегда будет равна скорости энтропии в случае стационарного процесса .) Другие количества информации также используются для сравнения или связи различных источников информации.

Важно не путать приведенные выше понятия. Часто только из контекста становится ясно, о каком из них идет речь. Например, когда кто-то говорит, что «энтропия» английского языка составляет около 1 бита на символ, на самом деле он моделирует английский язык как случайный процесс и говорит о уровне его энтропии . Сам Шеннон использовал этот термин именно так.

Если используются очень большие блоки, оценка уровня энтропии на каждый символ может стать искусственно заниженной, поскольку распределение вероятностей последовательности точно не известно; это всего лишь оценка. Если рассматривать текст каждой когда-либо опубликованной книги как последовательность, где каждый символ представляет собой текст полной книги, и если имеется N опубликованных книг и каждая книга публикуется только один раз, то оценка вероятности каждой книги будет равна 1/ N , а энтропия (в битах) равна −log 2 (1/ N ) = log 2 ( N ) . На практике это соответствует присвоению каждой книге уникального идентификатора и использованию его вместо текста книги всякий раз, когда кто-то хочет сослаться на книгу. Это чрезвычайно полезно для разговоров о книгах, но не столь полезно для характеристики информационного содержания отдельной книги или языка в целом: невозможно восстановить книгу по ее идентификатору, не зная распределения вероятностей, т.е. , полный текст всех книг. Ключевая идея заключается в том, что необходимо учитывать сложность вероятностной модели. Колмогоровская сложность — это теоретическое обобщение этой идеи, позволяющее рассматривать информативность последовательности независимо от какой-либо конкретной вероятностной модели; он рассматривает кратчайшую программу для универсального компьютера , выводящую последовательность. Код, который достигает уровня энтропии последовательности для данной модели плюс кодовая книга (т. е. вероятностная модель), является одной из таких программ, но, возможно, не самой короткой.

Последовательность Фибоначчи — это 1, 1, 2, 3, 5, 8, 13, .... рассматривая последовательность как сообщение, а каждое число как символ, символов почти столько же, сколько символов в сообщении, что дает энтропия приблизительно равна log 2 ( n ) . Первые 128 символов последовательности Фибоначчи имеют энтропию примерно 7 бит/символ, но последовательность можно выразить с помощью формулы [ F( n ) = F( n −1) + F( n −2) для n = 3 , 4, 5, ... , F(1) =1 , F(2) = 1 ] и эта формула имеет гораздо меньшую энтропию и применима к любой длине последовательности Фибоначчи.

Ограничения энтропии в криптографии [ править ]

В криптоанализе энтропия часто грубо используется как мера непредсказуемости криптографического ключа, хотя ее реальная неопределенность неизмерима. Например, 128-битный ключ, который генерируется равномерно и случайным образом, имеет энтропию 128 бит. Это также занимает (в среднем) догадывается сломать грубой силой. Энтропия не может уловить необходимое количество предположений, если возможные ключи выбраны неравномерно. [24] [25] Вместо этого можно использовать меру, называемую догадками, для измерения усилий, необходимых для атаки методом грубой силы. [26]

Другие проблемы могут возникнуть из-за неравномерных распределений, используемых в криптографии. Например, двоичный одноразовый блокнот на 1 000 000 цифр с использованием исключающего или. Если блокнот имеет 1 000 000 бит энтропии, это идеально. Если блокнот имеет 999 999 бит энтропии, распределенной равномерно (каждый отдельный бит блока имеет 0,999999 бит энтропии), это может обеспечить хорошую безопасность. Но если блокнот имеет 999 999 бит энтропии, где первый бит фиксирован, а остальные 999 999 бит совершенно случайны, первый бит зашифрованного текста вообще не будет зашифрован.

марковский процесс как Данные

Распространенный способ определения энтропии текста основан на марковской модели текста. Для источника нулевого порядка (каждый символ выбирается независимо от последних символов) двоичная энтропия равна:

где p i - вероятность i . первого порядка Для марковского источника (того, в котором вероятность выбора символа зависит только от непосредственно предшествующего символа) уровень энтропии равен:

[ нужна цитата ]

где я состояние (некоторые предшествующие символы) и - вероятность j , если i является предыдущим символом.

Для марковского источника второго порядка уровень энтропии равен

Эффективность (нормализованная энтропия) [ править ]

Исходный набор с неравномерным распределением будет иметь меньшую энтропию, чем тот же набор с равномерным распределением (т.е. «оптимизированный алфавит»). Этот дефицит энтропии можно выразить как соотношение, называемое эффективностью: [27]

Применяя основные свойства логарифма, эту величину можно также выразить как:

Эффективность полезна для количественной оценки эффективного использования канала связи . Эту формулировку также называют нормализованной энтропией, поскольку энтропия делится на максимальную энтропию. . Более того, эффективность безразлична к выбору (положительного) основания b , на что указывает нечувствительность к последнему логарифму выше.

случайных величин Энтропия для непрерывных

Дифференциальная энтропия [ править ]

Энтропия Шеннона ограничена случайными величинами, принимающими дискретные значения. Соответствующая формула для непрерывной случайной величины с функцией плотности вероятности f ( x ) с конечным или бесконечным носителем на реальной линии определяется по аналогии, используя приведенную выше форму энтропии в качестве ожидания: [10] : 224 

Это дифференциальная энтропия (или непрерывная энтропия). Предвестником непрерывной энтропии h [ f ] является выражение для функционала в Н -теореме Больцмана . Н

Хотя аналогия между обеими функциями наводит на размышления, необходимо задать следующий вопрос: является ли дифференциальная энтропия действительным расширением дискретной энтропии Шеннона? Дифференциальной энтропии не хватает ряда свойств, которыми обладает дискретная энтропия Шеннона – она может быть даже отрицательной – и были предложены поправки, в частности, ограничивающие плотность дискретных точек .

Чтобы ответить на этот вопрос, необходимо установить связь между двумя функциями:

Чтобы получить вообще конечную меру, когда размер ячейки стремится к нулю. В дискретном случае размер интервала представляет собой (неявную) ширину каждого из n (конечных или бесконечных) интервалов, вероятности которых обозначаются p n . Поскольку непрерывная область обобщена, ширину необходимо указать явно.

Для этого начните с непрерывной функции f, дискретизированной на ячейки размером . существует значение x i По теореме о среднем значении в каждом интервале такое, что

интеграл функции f можно аппроксимировать (в римановом смысле) формулой
где этот предел и «размер контейнера стремится к нулю» эквивалентны.

Мы будем обозначать

и разложив логарифм, получим

При ∆ → 0 имеем

Примечание; log(Δ) → −∞ при Δ → 0 требует специального определения дифференциальной или непрерывной энтропии:

которая, как было сказано ранее, называется дифференциальной энтропией. Это означает, что дифференциальная энтропия не является пределом энтропии Шеннона при n → ∞ . Скорее, он отличается от предела энтропии Шеннона бесконечным смещением (см. также статью об информационном измерении ).

Предельная плотность дискретных точек [ править ]

В результате оказывается, что, в отличие от энтропии Шеннона, дифференциальная энтропия не вообще является хорошей мерой неопределенности или информации. Например, дифференциальная энтропия может быть отрицательной; также он не инвариантен относительно непрерывных преобразований координат. Эту проблему можно проиллюстрировать изменением единиц измерения, когда x является размерной переменной. f ( x ) тогда будет иметь единицы измерения 1/ x . Аргумент логарифма должен быть безразмерным, иначе он неправильный, так что дифференциальная энтропия, указанная выше, будет несобственной. Если Δ является некоторым «стандартным» значением x (т.е. «размером контейнера») и, следовательно, имеет те же единицы измерения, то модифицированную дифференциальную энтропию можно записать в правильной форме как:

и результат будет одинаковым для любого выбора единиц измерения x . Фактически предел дискретной энтропии как будет также включать срок , что в общем случае было бы бесконечным. Это ожидаемо: непрерывные переменные обычно имеют бесконечную энтропию при дискретизации. Предельная плотность дискретных точек на самом деле является мерой того, насколько легче описать распределение, чем распределение, однородное по схеме квантования.

Относительная энтропия

Еще одна полезная мера энтропии, которая одинаково хорошо работает как в дискретном, так и в непрерывном случае, — это относительная энтропия распределения. Оно определяется как расхождение Кульбака – Лейблера от распределения до эталонной меры m следующим образом. Предположим, что распределение вероятностей p абсолютно непрерывно относительно меры m , т.е. имеет вид p ( dx ) = f ( x ) m ( dx ) для некоторой неотрицательной m -интегрируемой функции f с m -интегралом 1, тогда относительную энтропию можно определить как

В этом виде относительная энтропия обобщает (с точностью до смены знака) как дискретную энтропию, где мера m является считающей мерой , так и дифференциальную энтропию, где мера m является мерой Лебега . Если мера m сама по себе является распределением вероятностей, относительная энтропия неотрицательна и равна нулю, если p = m в качестве меры. Он определен для любого пространства с мерой, следовательно, не зависит от координат и инвариантен относительно перепараметризации координат, если правильно принять во внимание преобразование меры m . Относительная энтропия, а также (неявно) энтропия и дифференциальная энтропия действительно зависят от «эталонной» меры m .

в чисел Использование теории

Теренс Тао использовал энтропию, чтобы установить полезную связь, пытаясь решить проблему несоответствия Эрдеша . [28]

Интуитивно идея доказательства заключалась в том, что между последовательными случайными величинами имеется низкая информация с точки зрения энтропии Шеннона (здесь случайная величина определяется с помощью функции Лиувилля (которая является полезной математической функцией для изучения распределения простых чисел) X H = . А в интервале [n, n+H] сумма на этом интервале может стать сколь угодно большой. Например, последовательность +1 (которые могут принимать значения X H' ) имеет тривиально низкую энтропию, и их сумма станет большой. Но ключевой вывод заключался в том, чтобы показать уменьшение энтропии на немалую величину при расширении H, что приводит к неограниченному росту математического объекта по этой случайной величине, что эквивалентно показу неограниченного роста в соответствии с проблемой несоответствия Эрдеша .

Доказательство довольно сложное, и оно привело к прорывам не только в новом использовании энтропии Шеннона, но и в использовании функции Лиувилля вместе со средними значениями модулированных мультипликативных функций. Архивировано 28 октября 2023 года в Wayback Machine за короткие промежутки времени. Доказательство этого также преодолело «барьер паритета». Архивировано 7 августа 2023 года в Wayback Machine для этой конкретной проблемы.

Хотя использование энтропии Шеннона в доказательстве является новым, оно, вероятно, откроет новые исследования в этом направлении.

Использование в комбинаторике [ править ]

Энтропия стала полезной величиной в комбинаторике .

Лумиса Неравенство Уитни

Простым примером этого является альтернативное доказательство неравенства Лумиса–Уитни : для любого подмножества A Z д , у нас есть

где Pi ортогональная проекция по i- й координате:

Доказательство представляет собой простое следствие неравенства Ширера : если X 1 , ..., X d — случайные величины, а S 1 , ..., Sn подмножества {1, ..., d } такие, что каждое целое число между 1 и d лежит ровно в r из этих подмножеств, то

где является декартовым произведением случайных величин X j с индексами j в Si ( поэтому размерность этого вектора равна размеру Si ) .

Мы обрисуем, как из этого следует Лумис-Уитни: Действительно, пусть X — равномерно распределенная случайная величина со значениями в A и так, что каждая точка в A встречается с равной вероятностью. Тогда (в силу упомянутых выше дополнительных свойств энтропии) Н( Х ) = log| А | , где | А | обозначает мощность A . Пусть S i = {1, 2, ..., i −1, i +1, ..., d }. Диапазон содержится в Pi , ( A ) и, следовательно . Теперь используйте это, чтобы ограничить правую часть неравенства Ширера и возвести в степень противоположные части полученного неравенства.

биномиальному коэффициенту Приближение к

Для целых чисел 0 < k < n пусть q = k / n . Затем

где

[29] : 43 

Хорошая интерпретация этого состоит в том, что количество двоичных строк длины n , содержащих ровно k многих единиц, примерно равно . [30]

Использование в машинном обучении [ править ]

Методы машинного обучения в основном возникают из статистики, а также из теории информации. В общем, энтропия — это мера неопределенности, а цель машинного обучения — минимизировать неопределенность.

Алгоритмы обучения дерева решений используют относительную энтропию для определения правил принятия решений, которые управляют данными в каждом узле. [31] Получение информации в деревьях решений , что равно разнице между энтропией и условная энтропия данный , количественно определяет ожидаемую информацию или уменьшение энтропии благодаря дополнительному знанию значения атрибута. . Полученная информация используется для определения того, какие атрибуты набора данных предоставляют больше всего информации, и их следует использовать для оптимального разделения узлов дерева.

Модели байесовского вывода часто применяют принцип максимальной энтропии для получения априорных распределений вероятностей . [32] Идея состоит в том, что распределение, которое лучше всего отражает текущее состояние знаний о системе, имеет наибольшую энтропию и, следовательно, подходит в качестве априорного.

Классификация в машинном обучении , выполняемая с помощью логистической регрессии или искусственных нейронных сетей, часто использует стандартную функцию потерь, называемую перекрестной энтропийной потерей, которая минимизирует среднюю перекрестную энтропию между фактическими и предсказанными распределениями. [33] В общем, перекрестная энтропия — это мера различий между двумя наборами данных, аналогичная расхождению KL (также известному как относительная энтропия).

См. также [ править ]

Ссылки [ править ]

  1. ^ Патрия, РК; Бил, Пол (2011). Статистическая механика (Третье изд.). Академическая пресса. п. 51. ИСБН  978-0123821881 .
  2. ^ Перейти обратно: а б Шеннон, Клод Э. (июль 1948 г.). «Математическая теория связи» . Технический журнал Bell System . 27 (3): 379–423. дои : 10.1002/j.1538-7305.1948.tb01338.x . hdl : 10338.dmlcz/101429 . ( PDF , заархивировано отсюда . Архивировано 20 июня 2014 г. в Wayback Machine )
  3. ^ Перейти обратно: а б Шеннон, Клод Э. (октябрь 1948 г.). «Математическая теория связи» . Технический журнал Bell System . 27 (4): 623–656. дои : 10.1002/j.1538-7305.1948.tb00917.x . hdl : 11858/00-001M-0000-002C-4317-B . ( PDF , заархивировано отсюда . Архивировано 10 мая 2013 г. в Wayback Machine )
  4. ^ «Энтропия (для науки о данных) ясно объяснена!!!» . Архивировано из оригинала 5 октября 2021 года . Проверено 5 октября 2021 г. - через YouTube .
  5. ^ Маккей, Дэвид Дж. К. (2003). Теория информации, вывод и алгоритмы обучения . Издательство Кембриджского университета. ISBN  0-521-64298-1 . Архивировано из оригинала 17 февраля 2016 года . Проверено 9 июня 2014 г.
  6. ^ Шнайер, Б: Прикладная криптография , второе издание, Джон Уайли и сыновья.
  7. ^ Борда, Моника (2011). Основы теории информации и кодирования . Спрингер. ISBN  978-3-642-20346-6 .
  8. ^ Хан, Те Сун; Кобаяши, Кинго (2002). Математика информации и кодирования . Американское математическое общество. ISBN  978-0-8218-4256-0 .
  9. ^ Шнайдер, Т.Д., Букварь по теории информации с приложением по логарифмам. [ постоянная мертвая ссылка ] , Национальный институт рака, 14 апреля 2007 г.
  10. ^ Перейти обратно: а б с д Это ж г час я дж к Томас М. Кавер; Джой А. Томас (1991). Элементы теории информации . Хобокен, Нью-Джерси: Уайли. ISBN  978-0-471-24195-9 .
  11. ^ Энтропия в n Lab
  12. ^ Картер, Том (март 2014 г.). Введение в теорию информации и энтропию (PDF) . Санта-Фе. Архивировано (PDF) из оригинала 4 июня 2016 года . Проверено 4 августа 2017 г. {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  13. ^ Чакрабарти, К.Г. и Индранил Чакрабарти. «Энтропия Шеннона: аксиоматическая характеристика и применение». Международный журнал математики и математических наук , 2005. 17 (2005): 2847-2854 URL. Архивировано 5 октября 2021 года в Wayback Machine.
  14. ^ Эллерман, Дэвид (октябрь 2017 г.). «Теория логической информации: новые логические основы теории информации» (PDF) . Логический журнал IGPL . 25 (5): 806–835. дои : 10.1093/jigpal/jzx022 . Архивировано (PDF) из оригинала 25 декабря 2022 года . Проверено 2 ноября 2022 г.
  15. ^ Перейти обратно: а б с Ашель, Дж.; Форте, Б.; Нг, Коннектикут (1974). «Почему энтропии Шеннона и Хартли «естественны» ». Достижения в области прикладной теории вероятности . 6 (1): 131–146. дои : 10.2307/1426210 . JSTOR   1426210 . S2CID   204177762 .
  16. ^ Сравните: Больцман, Людвиг (1896, 1898). Vorlesungen über Gastheorie: 2 тома – Лейпциг, 1895/98 UB: O 5262-6. Английская версия: Лекции по теории газов. Перевод Стивена Г. Браша (1964) Беркли: Издательство Калифорнийского университета; (1995) Нью-Йорк: Дувр ISBN   0-486-68455-5
  17. ^ Жичковский, Кароль (2006). Геометрия квантовых состояний: введение в квантовую запутанность . Издательство Кембриджского университета. п. 301.
  18. ^ Шарп, Ким; Мачинский, Франц (2015). «Перевод статьи Людвига Больцмана «О связи второй основной теоремы механической теории теплоты и вероятностных расчетов относительно условий теплового равновесия» » . Энтропия . 17 : 1971–2009. дои : 10.3390/e17041971 .
  19. ^ Джейнс, ET (15 мая 1957 г.). «Теория информации и статистическая механика» . Физический обзор . 106 (4): 620–630. Бибкод : 1957PhRv..106..620J . дои : 10.1103/PhysRev.106.620 . S2CID   17870175 .
  20. ^ Ландауэр, Р. (июль 1961 г.). «Необратимость и тепловыделение в вычислительном процессе» . Журнал исследований и разработок IBM . 5 (3): 183–191. дои : 10.1147/рд.53.0183 . ISSN   0018-8646 . Архивировано из оригинала 15 декабря 2021 года . Проверено 15 декабря 2021 г.
  21. ^ Марк Нельсон (24 августа 2006 г.). «Премия Хаттера» . Архивировано из оригинала 1 марта 2018 года . Проверено 27 ноября 2008 г.
  22. ^ Перейти обратно: а б «Мировые технологические возможности для хранения, передачи и вычисления информации». Архивировано 27 июля 2013 г. в Wayback Machine , Мартин Гилберт и Присцила Лопес (2011), Science , 332 (6025); бесплатный доступ к статье здесь: martinhilbert.net/WorldInfoCapacity.html.
  23. ^ Спеллерберг, Ян Ф.; Федор, Питер Дж. (2003). «Дань уважения Клоду Шеннону (1916–2001) и призыв к более строгому использованию видового богатства, видового разнообразия и индекса Шеннона-Винера» . Глобальная экология и биогеография . 12 (3): 177–179. Бибкод : 2003GloEB..12..177S . дои : 10.1046/j.1466-822X.2003.00015.x . ISSN   1466-8238 . S2CID   85935463 .
  24. ^ Мэсси, Джеймс (1994). «Угадайка и энтропия» (PDF) . Учеб. Международный симпозиум IEEE по теории информации . Архивировано (PDF) из оригинала 1 января 2014 года . Проверено 31 декабря 2013 г.
  25. ^ Мэлоун, Дэвид; Салливан, Уэйн (2005). «Догадки не заменят энтропию» (PDF) . Материалы конференции по информационным технологиям и телекоммуникациям . Архивировано (PDF) из оригинала 15 апреля 2016 года . Проверено 31 декабря 2013 г.
  26. ^ Плиам, Джон (1999). «Избранные области криптографии». Международный семинар по избранным областям криптографии . Конспекты лекций по информатике. Том. 1758. стр. 62–77. дои : 10.1007/3-540-46513-8_5 . ISBN  978-3-540-67185-5 .
  27. ^ Индексы качественной изменчивости. А. Р. Уилкокс – 1967 г. https://www.osti.gov/servlets/purl/4167340
  28. ^ Тао, Теренс (28 февраля 2016 г.). «Проблема несоответствия Эрдёша» . Дискретный анализ . arXiv : 1509.05363v6 . дои : 10.19086/da.609 . S2CID   59361755 . Архивировано из оригинала 25 сентября 2023 года . Проверено 20 сентября 2023 г.
  29. ^ Аоки, Новые подходы к макроэкономическому моделированию.
  30. ^ Вероятность и вычисления, М. Митценмахер и Э. Упфал, Cambridge University Press
  31. ^ Батра, Мридула; Агравал, Рашми (2018). «Сравнительный анализ алгоритмов дерева решений» . В Паниграхи — Биджая Кетан; Хода, Миннесота; Шарма, Винод; Гоэл, Шивендра (ред.). Компьютеры, вдохновленные природой . Достижения в области интеллектуальных систем и вычислений. Том. 652. Сингапур: Спрингер. стр. 31–36. дои : 10.1007/978-981-10-6747-1_4 . ISBN  978-981-10-6747-1 . Архивировано из оригинала 19 декабря 2022 года . Проверено 16 декабря 2021 г.
  32. ^ Джейнс, Эдвин Т. (сентябрь 1968 г.). «Априорные вероятности» . Транзакции IEEE по системным наукам и кибернетике . 4 (3): 227–241. дои : 10.1109/TSSC.1968.300117 . ISSN   2168-2887 . Архивировано из оригинала 16 декабря 2021 года . Проверено 16 декабря 2021 г.
  33. ^ Рубинштейн, Реувен Ю.; Крозе, Дирк П. (9 марта 2013 г.). Метод перекрестной энтропии: унифицированный подход к комбинаторной оптимизации, моделированию Монте-Карло и машинному обучению . Springer Science & Business Media. ISBN  978-1-4757-4321-0 .

Эта статья включает в себя материал из энтропии Шеннона на PlanetMath , который доступен под лицензией Creative Commons Attribution/Share-Alike License .

Дальнейшее чтение [ править ]

Учебники по теории информации [ править ]

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 0ED984E4213C721DA1C6F03D8A6F01A6__1717721160
URL1:https://en.wikipedia.org/wiki/Entropy_(information_theory)
Заголовок, (Title) документа по адресу, URL1:
Entropy (information theory) - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)