Минимаксная оценка
В статистической теории принятия решений , где мы сталкиваемся с проблемой оценки детерминированного параметра (вектора) из наблюдений оценщик ) (правило оценки называется минимаксом, если его максимальный риск минимален среди всех оценок . В каком-то смысле это означает, что — это средство оценки, которое работает лучше всего в наихудшем возможном случае, разрешенном в задаче.
Проблема с настройкой
[ редактировать ]Рассмотрим задачу оценки детерминированного (не байесовского ) параметра из зашумленных или поврежденных данных связаны через условное распределение вероятностей . Наша цель — найти «хорошего» оценщика. для оценки параметра , который минимизирует некоторую заданную функцию риска . Здесь функция риска (технически это функционал или оператор , поскольку — это функция функции, а НЕ композиция функций) — это математическое ожидание некоторой функции потерь. относительно . Популярный пример функции потерь [1] это квадрат ошибки ошибки , а функцией риска для этой потери является среднеквадратическая ошибка (MSE).
К сожалению, в целом риск не может быть минимизирован, поскольку он зависит от неизвестного параметра. (Если бы мы знали, какова реальная стоимость , нам не нужно будет его оценивать). Поэтому требуются дополнительные критерии для поиска оптимальной в некотором смысле оценки. Одним из таких критериев является минимаксный критерий.
Определение
[ редактировать ]Определение : Оценщик. называется минимаксом относительно функции риска если он достигает наименьшего максимального риска среди всех оценок, то есть он удовлетворяет
Наименее благоприятное распределение
[ редактировать ]Логично, что оценка является минимаксной, когда она является лучшей в худшем случае. Продолжая эту логику, минимаксная оценка должна быть оценкой Байеса относительно наименее благоприятного предварительного распределения . Чтобы продемонстрировать это понятие, обозначим средний риск оценки Байеса. относительно предыдущего распределения как
Определение: априорное распределение. называется наименее благоприятным, если для любого другого распределения средний риск удовлетворяет .
Теорема 1: Если затем:
- является минимаксом.
- Если является уникальной байесовской оценкой, а также уникальной минимаксной оценкой.
- является наименее благоприятным.
Следствие: если байесовская оценка имеет постоянный риск, она минимаксна. Обратите внимание, что это не является обязательным условием.
Пример 1: Нечестная монета [2] [3] : Рассмотрим задачу оценки степени «успеха» биномиальной переменной, . Это можно рассматривать как оценку скорости, с которой несправедливая монета выпадает «орлом» или «решкой». В этом случае байесовская оценка относительно бета -распределенного априора: является
с постоянным байесовским риском
и, согласно следствию, является минимаксным.
Определение: последовательность предыдущих распределений. называется наименее благоприятным, если для любого другого распределения ,
Теорема 2: Если существует последовательность априорных значений и оценщик такой, что , затем :
- является минимаксом.
- Последовательность является наименее благоприятным.
Обратите внимание, что здесь уникальность не гарантируется. Например, оценка ML из предыдущего примера может быть достигнута как предел оценок Байеса относительно однородного априора, с возрастающей поддержкой, а также по отношению к нормальному априорному значению нулевого среднего. с увеличением дисперсии. Таким образом, ни результирующая оценка ML не является уникальной минимаксной, ни наименее благоприятная априорная оценка не является уникальной.
Пример 2. Рассмотрим задачу оценки среднего значения размерный гауссовский случайный вектор, . Оценка максимального правдоподобия (ML) для в данном случае это просто , и его риск
Риск постоянен, но оценка ML на самом деле не является оценкой Байеса, поэтому следствие теоремы 1 неприменимо. Однако оценка ML является пределом оценок Байеса относительно предыдущей последовательности. , а значит, и минимакс согласно теореме 2. Тем не менее минимаксность не всегда влечет за собой допустимость . Фактически в этом примере известно, что оценка ML недопустима (недопустима) всякий раз, когда . Знаменитая оценка Джеймса–Стейна доминирует над ML всякий раз, когда . Хотя обе оценки имеют одинаковый риск когда , и оба они минимаксны, оценка Джеймса – Стейна имеет меньший риск для любого конечного . Этот факт иллюстрируется на следующем рисунке.
Некоторые примеры
[ редактировать ]В общем, определить минимаксную оценку сложно, а зачастую и невозможно. Тем не менее во многих случаях минимаксная оценка была определена.
Пример 3. Ограниченное нормальное среднее: при оценке среднего вектора нормали. , где известно, что . Известно , что оценка Байеса относительно априора, равномерно распределенного на краю ограничивающей сферы, является минимаксной, если . Аналитическое выражение для этой оценки:
где , — модифицированная функция Бесселя первого рода порядка n .
Асимптотическая минимаксная оценка
[ редактировать ]Трудность определения точной минимаксной оценки побудила к изучению оценок асимптотического минимакса - оценки называется -асимптотический (или приближенный) минимакс, если
Для многих задач оценивания, особенно в случае непараметрического оценивания, были установлены различные приближенные минимаксные оценки. Конструкция приближенной минимаксной оценки тесно связана с геометрией, такой как метрическое энтропийное число , .
Рандомизированная минимаксная оценка
[ редактировать ]Иногда минимаксная оценка может принимать форму рандомизированного правила принятия решений . Пример показан слева. Пространство параметров состоит всего из двух элементов, и каждая точка на графике соответствует риску правила принятия решения: координата x представляет собой риск, когда параметр а координата Y — это риск, когда параметр . В этой задаче принятия решения минимаксная оценка лежит на отрезке, соединяющем две детерминированные оценки. Выбор с вероятностью и с вероятностью минимизирует предельный риск.
Связь с надежной оптимизацией
[ редактировать ]Робастная оптимизация — это подход к решению задач оптимизации в условиях неопределенности в знании основных параметров. [4] [5] Например, байесовская оценка параметра MMSE требует знания корреляционной функции параметра. Если знание этой корреляционной функции не совсем доступно, можно воспользоваться популярным минимаксным подходом к устойчивой оптимизации. [6] заключается в определении набора, характеризующего неопределенность корреляционной функции, а затем проведении минимаксной оптимизации набора неопределенностей и средства оценки соответственно. Подобную минимаксную оптимизацию можно провести, чтобы сделать оценки устойчивыми к определенным неточно известным параметрам. Например, недавнее исследование, посвященное таким методам в области обработки сигналов, можно найти здесь. [7]
В R. Fandom Noubiap и W. Seidel (2001) был разработан алгоритм расчета гамма-минимаксного решающего правила, когда гамма задается конечным числом обобщенных моментных условий. Такое решающее правило минимизирует максимум интегралов функции риска по отношению ко всем распределениям в Гамме. Гамма-минимаксные правила принятия решений представляют интерес для исследований устойчивости байесовской статистики.
Ссылки
[ редактировать ]- Э. Л. Леманн и Г. Казелла (1998), Теория точечной оценки, 2-е изд. Нью-Йорк: Springer-Verlag.
- Ф. Перрон и Э. Маршан (2002), «О минимаксной оценке ограниченного нормального среднего», « Статистика и вероятностные письма » 58 : 327–333.
- Р. Фэндом Нубиап и В. Зайдель (2001), «Алгоритм расчета гамма-минимаксных правил принятия решений в условиях обобщенного момента», Анналы статистики , август 2001 г., том. 29, нет. 4, стр. 1094–1116.
- Штейн, К. (1981). «Оценка среднего многомерного нормального распределения» . Анналы статистики . 9 (6): 1135–1151. дои : 10.1214/aos/1176345632 . МР 0630098 . Збл 0476.62035 .
- ^ Бергер, Дж. О. (1985). Статистическая теория принятия решений и байесовский анализ (2-е изд.). Нью-Йорк: Springer-Verlag . стр. xv+425. ISBN 0-387-96098-8 . МР 0580664 .
- ^ Ходжес-младший, JL; Леманн, Э.Л. (1950). «Некоторые задачи минимаксной оценки точек» . Энн. Математика. Статист . 21 (2): 182–197. дои : 10.1214/aoms/1177729838 . JSTOR 2236900 . МР 0035949 . Збл 0038.09802 .
- ^ Штайнхаус, Хьюгон (1957). «Проблема оценки» . Энн. Математика. Статист . 28 (3): 633–648. дои : 10.1214/aoms/1177706876 . JSTOR 2237224 . МР 0092313 . Збл 0088.35503 .
- ^ С.А. Кассам и Х.В. Бедный (1985), «Надежные методы обработки сигналов: обзор», Proceedings of IEEE , vol. 73, стр. 433–481, март 1985 г.
- ^ А. Бен-Тал, Л. Эль Гауи и А. Немировский (2009), «Надежная оптимизация», Princeton University Press, 2009.
- ^ С. Верду и Х.В. Бедный (1984), «О минимаксной устойчивости: общий подход и приложения», Транзакции IEEE по теории информации , том. 30, стр. 328–340, март 1984 г.
- ^ М. Датский Нисар. Минимаксная устойчивость при обработке сигналов для связи , Шейкер Верлаг, ISBN 978-3-8440-0332-1 , август 2011 г.