Индекс чувствительности
Индекс чувствительности или индекс различимости или индекс обнаруживаемости — это безразмерная статистика, используемая в теории обнаружения сигналов . Более высокий индекс указывает на то, что сигнал легче обнаружить.
Определение
[ редактировать ]Индекс различимости — это разделение средних значений двух распределений (обычно распределения сигнала и шума) в единицах стандартного отклонения.
Равные дисперсии/ковариации
[ редактировать ]Для двух одномерных распределений и с тем же стандартным отклонением, оно обозначается («ди-прайм»):
- .
В более высоких измерениях, т. е. с двумя многомерными распределениями с одинаковой дисперсионно-ковариационной матрицей. , (чей симметричный квадратный корень, матрица стандартного отклонения, равен ), это обобщается на расстояние Махаланобиса между двумя распределениями:
- ,
где - это 1-й срез sd вдоль единичного вектора посредством средств, т.е. равно вдоль 1d среза через средства. [1]
Для двух двумерных распределений с одинаковой ковариацией дисперсии это определяется как:
- ,
где – коэффициент корреляции, и здесь и , т.е. включая знаки средних разностей вместо абсолютных. [1]
также оценивается как . [2] : 8
Неравные дисперсии/ковариации
[ редактировать ]Когда два распределения имеют разные стандартные отклонения (или, в общих измерениях, разные ковариационные матрицы), существует несколько конкурирующих индексов, каждый из которых сводится к для равной дисперсии/ковариации.
Байесовский индекс различимости
[ редактировать ]Это максимальный (байесовский) индекс различимости двух распределений, основанный на величине их перекрытия, т.е. оптимальная (байесовская) ошибка классификации. идеальным наблюдателем или его дополнением оптимальная точность :
- , [1]
где — обратная кумулятивная функция распределения стандартного нормального. Байесовская различимость одномерных или многомерных нормальных распределений может быть вычислена численно. [1] ( код Matlab ), а также может использоваться в качестве приближения, когда распределения близки к нормальным.
- это положительно определенная статистическая мера расстояния, свободная от предположений о распределениях, например, расхождение Кульбака-Лейблера. . асимметричен, тогда как симметричен для двух распределений. Однако, не удовлетворяет неравенству треугольника, поэтому не является полной метрикой. [1]
В частности, для задачи «да/нет» между двумя одномерными нормальными распределениями со средними значениями и отклонения оптимальная по Байесу точность классификации равна: [1]
- ,
где обозначает нецентральное распределение хи-квадрат , , и . Байесовская различимость
также может быть вычислено по ROC-кривой задачи «да/нет» между двумя одномерными нормальными распределениями с одним критерием сдвига. Его также можно вычислить по кривой ROC любых двух распределений (с любым количеством переменных) со сдвигом отношения правдоподобия, определив точку на кривой ROC, которая находится дальше всего от диагонали. [1]
Для двухинтервальной задачи между этими распределениями оптимальная точность равна ( обозначает обобщенное распределение хи-квадрат ), где . [1] Байесовская различимость .
Индекс различимости RMS sd
[ редактировать ]Общий приблизительный (т. е. неоптимальный) индекс различимости, имеющий замкнутую форму, состоит в том, чтобы брать среднее значение дисперсий, то есть среднеквадратичное значение двух стандартных отклонений: [3] (также обозначается ). Это раз -оценка площади под кривой рабочей характеристики приемника (AUC) однокритериального наблюдателя. Этот индекс расширяется до общих размеров как расстояние Махаланобиса с использованием объединенной ковариации, т.е. как обычная SD-матрица. [1]
Средний стандартный индекс различимости
[ редактировать ]Еще один индекс , расширенный до общих размеров с помощью как обычная SD-матрица. [1]
Сравнение индексов
[ редактировать ]Было показано, что для двух одномерных нормальных распределений , а для многомерных нормальных распределений все еще. [1]
Таким образом, и занижать максимальную различимость одномерных нормальных распределений. могу недооценить максимум примерно на 30%. На пределе высокой различимости одномерных нормальных распределений сходится к . Эти результаты часто справедливы и для более высоких измерений, но не всегда. [1] Симпсон и Фиттер [3] продвинутый как лучший показатель, особенно для двухинтервальных задач, но Дас и Гейслер [1] показали, что – оптимальная различимость во всех случаях, и часто является лучшим приближением в замкнутой форме, чем , даже для двухинтервальных задач.
Примерный индекс , в котором используется среднее геометрическое стандартное отклонение, меньше, чем при малой различимости, но больше при большой различимости. [1]
Вклад в различимость по каждому измерению
[ редактировать ]В общем, вклад в общую различимость каждого измерения или признака можно измерить, используя величину, на которую снижается различимость при удалении этого измерения. Если полная байесовская различимость равна и байесовская различимость с размерностью удалено , мы можем определить вклад размерности как . Это то же самое, что и индивидуальная различимость размерности. когда ковариационные матрицы равны и диагональны, но в остальных случаях эта мера более точно отражает вклад измерения, чем его индивидуальная различимость. [1]
Масштабирование различимости двух распределений
[ редактировать ]Иногда нам может потребоваться масштабировать различимость двух распределений данных, перемещая их ближе или дальше друг от друга. Одним из таких случаев является ситуация, когда мы моделируем задачу обнаружения или классификации, и производительность модели превышает производительность объекта или наблюдаемых данных. В этом случае мы можем сблизить распределения переменных модели, чтобы они соответствовали наблюдаемым характеристикам, а также предсказать, какие конкретные точки данных должны начать перекрываться и быть неправильно классифицированы.
Есть несколько способов сделать это. Один из них — вычислить средний вектор и матрицу ковариации двух распределений, а затем выполнить линейное преобразование для интерполяции среднего значения и матрицы стандартного отклонения (квадратного корня из ковариационной матрицы) одного из распределений по отношению к другому. [1]
Другой способ — вычислить переменные решения точек данных (логарифмическое отношение правдоподобия того, что точка принадлежит одному распределению по сравнению с другим) в рамках мультинормальной модели, а затем переместить эти переменные решения ближе друг к другу или дальше друг от друга. [1]
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Jump up to: а б с д и ж г час я дж к л м н тот п д р с Дас, Абранил; Уилсон С. Гейслер (2020). «Методы интеграции мультинормальных чисел и вычисления мер классификации». arXiv : 2012.14331 [ stat.ML ].
- ^ Макмиллан, Н.; Крилман, К. (2005). Теория обнаружения: Руководство пользователя . Лоуренс Эрлбаум Ассошиэйтс. ISBN 9781410611147 .
- ^ Jump up to: а б Симпсон, Эй Джей; Фиттер, MJ (1973). «Каков наилучший показатель обнаруживаемости?». Психологический вестник . 80 (6): 481–488. дои : 10.1037/h0035203 .
- Викенс, Томас Д. (2001). Элементарная теория обнаружения сигналов . ОУП США. гл. 2, с. 20. ISBN 0-19-509250-3 .
Внешние ссылки
[ редактировать ]- Интерактивное руководство по теории обнаружения сигналов, включая расчет d ′.