Плотность прогнозирования отрицательного журнала
![]() | Эта статья включает список литературы , связанную литературу или внешние ссылки , но ее источники остаются неясными, поскольку в ней отсутствуют встроенные цитаты . ( сентябрь 2022 г. ) |
В статистике плотность прогнозирования отрицательного журнала ( NLPD ) является мерой ошибки между прогнозами модели и соответствующими истинными значениями. Меньшее значение лучше. Важно отметить, что NLPD оценивает качество количественной оценки неопределенности модели. Он используется как для регрессии, так и для классификации.
Чтобы вычислить: (1) найдите вероятности, заданные моделью для истинных меток. (2) найти отрицательный логарифм этого продукта. (на самом деле мы находим отрицательную сумму журналов по численным причинам).
Определение
[ редактировать ]
где это модель, являются входными данными (независимыми переменными) и — результаты наблюдений (зависимая переменная).
Часто используется среднее значение, а не сумма (путем деления на N),
Пример
[ редактировать ]Расчет NLPD для простого примера классификации
[ редактировать ]У нас есть метод, который классифицирует изображения как собак или кошек. Важно отметить, что он присваивает вероятности двум классам.
Показываем ему картинку с тремя собаками и тремя кошками. Он предсказывает, что вероятность того, что первые три будут собаками, равна 0,9 и 0,4, 0,7, а вероятность того, что последние три будут кошками, равна 0,8 и 0,4, 0,3.
НЛПД – это: .
Сравнение с классификатором с большей точностью, но слишком самоуверенным
[ редактировать ]Мы сравниваем это с другим классификатором, который предсказывает, что первые три будут собаками как 0,95, 0,98, 0,02, а последние три — кошками как 0,99, 0,96,0,96. NLPD для этого классификатора равен 4,08. Первый классификатор угадал только половину правильно, поэтому по традиционному показателю точности он оказался хуже (по сравнению с 5/6 для второго классификатора). Однако он лучше работает по метрике NLPD: второй классификатор фактически «уверенно неверен», что серьезно наказывается этой метрикой.
По сравнению с очень недостаточно уверенным классификатором
[ редактировать ]Тогда третий классификатор просто предсказывает, что 0,5 для всех классов будет иметь NLPD в данном случае 4,15: хуже, чем любой из других.
Использование
[ редактировать ]Он широко используется в исследованиях вероятностного моделирования. Примеры включают в себя:
- Кандела, Хоакин Кинонеро и др. «Распространение неопределенности в моделях байесовского ядра — применение для многошагового прогнозирования». 2003 Международная конференция IEEE по акустике, речи и обработке сигналов, 2003. Материалы (ICASSP'03).. Vol. 2. ИИЭР, 2003.
- Керстинг, Кристиан и др. «Скорее всего, гетероскедастическая регрессия гауссовского процесса». Материалы 24-й международной конференции по машинному обучению. 2007.
- См. также https://onlinelibrary.wiley.com/doi/pdfdirect/10.1111/coin.12411 для получения информации о других подходах (что сбивает с толку, определение в этой ссылке гласит, что NLPD - это то, что большинство других называют *средним* значением). НЛПД). Т.е. .
- Хейнонен, Маркус и др. «Нестационарная регрессия гауссовского процесса с гамильтоновым методом Монте-Карло». Искусственный интеллект и статистика. ПМЛР, 2016.