Модель серого ящика
В математике , статистике и компьютерном моделировании используется модель серого ящика. [1] [2] [3] [4] объединяет частичную теоретическую структуру с данными для завершения модели. Теоретическая структура может варьироваться от информации о гладкости результатов до моделей, которым нужны только значения параметров из данных или существующей литературы. [5] Таким образом, почти все модели представляют собой модели «серого ящика» в отличие от «черного ящика» , в котором не предполагается никакой формы модели, или моделей «белого ящика» , которые являются чисто теоретическими. Некоторые модели принимают специальную форму, например, линейную регрессию. [6] [7] или нейронная сеть . [8] [9] У них есть специальные методы анализа. В частности, линейной регрессии методы [10] гораздо более эффективны, чем большинство нелинейных методов. [11] [12] Модель может быть детерминированной или стохастической (т.е. содержать случайные компоненты) в зависимости от ее планируемого использования.
Форма модели
[ редактировать ]Общий случай представляет собой нелинейную модель с частичной теоретической структурой и некоторыми неизвестными частями, полученными на основе данных. Модели с разной теоретической структурой необходимо оценивать индивидуально. [1] [13] [14] возможно, с использованием имитации отжига или генетических алгоритмов .
В рамках конкретной структуры модели параметры [14] [15] или отношения переменных параметров [5] [16] возможно, придется найти. Для конкретной структуры произвольно предполагается, что данные состоят из наборов векторов подачи f , векторов продуктов p и векторов рабочих условий c . [5] Обычно c будет содержать значения, извлеченные из f , а также другие значения. Во многих случаях модель можно преобразовать в функцию вида: [5] [17] [18]
- м(е,р,д)
где векторная функция m дает ошибки между данными p и предсказаниями модели. Вектор q дает некоторые переменные параметры, которые являются неизвестными частями модели.
Параметры q изменяются в зависимости от условий эксплуатации c способом, который подлежит определению. [5] [17] Это соотношение можно определить как q = Ac, где A — матрица неизвестных коэффициентов, а c , как в линейной регрессии. [6] [7] включает постоянный член и, возможно, преобразованные значения исходных условий эксплуатации для получения нелинейных зависимостей [19] [20] между исходными условиями эксплуатации и q . Затем необходимо выбрать, какие члены A не равны нулю, и присвоить им значения. Завершение модели становится проблемой оптимизации для определения ненулевых значений A , которые минимизируют ошибки m(f,p,Ac) в данных. [1] [16] [21] [22] [23]
Завершение модели
[ редактировать ]После того, как сделан выбор ненулевых значений, оставшиеся коэффициенты в A могут быть определены путем минимизации m ( f , p , Ac ) по данным относительно ненулевых значений в A , обычно с помощью нелинейного метода наименьших квадратов . Выбор ненулевых членов может быть выполнен с помощью методов оптимизации, таких как моделирование отжига и эволюционные алгоритмы . Также нелинейный метод наименьших квадратов может дать оценки точности. [11] [15] для элементов A , которые можно использовать для определения того, значительно ли они отличаются от нуля, обеспечивая тем самым метод выбора терминов . [24] [25]
Иногда можно вычислить значения q для каждого набора данных напрямую или с помощью нелинейного метода наименьших квадратов . более эффективную линейную регрессию Затем можно использовать для прогнозирования q с использованием c, таким образом выбирая ненулевые значения в A и оценивая их значения. Как только ненулевые значения обнаружены, для уточнения этих значений можно использовать нелинейный метод наименьших квадратов в исходной модели m(f,p,Ac) . [16] [21] [22]
Третий метод — инверсия модели . [5] [17] [18] который преобразует нелинейное m ( f , p , Ac ) в приближенную линейную форму в элементах A , которую можно изучить с помощью эффективного выбора терминов [24] [25] и оценка линейной регрессии. [10] Для простого случая одного значения q ( q = a Т в ) и оценку q* величины q . Полагая d q = a Т c − q* дает
- м(е,р,а Т в) = m(f,p,q* + d q) ≈ m(f,pq*) + d q m'(f,p,q*) = m(f,pq*) + (a Т c − q*) m'(f,p,q*)
так что Т теперь находится в линейном положении со всеми другими известными членами и, следовательно, может быть проанализирован с помощью линейной регрессии методов . Для более чем одного параметра метод расширяется напрямую. [5] [18] [17] После проверки того, что модель улучшена, этот процесс можно повторять до сходимости. Преимущество этого подхода заключается в том, что для него не требуется, чтобы параметры q могли быть определены из отдельного набора данных, а линейная регрессия основана на исходных терминах ошибок. [5]
Проверка модели
[ редактировать ]разделить данные на отдельный набор для построения модели и один или два набора для оценки При наличии достаточных данных рекомендуется . Это можно повторить, используя несколько вариантов набора конструкций, а полученные модели усреднить или использовать для оценки различий в прогнозах.
Статистический тест, такой как хи-квадрат остатков, не особенно полезен. [26] Критерий хи-квадрат требует известных стандартных отклонений, которые редко доступны, а неудачные тесты не дают указаний о том, как улучшить модель. [11] Существует ряд методов сравнения как вложенных, так и невложенных моделей. К ним относится сравнение прогнозов модели с повторяющимися данными.
Попытка спрогнозировать остатки m(, ) с условиями эксплуатации c с помощью линейной регрессии покажет, можно ли предсказать остатки. [21] [22] Остатки, которые невозможно предсказать, открывают мало перспектив для улучшения модели с использованием текущих условий эксплуатации. [5] Условия, которые предсказывают остатки, являются перспективными условиями для включения в модель для улучшения ее производительности. [21]
Описанный выше метод инверсии модели можно использовать как метод определения возможности улучшения модели. В этом случае выбор ненулевых членов не так важен, и линейное предсказание может быть выполнено с использованием значимых собственных векторов матрицы регрессии . Значения A, определенные таким образом, необходимо подставить в нелинейную модель, чтобы оценить уменьшение ошибок модели. Отсутствие значительного улучшения указывает на то, что имеющиеся данные не позволяют улучшить текущую форму модели с использованием определенных параметров. [5] В модель можно вставить дополнительные параметры, чтобы сделать этот тест более полным.
См. также
[ редактировать ]- Компьютерный эксперимент
- Компьютерное моделирование
- Планирование экспериментов
- Тестирование серого ящика
- Математическая модель
- Идентификация нелинейной системы
- Оценка параметров
- Дизайн исследования
- Научное моделирование
- Моделирование
- Статистическая модель
- Системная динамика
- Идентификация системы
- Реализация системы
- Теория систем
Ссылки
[ редактировать ]- ^ Jump up to: а б с Болин, Торстен П. (7 сентября 2006 г.). Практическая идентификация процессов серого ящика: теория и приложения . Springer Science & Business Media. ISBN 978-1-84628-403-8 .
- ^ «Оценка модели серого ящика» . Математика 2. 2012.
- ^ Кролл, Андреас (2000). Модели серого ящика: концепции и применение. В: «Новые рубежи вычислительного интеллекта и его приложений», том 57 журнала «Границы искусственного интеллекта и приложений», стр. 42–51. IOS Press, Амстердам.
- ^ Сольберг, Б., и Якобсен, Э.В., 2008. Моделирование серого ящика - ветви и опыт , Proc. 17-й Всемирный конгресс, Int. Федерация автоматического управления, Сеул. стр 11415-11420
- ^ Jump up to: а б с д и ж г час я дж Уайтен, Б., 2013. Завершение и проверка модели с использованием инверсии моделей серого ящика , ANZIAM J., 54 (CTAC 2012), стр. C187–C199.
- ^ Jump up to: а б Дрейпер, Норман Р.; Смит, Гарри (25 августа 2014 г.). Прикладной регрессионный анализ . Джон Уайли и сыновья. стр. 657–. ISBN 978-1-118-62568-2 .
- ^ Jump up to: а б Вайсберг, Сэнфорд (25 ноября 2013 г.). Прикладная линейная регрессия . Уайли. ISBN 978-1-118-59485-8 .
- ^ Хитон, Дж., 2012. Введение в математику нейронных сетей, Heaton Research Inc. (Честерфилд, Миссури), ISBN 978-1475190878
- ^ Стергиу, К.; Сиганос, Д. (2013). «Нейронные сети» . Архивировано из оригинала 16 декабря 2009 г. Проверено 3 июля 2013 г.
- ^ Jump up to: а б Лоусон, Чарльз Л.; Дж. Хэнсон, Ричард (1 декабря 1995 г.). Решение задач наименьших квадратов . СИАМ. ISBN 978-0-89871-356-5 .
- ^ Jump up to: а б с Пресс, WH; Теукольский, С.А.; Феттерлинг, WT; Фланнери, BP (2007). Численные рецепты (3-е изд.). Издательство Кембриджского университета. ISBN 978-0-521-88068-8 .
- ^ Гельман, Эндрю; Карлин, Джон Б.; Стерн, Хэл С.; Дансон, Дэвид Б.; Вехтари, Аки; Рубин, Дональд Б. (1 ноября 2013 г.). Байесовский анализ данных, третье издание . ЦРК Пресс. ISBN 978-1-4398-4095-5 .
- ^ Mathworks, 2013. Поддерживаемые модели серого ящика.
- ^ Jump up to: а б Хаут, Дж. (2008), Моделирование нелинейных систем методом серого ящика (PDF) (диссертация, Технологический университет Кайзерслаутерна ) .
- ^ Jump up to: а б Нэш, Дж. К. и Уокер-Смит, М. 1987. Нелинейная оценка параметров, Marcel Dekker, Inc. (Нью-Йорк).
- ^ Jump up to: а б с Уайтен, В.Дж., 1971. Методы построения моделей, применяемые в процессах переработки полезных ископаемых, Symp. по системам автоматического управления на заводах по переработке полезных ископаемых, (Австралийский институт Минметалла, филиал Южного Квинсленда, Брисбен), 129–148.
- ^ Jump up to: а б с д Уайтен, В.Дж., 1994. Определение отношений параметров в нелинейных моделях, Информационный бюллетень SIGNUM, 29 (3–4,) 2–5. 10.1145/192527.192535.
- ^ Jump up to: а б с Уайтен, Б., 2014. Определение формы обыкновенных дифференциальных уравнений с использованием инверсии модели , ANZIAM J. 55 (EMAC2013), стр. C329–C347.
- ^ Полином
- ^ Сплайн (математика)
- ^ Jump up to: а б с д Койович Т. и Уайтен В.Дж., 1994. Оценка качества имитационных моделей, Инновации в переработке полезных ископаемых, (Лавретийский университет, Садбери), стр. 437–446. ISBN 088667025X
- ^ Jump up to: а б с Койович, Т., 1989. Разработка и применение модели - автоматизированного построителя моделей для переработки полезных ископаемых, докторская диссертация, Университет Квинсленда.
- ^ Сяо, Дж., 1998. Расширение методов построения моделей и их применение в переработке полезных ископаемых, докторская диссертация, Университет Квинсленда.
- ^ Jump up to: а б Линхарт, Х.; Цуккини, В. (1986). Выбор модели . Уайли. ISBN 978-0-471-83722-0 .
- ^ Jump up to: а б Миллер, Алан (15 апреля 2002 г.). Выбор подмножества в регрессии . ЦРК Пресс. ISBN 978-1-4200-3593-3 .
- ^ Деминг, Уильям Эдвардс (2000). Выход из кризиса с.272 . МТИ Пресс. ISBN 978-0-262-54115-2 .