Обсуждение статьи "Эконометрические инструменты для прогнозирования волатильности: Модель GARCH" - страница 2

 
Тесты не видят значимых отличий, остатки при любых разумных параметрах фильтрации распознаются как стационарные :) 
 
Maxim Dmitrievsky #

Поскольку сплайны не работают на новых данных, можно переделать под HP или любой другой фильтр. Если есть желание строить именно какую-то модель.
А что мешает обучить обычную линейную Регресию???
Че ты вообще к этиим сплайнам прицепился, есть миллион методов получше.. 
 
Maxim Dmitrievsky #:

Сделал с божьей помощью LLM DeepSeek. Можно подставлять свои данные.

Объяснение:

Для того чтобы остатки в процессе оптимизации максимально приближались к нормальному распределению, можно использовать критерий согласия (например, критерий Шапиро-Уилка или критерий Колмогорова-Смирнова) для оценки нормальности остатков. Затем можно оптимизировать параметры  k k и  s s так, чтобы минимизировать отклонение остатков от нормального распределения.

  1. Функция ошибки с учетом нормальности остатков: Введена новая функция  spline_error_with_normality , которая вычисляет остатки и использует критерий Шапиро-Уилка для оценки их нормальности. Отрицательное значение p-value минимизируется, чтобы максимизировать нормальность остатков.

  2. Оптимизация: Используется  minimize  для оптимизации параметров  k k и  s s на основе новой функции ошибки.

Этот подход позволяет настроить параметры сплайна так, чтобы остатки максимально приближались к нормальному распределению, что может улучшить качество модели и интерпретируемость результатов.

Поскольку сплайны не работают на новых данных, можно переделать под HP или любой другой фильтр. Если есть желание строить именно какую-то модель.

Ругнулась при попытке запуска на 49-ю строку - name 'norm' is not defined. Наверняка, проблема в моей неопытности с коллабом. Но идея в целом вполне понятна по коду.

Основная проблема именно в том, что сплайны (как и любая другая попытка построить детерминированную функцию) не работает на новых данных. Посему в серьёзных конторах, работающих с опционами, имхо, обычно серьёзные математики строят серьёзные стохастические модели для волатильности, похожие по духу на ту что в обсуждаемой статье. При этом, когда смотришь на рассуждения мелких трейдеров-опционщиков, то возникает ощущение, что за ними стоят идеи о детерминированности колебаний волатильности, похожие по духу на идеи из статьи Степанова.

 
Aleksey Nikolayev #:

Ругнулась при попытке запуска на 49-ю строку - name 'norm' is not defined. Наверняка, проблема в моей неопытности с коллабом. Но идея в целом вполне понятна по коду.

Основная проблема именно в том, что сплайны (как и любая другая попытка построить детерминированную функцию) не работает на новых данных. Посему в серьёзных конторах, работающих с опционами, имхо, обычно серьёзные математики строят серьёзные стохастические модели для волатильности, похожие по духу на ту что в обсуждаемой статье. При этом, когда смотришь на рассуждения мелких трейдеров-опционщиков, то возникает ощущение, что за ними стоят идеи о детерминированности колебаний волатильности, похожие по духу на идеи из статьи Степанова.

Да, поправил, библиотека не была импортирована

нужно: 
from scipy.stats import shapiro, norm

Ну, я использую это для других целей (резметки сделок на истории), поэтому делаю через любые кривые и смотрю что потом получилось :)

Можно сравнить с зигзагом, когда разметка по вершинам. Здесь можно сделать разметку по отклонениям от сплайна.

Ну это так, в порядке бреда, к теме статьи не относится.

 
mytarmailS #:
А что мешает обучить обычную линейную Регресию???
Че ты вообще к этиим сплайнам прицепился, есть миллион методов получше.. 

Уже писал в МО теме, что для моей задачи линейная регрессия проявила себя хуже. К тому же сплайн тоже строится из регрессий (кусочных).

То есть я ничего не прогнозирую этой кровой. Использую кривые для разметки сделок на истории.