Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Neutron
Я ответил ? если нет, не смог развеять туман этих формул. Спрашивайте.
Завтра пойду дедушку поищю. Хорошую книжку он написал. Тихонов В.И. Нелинейные преобразование случайных процессов -М.: Радио и связь. 1986. Если будете пользоваться книгой там есть опечатки. Похоже я еще 1 нашол, что то не срастается у меня. Если удастся встретиться, результаты выложу. Очень похоже что returns после вычитания тренда (y(x)=a+bx), это инерционное звено второго порядка.
Mathemat авторегрессия первого порядка, дисперсия стремиться к бесконечности (если я ничего не путаю). А вот инерционное звено второго порядка совершает колебательные движения, как бы стремиться к точке равновесия, это мне кажеться более правдоподобным в "характере" движения котировок. Хотя может там все вместе ;-(
Попробую опять на примере
Главное понять вот эту формулу
...
Так, Prival, ясно всё!
То, что ты описал с помощью формулы, является представлением авторегрессии первого порядка для первых разностей (Марковский процесс), где w - случайная составляющая (шум с определёнными характеристиками), а Ф - скаляр (частный случай матрицы) равный коэффициенту корреляции между первыми разностями ВР. Ещё раз, эта формула применима к первым разностям ВР и прогнозирует их, а не сам ВР. Для востановления и последующего прогнозирования ВР, необходима процедура интегрирования ряда приращений!
Теперь вопрос: что ты собрался изучать? Вся информация по этой теме разжёвана и представлена в самом удобоваримом виде во многиг трудах.
Теперь нюанс. Марковский процесс. Согласно этой теории переход из состояние L(k) в состояние L(k+1) не зависит от состояния L(k-1), т.е. все равно какой курс был вчера, час назад минуту. Главное кокой курс сейчас L(k). Какой он будет в момент L(k+1) определяется этой чертовой (не могу другого слова подобрать ;-)) матрицей Ф.
Это частный случай марковского процесса (когда Ф=0) и носит собственное имя: "Винеровский процесс" или "одномерное броуновское движение". Практического интереса не представляет.
Вопрос, какое отношение, всё выше сказанное имеет к пилоту самолёта?
Я вот тоже задумался, что такое L(k). Все-таки это похоже на вектор. Тогда Ф - матрица. Но вот что это за вектор?
L(k) - это текущий отсчёт первых разностей исходного ВР. L - вектор первых разностей, L(k+1) - прогнозируемое значение первой разности.
Спросил! Я не знаю почему Prival зовёт это матрицей.
Вобще, дело обстоит так:
мы имеем авторегрессионную модель N-го порядка, которую можно записать в виде
где sigma - случайная величина (её конкретный вид - тема отдельного разговора), Х - вектор имеющихся осчётов первых разностей прогнозируемого ВР -Y(i), а - коэффициенты авторегрессии (на их вид имеютя ограничения).
Так вот, для вычисления коэффициентов авторегрессии требуется решить систему линейных уравнений N-го порядка, состоящей из значений АКФ ряда первых разностей. Это и есть единственная матрица во всём этом деле. Система уравнений носит название Юла–Уокера [Yule (1927)], [Walker (1931)].
После нахождения Х(i+1) разности, не составляет труда построить прогноз для исходного ВР: Y(i+1)=Y(i)+X(i+1).
Всё, поставленная задача решена!
Понятно, Neutron, с AR(N) все ясно. Тем не менее мне не дает покоя более сложная формула
для которой Prival случайно так обмолвился, что Ф - матрица перехода.
Любопытная штука получается. Если L(k) - это вектор (например, последние M значений returns), то ни о какой обычной авторегрессии нет и речи. Хотя формально - это та же AR(1), но для векторного потока (процесса) L(k). W(k) - это тоже вектор, но уже невязок.
Ты меня понял, Neutron? Может быть, именно об этой модели Prival говорит, что тут неподъемные вычисления? И МНК тут как раз к месту будет, если прогонять по истории (чтобы подобрать правильную матрицу Ф).
Ну ладно, ждем аффтара, заварившего эту кашу. Какая-то странная модель выходит: взяв в качестве компонент вектора L(k) последние returns, мы тем самым задаем зависимости некоторых returns от будущих их значений. Наверно, так нехорошо как-то.
Ну ладно, ждем аффтара, заварившего эту кашу. Какая-то странная модель выходит: взяв в качестве компонент вектора L(k) последние returns, мы тем самым задаем зависимости некоторых returns от будущих их значений. Наверно, так нехорошо как-то.
P. S. Эти контрамоты просто повсюду :)