Теория случайных потоков и FOREX - страница 11

 

Neutron

Я ответил ? если нет, не смог развеять туман этих формул. Спрашивайте.

Завтра пойду дедушку поищю. Хорошую книжку он написал. Тихонов В.И. Нелинейные преобразование случайных процессов -М.: Радио и связь. 1986. Если будете пользоваться книгой там есть опечатки. Похоже я еще 1 нашол, что то не срастается у меня. Если удастся встретиться, результаты выложу. Очень похоже что returns после вычитания тренда (y(x)=a+bx), это инерционное звено второго порядка.

Mathemat авторегрессия первого порядка, дисперсия стремиться к бесконечности (если я ничего не путаю). А вот инерционное звено второго порядка совершает колебательные движения, как бы стремиться к точке равновесия, это мне кажеться более правдоподобным в "характере" движения котировок. Хотя может там все вместе ;-(

 
Prival:

Попробую опять на примере

Главное понять вот эту формулу

...


Так, Prival, ясно всё!

То, что ты описал с помощью формулы, является представлением авторегрессии первого порядка для первых разностей (Марковский процесс), где w - случайная составляющая (шум с определёнными характеристиками), а Ф - скаляр (частный случай матрицы) равный коэффициенту корреляции между первыми разностями ВР. Ещё раз, эта формула применима к первым разностям ВР и прогнозирует их, а не сам ВР. Для востановления и последующего прогнозирования ВР, необходима процедура интегрирования ряда приращений!

Теперь вопрос: что ты собрался изучать? Вся информация по этой теме разжёвана и представлена в самом удобоваримом виде во многиг трудах.

Теперь нюанс. Марковский процесс. Согласно этой теории переход из состояние L(k) в состояние L(k+1) не зависит от состояния L(k-1), т.е. все равно какой курс был вчера, час назад минуту. Главное кокой курс сейчас L(k). Какой он будет в момент L(k+1) определяется этой чертовой (не могу другого слова подобрать ;-)) матрицей Ф.

Это частный случай марковского процесса (когда Ф=0) и носит собственное имя: "Винеровский процесс" или "одномерное броуновское движение". Практического интереса не представляет.

Вопрос, какое отношение, всё выше сказанное имеет к пилоту самолёта?

 
Я вот тоже задумался, что такое L(k). Все-таки это похоже на вектор. Тогда Ф - матрица. Но вот что это за вектор?
 
Mathemat:
Я вот тоже задумался, что такое L(k). Все-таки это похоже на вектор. Тогда Ф - матрица. Но вот что это за вектор?

L(k) - это текущий отсчёт первых разностей исходного ВР. L - вектор первых разностей, L(k+1) - прогнозируемое значение первой разности.
 
Тогда о какой матрице Ф речь, если это скаляр? Вот в случае если L(k+1) - прогнозируемый вектор, то формула формально напоминает AR(1), но только формально.
 

Спросил! Я не знаю почему Prival зовёт это матрицей.

Вобще, дело обстоит так:

мы имеем авторегрессионную модель N-го порядка, которую можно записать в виде

где sigma - случайная величина (её конкретный вид - тема отдельного разговора), Х - вектор имеющихся осчётов первых разностей прогнозируемого ВР -Y(i), а - коэффициенты авторегрессии (на их вид имеютя ограничения).

Так вот, для вычисления коэффициентов авторегрессии требуется решить систему линейных уравнений N-го порядка, состоящей из значений АКФ ряда первых разностей. Это и есть единственная матрица во всём этом деле. Система уравнений носит название Юла–Уокера [Yule (1927)], [Walker (1931)].

После нахождения Х(i+1) разности, не составляет труда построить прогноз для исходного ВР: Y(i+1)=Y(i)+X(i+1).

Всё, поставленная задача решена!

 

Понятно, Neutron, с AR(N) все ясно. Тем не менее мне не дает покоя более сложная формула

для которой Prival случайно так обмолвился, что Ф - матрица перехода.

Любопытная штука получается. Если L(k) - это вектор (например, последние M значений returns), то ни о какой обычной авторегрессии нет и речи. Хотя формально - это та же AR(1), но для векторного потока (процесса) L(k). W(k) - это тоже вектор, но уже невязок.

Ты меня понял, Neutron? Может быть, именно об этой модели Prival говорит, что тут неподъемные вычисления? И МНК тут как раз к месту будет, если прогонять по истории (чтобы подобрать правильную матрицу Ф).

 
Он ссылается на какие либо источники, статьи? И если это и так (я об векторах вместо скаляров), то где обоснование применимости этой махины к нашему случаю? Так можно до конца жизни что-то считать... только нафига.
 

Ну ладно, ждем аффтара, заварившего эту кашу. Какая-то странная модель выходит: взяв в качестве компонент вектора L(k) последние returns, мы тем самым задаем зависимости некоторых returns от будущих их значений. Наверно, так нехорошо как-то.

 
Mathemat:

Ну ладно, ждем аффтара, заварившего эту кашу. Какая-то странная модель выходит: взяв в качестве компонент вектора L(k) последние returns, мы тем самым задаем зависимости некоторых returns от будущих их значений. Наверно, так нехорошо как-то.

Наверное формально это можно сказать о любой прогнозирующей функции? Направление стрелы времени мы выбираем сами.

P. S. Эти контрамоты просто повсюду :)