торговая стратегия на базе Волновой теории Эллиота - страница 227

 
Ну может между нами, домохозяйками, раскажете мне что это такое ?
Необязательно про МАРКОВСКИЙ ПРОЦЕСС, можно просто про марковские цепи.
Можно даже про цепочки.


Это довольно долго, да и не умею я красиво рассказывать. О Марковских цепях, цепочках и процессах, которые эти цепочки описывают, я читал в книжке «Вероятностные разделы Математики» под редакцией Максимова, «Курс теории вероятности» Гнеденко. Не могу сказать про себя, что я стал гуру по этому направлению. Скорее, напоминаю себе собачку, которая все понимает, а сказать ничего не может. :о)

Рассказ на уровне домохозяйки «что это такое» мне так же не очень нравится. Вот, например, возьмем определение из Википендии (уж совсем для домохозяек :о):


Це́пь Ма́ркова (ЦМ)— последовательность случайных событий с конечным или счётным бесконечным числом исходов, характеризующаяся тем свойством, что при фиксированном настоящем будущее независимо от прошлого. Названа в честь А. А. Маркова (старшего).


Вроде бы все правильно, однако, более точная формулировка несколько другая:


Последовательность испытаний образует ЦМ, если условная вероятность в s+1 испытании (s=1,2,3,,,) осуществиться событию A(i)[s+1] i=1,2,…k зависит только от того, какое событие произошло при s-м испытании и не изменяется от добавочных сведений о том, какие события происходили в более ранних испытаниях.


Видимо, по этой причине, процессы, которые можно описать такими цепочками, получили название процессов с короткой памятью. Вводят так же и другое определение, основанное на понятии состояния системы.

Юрий, пожалейте меня. Совсем не хочется переписывать определения и заключения. ЦМ, это же не мое изобретение и я еще не дошел до соответствующего уровня некомпетентности, что пересказывать все это своими словами. Вы тогда можете и не узнать цепи Маркова :о)

Когда прочитаете в компетентных источниках (в отличие от моего повествования), то может быть будут полезными мои «практики»:

(1) В качестве состояния системы я выбрал канал, а не конкретные значения цены или разность между ценами
(2) Для составления матрицы переходных вероятностей я брал вероятности некоторых характеристик канала.
(3) В качестве одного шага для матрицы я брал смену канала
(4) В качестве процесса «интуитивно выбрал» процесс рождения и гибели, ведь не использовать же для наших задач процесс образования очереди, в самом деле.

Ну а результаты применения, я уже демонстрировал. :о)
 
Будем рассматривать класс стационарных временных рядов. Наша задача сводится к выбору модели пригодной для описания поведения "случайных" остатков Х[j] исследуемого временного ряда Y[j], получающихся после элиминирования из исходного временного ряда его неслучайной составляющей (если таковая есть). Так как здесь описывается поведение случайных остатков, то моделируемый временной ряд обозначим X[j], и будем полагать, что при всех j его математическое ожидание равно нулю. В противном случае, нужно произвести процедуру центрирования исходного ряда. Для временных рядов характерных для рынка Форекс (содержащих только стахастические тренды) процедуру центрирования и остационаривания можно осуществить, построив ряд первых разностей
X[j]=Y[j]-Y[j-k], где к - может принимать значения от 1 до n, в зависимости от цели эксперимента.


Модель авторегрессии 1-го порядка AR(1) (марковский процесс).

Эта модель представляет собой простейший вариант авторегрессионного процесса типа
X[j]=SUM{a[k]*X[j-k]}+sigma[j], где суммирование ведётся по всем к=1...бесконечность,
когда все коэффициенты кроме первого равны нулю. Соответственно, она может быть определена выражением
X[j]=a*X[j-1]+sigma[j], (1)
где a&#61485; некоторый числовой коэффициент, не превосходящий по абсолютной величине единицу (|a| < 1), а sigma[j], последовательность случайных величин, образующая белый шум. При этом X[j] зависит от sigma[j] и всех предшествующих sigma, но не зависит от будущих значений sigma. Соответственно, в уравнении sigma[j], не зависит от X[j-1] и более ранних значений X. В связи с этим, sigma[j] называют инновацией (обновлением).
Последовательности X, удовлетворяющие соотношению (1), часто называют также марковскими процессами. Это означает, что
1. Матожидание процесса M тождественно равно нулю M=0.
2. Коэффициент автокорреляции r между членами ряда, отстоящими на к-шагов, равен r=a^k.

Основные характеристики процесса авторегрессии 1-го порядка следующие.

Условие стационарности ряда определяется требованием к коэффициенту a:
|a|<1
Автокорреляционная функция марковского процесса определяется соотношением:
r(t)=a^t ,
т.е. значение a определяет величину корреляции между двумя соседними членами ряда X[j]. Bидно, что степень тесноты корреляционной связи между членами последовательности (1) экспоненциально убывает по мере их взаимного удаления друг от друга во времени.
Спектральная плотность марковского процесса (1) может быть подсчитана с учетом известного вида автокорреляционной функции:
p(w)=2sigma0^2/(2+a^2-2a*cos(2Pi*w))
В случае значения параметра a близкого к 1, соседние значения ряда X[j] близки друг к другу по величине, автокорреляционная функция экспоненциально убывает оставаясь положительной, а в спектре преобладают низкие частоты, что означает достаточно большое среднее расстояние между пиками ряда X[j]. При значении параметра a близком к –1, ряд быстро осциллирует (в спектре преобладают высокие частоты), а график автокорреляционной функции экспоненциально спадает до нуля с попеременным изменением знака.

После идентификации модели, т.е. определения её параметров (в данном случае, это a)
можно построить прогноз на один шаг вперёд:
Y[j+1]=Y[j]+a*X[j].

Всё.

Юра, теперь у меня к Вам просьба. Реализуйте в Mathcad алгоритм, который привдён на рис. ниже и покажите полученную ФАК от ТФ для минуток EURUSD за какой-нибудь год.

 

Когда прочитаете в компетентных источниках (в отличие от моего повествования), то может быть будут полезными мои «практики»:

(1) В качестве состояния системы я выбрал канал, а не конкретные значения цены или разность между ценами
(2) Для составления матрицы переходных вероятностей я брал вероятности некоторых характеристик канала.
(3) В качестве одного шага для матрицы я брал смену канала
(4) В качестве процесса «интуитивно выбрал» процесс рождения и гибели, ведь не использовать же для наших задач процесс образования очереди, в самом деле.

Ну а результаты применения, я уже демонстрировал. :о)


grasn, тут все понятно, кроме пункта 2). Возможно считается простая банальная вещь, а может и ноу-хау.
По пункту 4) (я с этим вопросом уже приставал к solandr'у) - "процесс рождения и гибели" был определен на статистической обработке пункта 3) или из каких-тообщих теоретических соображений?
 
Yurixx 22.01.07 16:24
Ну может между нами, домохозяйками, раскажете мне что это такое ?
Необязательно про МАРКОВСКИЙ ПРОЦЕСС, можно просто про марковские цепи.
Можно даже про цепочки.

Проще всего на примере.
Самый простой марковский процесс, это обыкновенная монетка.
То какой стороной выпадет монетка независит от предыдущего состояния.
Говорят, что такой процесс как монетка имеет свойство марковости,
то есть "не помнит" прошлого. Серия бросков монетки будет называться
марковской цепочкой. Точнее не самих бросков а вероятностей.
Есть марковские процесс посложнее, их вообще много разных, этих
марковских процессов. Есть такие, которые "помнят" предыдущее состояние, но
непомнят "предпредыдущее" и т.д...
Ну вот, в общем, это если совсем просто рассказывать.
Матекатика там, местами, довольно запутанная и неочевидная, а формулы огромные.
 
Yurixx 22.01.07 16:24
Ну может между нами, домохозяйками, раскажете мне что это такое ?
Необязательно про МАРКОВСКИЙ ПРОЦЕСС, можно просто про марковские цепи.
Можно даже про цепочки.

Проще всего на примере.
Самый простой марковский процесс, это обыкновенная монетка.
То какой стороной выпадет монетка независит от предыдущего состояния.
Говорят, что такой процесс как монетка имеет свойство марковости,
то есть "не помнит" прошлого.


Насколько я помню определение марковского процесса из предыдущего поста (A(i)[s+1] зависит только от A[s]) , подкидывание монетки не может являться марковским процессом, так как вероятность выпадения орла при каждом подбрасывании не зависит ни от одного предыдущего испытания.
 
To Neutron


Наша задача сводится к выбору модели пригодной для описания поведения "случайных" остатков Х[j] исследуемого временного ряда Y[j], получающихся после элиминирования из исходного временного ряда его неслучайной составляющей (если таковая есть).


Сергей, надеюсь на твое терпение. Объясни мне (вполне возможно, что я, что-то упустил), а зачем нам модель для описания случайных остатков, и что такое «элиминирование». И сдается мне, что «выделение» случайных остатков, по свое сути случайно. Во как завернул. :о)

To Rosh


тут все понятно, кроме пункта 2). Возможно считается простая банальная вещь, а может и ноу-хау.


Тут все довольно просто. Нужно было определить как-то состояние системы, для прогнозирования. Долго ковырялся с вполне понятными параметрами: ско, длина канала, угол наклона линии ЛР. Но в ходе эксперимента, сообразил, что некоторые параметры канала дают лучшие результаты.

А пришел к этим характеристикам из нижеследующего:


По пункту 4) (я с этим вопросом уже приставал к solandr'у) - "процесс рождения и гибели" был определен на статистической обработке пункта 3) или из каких-тообщих теоретических соображений?


Ладно, признаюсь честно. Первой мыслью была именно эта. Взять историю, найти каналы, подсчитать статистики. От этого подхода в итоге отказался. Как я уже и писал, свой метод я назвал эволюционный фрактально волновой анализ (ну назвал и назвал, мне нравится). В основе лежит «эволюционный» - переработанный «под каналы» МСП. Так вот, я исследовал динамику некоторых характеристик каналов. Канал же определяется у меня не как обычно принято. Вот в этом посте «grasn 18.01.07 16:11» есть картинка, показывающая силу связи между отсчетами. Канал – это от текущего отсчета до самого минимального значения этой связи. Как только нашел слабый отсчет, это означает, что нашел зарождение канала. Перевожу «курсор» в это место и начинаю контролировать, как говорит Северный Ветер качество процесса.

Динамика некоторых характеристик внутри канала и есть процесс рождения и гибели канала (у меня по крайне мере это так).
 
Когда-то давным-давно, много страниц назад я спорил с основателем ветки по поводу теории Элиотта и он отказался в двух словах сформулировать ее суть, ссылаясь на толщину книг.

Теперь, благодаря Neutron'у, grasn'у и Северному Ветеру, наглядно продемонстрировано как это делается.

Хотя мне по возрасту уже не положено школярствовать, но я очень признателен за желание научить уму-разуму и урок, который Вы, Сергей, задали обязательно исполню.

Обещаю и торжественно клянусь. :-)
 
Rosh 22.01.07 19:33
Насколько я помню определение марковского процесса из предыдущего поста (A(i)[s+1] зависит только от A[s]) , подкидывание монетки не может являться марковским процессом, так как вероятность выпадения орла при каждом подбрасывании не зависит ни от одного предыдущего испытания.

Хотелось бы обсудить этот момент поподробнее, но к сожалению сейчас абсолютно
нет времени. Скажу лишь, что госпожа Вентцель Е.С. в своем учебнике утверждает
то же самое, монетка - процесс марковский, там даже доказательства есть.
Кстати, у неё марковский процесс (процесс без последствия) - если для каждого момента
времени вероятность любого состояния системы в будующем зависит только от состояния
системы в настоящий момент, и не зависит от того, каким образом система пришла в
это состояние.
 
Rosh 22.01.07 19:33
Насколько я помню определение марковского процесса из предыдущего поста (A(i)[s+1] зависит только от A[s]) , подкидывание монетки не может являться марковским процессом, так как вероятность выпадения орла при каждом подбрасывании не зависит ни от одного предыдущего испытания.

Хотелось бы обсудить этот момент поподробнее, но к сожалению сейчас абсолютно
нет времени. Скажу лишь, что госпожа Вентцель Е.С. в своем учебнике утверждает
то же самое, монетка - процесс марковский, там даже доказательства есть.
Кстати, у неё марковский процесс (процесс без последствия) - если для каждого момента
времени вероятность любого состояния системы в будующем зависит только от состояния
системы в настоящий момент, и не зависит от того, каким образом система пришла в
это состояние.


Да, там где женщины, там всегда неразбериха. Шутка. :о) То ли дело простой пример из учебника под редакцией Максимова: игрок играет в какую то игру, состоящую из партий. Вероятность выигрыша в следующей партии равна p, если выиграна предыдущая партия, и p1, если предыдущая партия проиграна. Состояние E1 – выиграна очередная партия, E2 – партия проиграна.

Блуждание по состояниям E1 и E2 описывается матрицей переходных вероятностей:
|(p) (1-p)|
|(p1) (1-p1)|
 
Ну вот, другое дело :) Даже обоснование можно привести, почему выигрыш после проигрыша имеет другую вероятность по сравнению выигрыша после выигрыша .
"Мужчины не плачут, мужчины расстраиваются" (с) :)