Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Я о другом. Просто не стоит тратить много времени на доказывания несостоятельности EMH - там рыбы все равно нет. Да, есть хвосты, да причина в реагировании на пучок информации, а не на отдельные новости. Да, теперь это научно доказано. Но рынок как был нестационарным так им и остался и заработать на нем стало не легче.
p.s. хе-хе, еще несколько подобных статей и Вы проникнитесь идеями фрактальной статистики, там причинность - один из краеугольных камней.
Я знаком с ней. Просто считаю недостаточно проработанной, по сравнению с другими методами.
Просто не стоит тратить много времени на доказывания несостоятельности EMH - там рыбы все равно нет.
Меня не интересуют доказательство чего-то бы ни было. Идея совершенно другая. Рынкет нестационарен. Это данность. Это изменить нельзя. Но это не означает, что следует закрывать глаза, надеясь на авось. Обычный научный подход: отщипываем по кусочку то, что понимаем и можем откусить.
faa1947: толстые хвосты являются результатом памяти в котире.
Это известный факт.
А зачем нам память в котире в виде непонятных хвостов, если мы имеем неограниченный доступ (память) к прошлым данным?
Вот если б хвосты показывали поведение котира в будущем, тогда это была бы бесценная информация, поскольку мы торгуем не в прошлом, а в будущем.
Это известный факт.
А зачем нам память в котире в виде непонятных хвостов, если мы имеем неограниченный доступ (память) к прошлым данным?
Вот если б хвосты показывали поведение котира в будущем, тогда это была бы бесценная информация, поскольку мы торгуем не в прошлом, а в будущем.
Да, черт его знает. Просто хватаешься за все подряд.
Как-то видел статью, в которой для прогноза используются изменения в законе распределения. Какая-то необычная мысль.
Поделюсь.
О хвостах - есть один прелюбопытный результат. Поясню методику расчетов.
Все мы знаем, как примерно распределены первые разности валютного ряда (примерно как exp(-a|x|), или около того). Я ставил задачу определить, какие части этого распределения являются "истинными носителями внешней информации", так сказать. Делаем так. Считаем за некий большой промежуток времени СКО returns и для каждого котира высчитываем отношение правдоподобия принадлежности его к распределению лапласа относительно нормального с той же дисперсией. Как это посчитать, останавливаться не буду, есть википедия.
Интересные дела появляются, когда мы построим распределение самого отношения правдоподобия (точнее, его логарифма:
На рисунке обрезано справа по 2, но хвост теоретически идет до бесконечности. Так вот вся фишка как раз в резком обрыве на значении 1/2*ln(pi). Получается, что небольшая часть котировок дает резко отличающееся от остальных по встречаемости правдободобие принадлежности к лапласу - распределению с более толстыми хвостами, чем гауссовское. И эти котировки можно вычислить.
Похоже, на этом факте можно эффективно строить анализатор тренд-флет, причем определять соответствие критерию уже на текущем баре. Ну, или, по-крайней мере, эффективно выявлять катастрофы и быстро на них реагировать.
Поделюсь.
О хвостах - есть один прелюбопытный результат. Поясню методику расчетов.
Все мы знаем, как примерно распределены первые разности валютного ряда (примерно как exp(-a|x|), или около того). Я ставил задачу определить, какие части этого распределения являются "истинными носителями внешней информации", так сказать. Делаем так. Считаем за некий большой промежуток времени СКО returns и для каждого котира высчитываем отношение правдоподобия принадлежности его к распределению лапласа относительно нормального с той же дисперсией. Как это посчитать, останавливаться не буду, есть википедия.
Интересные дела появляются, когда мы построим распределение самого отношения правдоподобия (точнее, его логарифма:
На рисунке обрезано справа по 2, но хвост теоретически идет до бесконечности. Так вот вся фишка как раз в резком обрыве на значении 1/2*ln(pi). Получается, что небольшая часть котировок дает резко отличающееся от остальных по встречаемости правдободобие принадлежности к лапласу - распределению с более толстыми хвостами, чем гауссовское. И эти котировки можно вычислить.
Похоже, на этом факте можно эффективно строить анализатор тренд-флет, причем определять соответствие критерию уже на текущем баре. Ну, или, по-крайней мере, эффективно выявлять катастрофы и быстро на них реагировать.
Очень интересно.
Когда мы говорим о распределения, то основываем это на достаточно большом кол-ве наблюдения. На графике я вижу цифру 20000. Согласен, что при таком кол-ве наблюдений можно делать выводы о законе распределения. Но нас интересует бар, следующий за текущим. А здесь, чем больше кол-во наблюдений, тем более "средние" выводы мы делаем о последнем баре.
Имеется любопытная цифра 30. Считается, что до 30 мы имеем t-статистику, а после 30 у нас z-статистика, если выборка и нормальной совокупности.
Поэтому вопрос. Можно ли использовать выявленную закономерность на больших выборках использовать ее на малых, считая, что эта малая принадлежит к большой?
Очень интересно.
Когда мы говорим о распределения, то основываем это на достаточно большом кол-ве наблюдения. На графике я вижу цифру 20000. Согласен, что при таком кол-ве наблюдений можно делать выводы о законе распределения. Но нас интересует бар, следующий за текущим. А здесь, чем больше кол-во наблюдений, тем более "средние" выводы мы делаем о последнем баре.
Имеется любопытная цифра 30. Считается, что до 30 мы имеем t-статистику, а после 30 у нас z-статистика, если выборка и нормальной совокупности.
Поэтому вопрос. Можно ли использовать выявленную закономерность на больших выборках использовать ее на малых, считая, что эта малая принадлежит к большой?
Характер распределения не изменяется. Кстати, само исследование началось с того, что странный характер поведения Likelihood Ratio заметен можно сказать невооруженным глазом: