Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Странно слышать это от Вас. Вы действительно верите, что ранжирование действительно никак не учитывает абсолютные значения?
Главное требование к непараметрическим методам - робастность к "шумам" и распределениям (особенно fat tails). Ради нее можно слегка пожертвовать точностью, которая часто оказывается призрачной и вводящей в заблуждение.
Этот учет зависит от выбранной статистической ранговой меры(какого-то функционала), поэтому на малых выборках коэффициенты для Спирменна, Кендала и Хефдинга будут показывать неодинаковые значения. И что использовать? Для различных носителей системы, генерирующей значения, как то вид и порядок функции носителя тренда, те или иные меры будут лучшими. Да, непараметрический метод может приблизительно оценить КК, но нужен ли он, если вид этой корреляции неизвестен? Непараметрические КК непараметричны в том смысле, что меры, выбранные для их измерения, нечувствительны лишь к монотонным преобразованиям наблюдений, чего на рынке тоже не всегда бывает. СБ со сносом обеспечивает часто резкую немонотонную перестановку рангов.
В противоположность, линейный КК дает значение понятно для чего применимое.
Алексей, давайте обозначим и разграничим понятия long tails и fat tails, ведь они взаимо-обратные. По моим исследованиям на рынке нет распределений с длинными хвостами.
Разницы что-то не заметил. Ткните носом, чтобы я понял, где ошибаюсь.
Никто не говорит, что непараметрические методы решают все проблемы. Но часто их оценки адекватнее параметрических - как раз тогда, когда вид корреляции неизвестен.
Если хвост длинный, то он тонкий. Исключение - треугольное распределение и подобные(трапеции). И наоборот. А если называть длинные тонкие хвосты толстыми, то это путает, т.к. толстые чаще всего короткие. Это имхо, не из гуглов.
Здесь весь вопрос в том, что такое распределение. Классическая теория не позволяет определить это понятие однозначно(более того, она даже не позволяет его построить), поэтому я ее не использую. Мой подход - эволюция квазистационарного распределения в некотором пространстве, определяющем меру ошибки.
Я не настолько силен в тонкостях. Разговор-то был о другом - о непараметрических методах.
Не уж-то AlexEro прав про матлаб? Святая ведь вещь, сияющая в вышине, платная, бешенные бабки.....
Маткад не виноват, я выше уже отписал, почему получается убывание.
Еще раз, AlexEro, убывание получается от того, что вы на самом деле считаете lcorr не от cos(w*i) (функции, бесконечно продолжающейся в обе стороны числовой оси), а от cos(w*i)*[h(i) - h(100-i)] , где h(t) - ф-ция Хевисайда (единичная ступенька). Простой способ проверить: чем больше отсчетов синусоиды задать, тем меньше будет убывание. Сложный способ проверить: подставить явно в формулу для lcorr указанное выражение и получить треугольник.
Если хвост длинный, то он тонкий.
В ТВ все наборот как раз, не как в зоологии: если хвост длинный, то он толстый)). Все дело в нормированности площади под графиком на 1, то есть "хвост" выкачивает часть вероятности от центральной области. А вообще под "толстыми" (или "длинными", если угодно) подразумевают в зависимости от контекста разные вещи - это могут быть распределения, убывающие медленнее гаусовского, либо распределения с бесконечной дисперсией, либо т.п.
Маткад не виноват, я выше уже отписал, почему получается убывание.
Еще раз, AlexEro, убывание получается от того, что вы на самом деле считаете lcorr не от cos(w*i) (функции, бесконечно продолжающейся в обе стороны числовой оси), а от cos(w*i)*[h(i) - h(100-i)] , где h(t) - ф-ция Хевисайда (единичная ступенька). Простой способ проверить: чем больше отсчетов синусоиды задать, тем меньше будет убывание. Сложный способ проверить: подставить явно в формулу для lcorr указанное выражение и получить треугольник.
(уставшим голосом профессора Преображенского)
"Извините, кто на ком стоял?"
Извините, где это я "считаю окном функции Хэвисайда"? Покажите мне, пожалуйста, ткните меня носом.
Пипец, я тут совсем в Аллочку превращусь. Это какой-то заговор, диверсия.
Мне плевать, как там считает Матлаб,
мне плевать как там программируют физики на фортране,
мне плевать что в голове у матлабовского аутсорсеного программера,
мне плевать что в голове у обкуренного индусского программиста - постановщика задачи в фирме матворкс, и что именно он там считает себе как там надо "правильно" программировать автокорреляцию, и что он для его обкуренной "правильности" считает, что недостаток отсчётов в конце отрезка самплов надо "компенсировать" окном Хэвисайда НА ВСЁМ ОТРЕЗКЕ, чем испаскудживается вся автокорреляция.
Мне на это наплевать. Я не пользуюсь матлабом, никогда, ни разу им не пользовался и не собираюсь этого делать. Рисунки из матлаба, которые я привёл - это Привалова, я там же дал ссылку на них.
Я только не понимаю, как Вы можете так извращать обсуждение. Это же не обсуждение, это совковая демагогия. Я говорю про определение автокорреляции, про смысл этого понятия, показываю теоретические ОСНОВАНИЯ и простые правила для проверки правильности любого алгоритма автокорреляции, показываю, что в матлабе и у Привалова дампинг автокорреляции начинается прямо с первого отсчёта, а мне предъявляют пояснение, что мол Я САМ ВИНОВАТ, потому что видите ли "я считаю окном Хэвисайда". Мне предъявляют мои же претензии!
Пипец, тут есть хоть один человек, который понимает о чём я говорю? Ау!
Пипец, тут есть хоть один человек, который понимает о чём я говорю? Ау!
Есть. Ну вот, обещал-обещал!
П.С. А не сходить ли тебе в ветку "Что такое ИНДИКАТОР"??? Мож хоть за год напишешь что-нибудь толковое...
Пока Алекс думает о том, что такое ИНДИКАТОР, вопрос ко всем - есть две выборки SILVER и GOLD. Дневные данные, 420 наблюдений.
КК Спирмена - 0.52, коэффициент ранговой корреляции статистически - значим и ранговая корреляционная связь между оценками по двум тестам значимая.
КК Пирсона - 0.64.
И что? Прямая корреляция. Практический вывод?