Феномены рынка - страница 63

 
faa1947:

Скос - это прямая связь с толстыми хвостами. А по тесту максимальному значению скоса соответствует наиболее вероятное значение стационарности остатка от сглаживания!!!!

Мне это кажется феноменом. Или что-то не понимаю

Угу, основы теорвера не понимаете.

Прямая связь с толстыми хвостами не у скоса, а у эксцесса.

 
anonymous:

Угу, основы теорвера не понимаете.

Прямая связь с толстыми хвостами не у скоса, а у эксцесса.

На пятерке этот вопрос обсуждался. У эксцесса нет прямой связи с хвостами. Если интересно - поищите в моих постах.
 
-Aleksey-: У эксцесса нет прямой связи с хвостами. Если интересно - поищите в моих постах.
Покажите этот свой пост (или хотя бы тему), не хочется терять время на поиск. Тем более что и тема здесь вполне достойная.
 
-Aleksey-:
На пятерке этот вопрос обсуждался. У эксцесса нет прямой связи с хвостами. Если интересно - поищите в моих постах.

Очень интересно.

Аnonymous


Особенно, если имеется обоснование в теорвере.

 
Да нет там прямой связи, это и так видно. С какого это бодуна функция четвертых моментов распределения должна иметь прямое отношение к жирности хвостов?
 

Где-то выкладывал, но осталось без внимания. По поводу скоса и толстых хвостов.

Часовики обратной величины расчетного индекса доллара.

Сгаживаем фильтром и получаем остаток = разнице между фильтром и котиром

Для остатка меняем лямбду в НР и получаем значение скоса и вероятности того, что этот остаток стационарен (Не имеет толстого хвоста???)




Видим, что наибольшей величине скоса соответствует наибольшая вероятность стационарности остатка.


Очень интересно мнение.

 
faa1947: [...] этот остаток стационарен (Не имеет толстого хвоста???)

Эти понятия неэквивалентны.

Остаток может быть стационарной величиной, и вместе с тем хвосты распределения могут быть жирными. Достаточно просто генерировать, скажем, лапласовски распределенную величину с независимыми "отсчетами" и считать ее остатком.

 
Mathemat:

Эти понятия неэквивалентны.

Остаток может быть стационарной величиной, и вместе с тем хвосты распределения могут быть жирными. Достаточно просто генерировать, скажем, лапласовски распределенную величину с независимыми "отсчетами" и считать ее остатком.

Я плохо понимают математические упражнения.

Стационарность - это дисперсия = константе. Недостижимо и это проявляется в тесте в виде вероятности стационарности не равной 100%

Толстый хвост - это изменчивость дисперсии, которая ведет к росту вероятности маловероятных для нормального распределения событий.

Но вот график с.к.о.

Полная банальность. Растет сглаживающая возможность фильтра - растет ошибка

 
faa1947: Стационарность - это дисперсия = константе.

Неверно. Это постоянство м.о. величины и зависимость АКФ только от разности аргументов. И это определение стационарности - в широком смысле.

Толстый хвост - это изменчивость дисперсии, которая ведет к росту вероятности маловероятных для нормального распределения событий.

Это вообще bred safe cable.
 
Mathemat:

Неверно. Это постоянство м.о. величины и зависимость АКФ только от разности аргументов.


Отсутствие зависимости в частной АКФ?