Теорема Бернулли, Муавра-Лапласа; Критерий Колмогорова; Схема Бернулли; Формула Байеса; Неравенства Чебышева; Закон распределения Пуассона; Фишер, Пирсон, Стьюдент, Смирнов и др. теоремы, модели, простым языком, без формул. - страница 7
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Ну примерно так, но не совсем. Да, речь идет о значениях случайной величины, которые сильно отличаются от ее среднего значения.
Обычно хвосты бывают толстыми и тонкими. Вот очень нестрогое определение хвоста: это вероятность отклонения, превышающего заданное.
Толщина хвоста определяется не самой величиной выброса, т.е. отклонения от среднего, а вероятностью таких сильных отклонений. Чем она выше - тем толще хвост.
Обычно считается, что у нормального распределения - тонкие хвосты. Я не знаю ни одного практического распределения, хвосты которого были бы тоньше, чем у нормального.
А теперь - еще более точное определение хвоста. Но вначале - картинка и немного введения:
Это известная картинка колокола, т.е. гауссового распределения. Кривая, нарисованная здесь, - это функция плотности распределения (здесь - нормального). Внизу нарисованы сигмы - стандартные отклонения. Сигма - мера того, насколько распределение (любое) узкое или широкое.
Площадь под любой функцией плотности распределения (ф.п.р., в англоязычной литературе - pdf, probability distribution function) всегда равна 1.
Любая ф.п.р. неотрицательна. Это на самом деле отражает тот факт, что вероятность всегда неотрицательна.
Если нам нужно найти вероятность того, что случайная величина будет находиться в интервале между сигмой и двумя сигмами (правее среднего), достаточно найти площадь под этой кривой, ограниченной вертикальными линиями "+ сигма" и "+ 2*сигма". Обозначим ее так: Р( сигма <= Х < 2*сигма). Следует помнить о том, что даже при +1000*сигма эта функция все еще не равна нулю. Да, она очень быстро убывает (как mathExp(-х^2)), но в нуль не превращается.
Теперь вернемся к хвостам. Правый хвост - это функция right_tail( Х; X0 ) = Р( Х0 <= Х < бесконечность ). Прошу еще раз обратить внимание на то, что хвост - это именно функция от Х0. Чем больше Х0 (правее), тем обычно меньше функция. Т.е. обычно (не всегда, но асимптотически всегда) эта функция - убывающая от Х0 и стремящаяся к нулю.
Для нормального распределения right_tail_normal( Х; Х0 ) ~ mathExp(-Х0^2) или что-то сопоставимое (не помню, там неэлементарная функция).
А вот для распределения Лапласа (функцию см. на картинке в моем предыдущем посте):
right_tail_laplace( Х; Х0 ) ~ mathExp(-a*Х0). Обратите внимание: это уже другая функция, которая стремится к нулю намного быстрее хвоста нормального распределения!
А вот еще одно - распределение Коши:
Для него right_tail_cauchy( Х; Х0 ) ~ 1 / Х0. Эта функция еще медленнее стремится к нулю с ростом х.
Мы увидели три разные функции right_tail( Х; Х0 ). Реальное отличие хвостов разных pdf заключается в разных скоростях убывания этой функции для разных pdf. Для нормального распределения функция убывает очень быстро (тонкохвостое), для лапласовского - довольно быстро, но бесконечно быстрее первого (уже толстый хвост), для Коши - бесконечно быстрее обоих первых (жутко жирный хвост).
Не очень удачная идея для иллюстрации нормального распределения. Я не уверен в том, что остановка процесса, скажем, на 10000 даст в сечении именно нормальное распределение. Кроме того, у этого распределения параметры постоянно меняются.
С этого места если можно по подробнее. Если честно, я не понимаю, почему тот колокол, что вырисовывается не нормальный? Смысл в том, что каждая линия - это тракетория блуждания частицы, все частицы обладают одним и тем же биноминальным процесоом приращения и конечным и равным количеством шагов, . Как параметры могут менятся?
Конечно, вот от Вас и хочу подробностей.
1. "все частицы обладают одним и тем же биноминальным процесоом приращения" - поясните, что это означает. Я впервые слышу о таком процессе. Какова функция распределения приращений?
2. "следовательно любой процесс совокупности обладает идентичными свойствами совокупности" - ну это тоже совершенно непонятно и совсем не по-математически.
Если провести "сечение" всей этой совокупности траекторий на абсциссе, скажем, 10000, то каждая траектория отметит там точку. Откуда у Вас уверенность в том, что все эти точки распределены именно по нормальному закону?
Если провести "сечение" всей этой совокупности траекторий на абсциссе, скажем, 10000, то каждая траектория отметит там точку. Откуда у Вас уверенность в том, что все эти точки распределены именно по нормальному закону?
Центральная предельная теорема. Рассматриваемая случайная величина есть сумма большого числа (10000) независимых случайных величин, значит ее распределение близко к нормальному
1. "все частицы обладают одним и тем же биноминальным процесоом приращения" - поясните, что это означает. Я впервые слышу о таком процессе. Какова функция распределения приращений?
Может я не точно выразился. Имелось в виду это, которое в свою очердь получается из аккумуляции дискретных случайных величин: -1 и +1.
Если провести "сечение" всей этой совокупности траекторий на абсциссе, скажем, 10000, то каждая траектория отметит там точку. Откуда у Вас уверенность в том, что все эти точки распределены именно по нормальному закону?
Теперь совсем не понимаю, почему эти точки могут быть распределены не нормально, если каждая из них обладает одним и тем же СКО и одним и тем же количеством шагов 10 000? Нужно поставить эксперимент и построить график попадания вероятностей, могу поспорить, что он будет нормальным, с вершиной колокола в нуле.
Убедил, Avals.
Я к Вам придрался, С-4. Правда, насчет "биномиального процесса приращения" я так и не понял. Ну будем считать, что Вы имели в виду приращения, распределенные по какому-нибудь закону с конечными м.о. и дисперсией.
Да, действительно очень точный. Но проблема именно в скорости. Просто я пишу на C# + WealthLab - а это весьма торомознутая связка. Я пробылал генерировать 100 баров по 3000 тиков каждый, в итоге это заняло у меня секунд 8-10. А мне надо сгенерировать не менее 500 000 баров а лучше миллиона 3-4 (примерно 10 лет минутной истории).
Видится, что на вход формулы должна подаваться дисперсия, МО, кол-во тиков, на выходе должны иметь OHLC бар. Как-то так.
В первом приближении упростим задачу: сгенерируем полностью "нормальные" OHLC. Пусть это будет классическое норм. распределение. Другое дело, что потом хотелось бы сгенерировать на основе этой формулы распределение приближенное к реальным рыночным, например брать реальную волатильность инструментов и генерировать на ее основе рандомный OHLC.