Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Ок, возьмём тогда плотность распределения Коши или Лапласа.
Дык при чем тут Коши и Лаплас) меня не интересует вид распределения, и я не планирую его устанавливать)
И параметры гауссианы не нужны. Вопрос другой же.
... Насколько она близка к гауссиане, в каких местах отклоняется от нее и на сколько ...
Просто хотелось понять, как бы вы ответили на этот вопрос в гипотетическом случае, когда достоверно известно, что данные распределены точно в соответствии со стандартным распределением Коши. Тогда проще было бы ответить и в случае с реальными данными. Например, что-нибудь в том духе, что берём ту гауссиану, для которой сумма модулей отклонений децилей минимальна и тд.
Ну или я совсем не понял вопроса.
Просто хотелось понять, как бы вы ответили на этот вопрос в гипотетическом случае, когда достоверно известно, что данные распределены точно в соответствии со стандартным распределением Коши. Тогда проще было бы ответить и в случае с реальными данными. Например, что-нибудь в том духе, что берём ту гауссиану, для которой сумма модулей отклонений децилей минимальна и тд.
Ну или я совсем не понял вопроса.
Алексей, как можно применить аналогию распределения Коши в практике?
Интересен поскриптум, он не прозвучал
Просто хотелось понять, как бы вы ответили на этот вопрос в гипотетическом случае, когда достоверно известно, что данные распределены точно в соответствии со стандартным распределением Коши. Тогда проще было бы ответить и в случае с реальными данными. Например, что-нибудь в том духе, что берём ту гауссиану, для которой сумма модулей отклонений децилей минимальна и тд.
Ну или я совсем не понял вопроса.
Ну, обычная линейная аппроксимация по МНК. Берем ту гауссиану, для которой сумма квадратов отклонений минимальна.
Вопрос в том, что в центре распределения величина отклонений будет допустим порядка 0.1. А на хвостах, допустим, порядка 0.01.
Т.е. фиттинг произойдет в основном по точкам из центра распределения.
А мне кажется, что все точки должны в равной мере участвовать.
Для этого можно либо взять логарифмический масштаб на вертикальной оси, либо вместо отклонений-разностей брать отклонения-частные, т.е. разделить одно распределение на другое, и потом уже аппроксимировать.
Ну, обычная линейная аппроксимация по МНК. Берем ту гауссиану, для которой сумма квадратов отклонений минимальна.
Вопрос в том, что в центре распределения величина отклонений будет допустим порядка 0.1. А на хвостах, допустим, порядка 0.01.
Т.е. фиттинг произойдет в основном по точкам из центра распределения.
А мне кажется, что все точки должны в равной мере участвовать.
Для этого можно либо взять логарифмический масштаб на вертикальной оси, либо вместо отклонений-разностей брать отклонения-частные, т.е. разделить одно распределение на другое, и потом уже аппроксимировать..
Есть причины, чтобы "участие" точек, которые встречаются редко, тем не менее было таким же, как и у близких к медиане (центру), встречающихся гораздо чаще? За что такое усиление роли в аппроксимации? Не выйдет ли, что "хвост виляет собакой"?
Вообще-то для управления ролью разных точек есть МНК с весами. Назначьте их, например, как величины, обратные к плотности вероятности нормального распределения, и все. Главное, чтобы сумма весов осталась 1. Кстати, а что такое "линейная аппроксимация по МНК", если не аппроксимация прямой линией?
Есть причины, чтобы "участие" точек, которые встречаются редко, тем не менее было таким же, как и у близких к медиане (центру), встречающихся гораздо чаще? За что такое усиление роли в аппроксимации? Не выйдет ли, что "хвост виляет собакой"?
Вообще-то для управления ролью разных точек еть МНК с весами. Назначьте их, например, как величины, обратные к плотности вероятности нормального распределения, и все. Главное, чтобы сумма весов осталась 1. Кстати, а что такое "линейный" МНК?
1. Конечно есть. Хвосты ведь большой величины. Применительно к рынку - редкие, но большие убытки. Это не усиление роли, это компенсация недостатка роли, в результате - придание равных ролей всем точкам.
2. Про МНК с весами я знаю. Вопрос не в технике аппроксимации, а в её идеологии.
3. Когда между величинами предполагается линейная связь.
1. Конечно есть. Хвосты ведь большой величины. Применительно к рынку - редкие, но большие убытки.
2. Про МНК с весами я знаю. Вопрос не в технике аппроксимации, а в её идеологии.
3. Когда между величинами предполагается линейная связь.
1. Это уже не вероятностный подход. Хвосты распределения вероятности означают малозначительные редкие случаи, а у главных, значительных, есть свое распределение, быстро убывающее к краям.
2. Вопрос был такой: "Кстати, Алексей, и Владимир, подскажите. Допустим, мы хотим некие данные аппроксимировать нормальным распределением. Хвосты и середина распределения должны иметь одинаковый вес в аппроксимации, как я полагаю?"
Ответ - нет. Если моделировать задачу вероятностными методами, то, конечно же, важнее те события, которые встречаются чаще других, то есть вероятнее. Это - идеологически.
3. Линейная причинно-следственная связь, имеете в виду? А МНК не все равно, какая там связь?
Ну, обычная линейная аппроксимация по МНК. Берем ту гауссиану, для которой сумма квадратов отклонений минимальна.
Вопрос в том, что в центре распределения величина отклонений будет допустим порядка 0.1. А на хвостах, допустим, порядка 0.01.
Т.е. фиттинг произойдет в основном по точкам из центра распределения.
А мне кажется, что все точки должны в равной мере участвовать.
Для этого можно либо взять логарифмический масштаб на вертикальной оси, либо вместо отклонений-разностей брать отклонения-частные, т.е. разделить одно распределение на другое, и потом уже аппроксимировать.
Несколько напоминает критерий согласия Пирсона (хи-квадрат). Посмотрите у Кобзаря в третьей главе. Надо только чётко разобраться в отличии случая простой нулевой гипотезы, от сложной, когда параметры распределения неизвестны и оцениваются по выборке (например посредством минимизации статистики хи-квадрат).
1. Это уже не вероятностный подход. Хвосты распределения вероятности означают малозначительные редкие случаи, а у главных, значительных, есть свое распределение, быстро убывающее к краям.
2. Вопрос был такой: "Кстати, Алексей, и Владимир, подскажите. Допустим, мы хотим некие данные аппроксимировать нормальным распределением. Хвосты и середина распределения должны иметь одинаковый вес в аппроксимации, как я полагаю?"
Ответ - нет. Если моделировать задачу вероятностными методами, то, конечно же, важнее те события, которые встречаются чаще других, то есть вероятнее. Это - идеологически.
3. Линейная причинно-следственная связь, имеете в виду? А МНК не все равно, какая там связь?
1. Они НЕ малозначительны. Один такой "малозначительный" случай может привести к потере всего, что заработано на "главных".
3. Линейная корреляционная связь. МНК все равно, линейной я называл аппроксимацию, а не МНК.
Несколько напоминает критерий согласия Пирсона (хи-квадрат). Посмотрите у Кобзаря в третьей главе. Надо только чётко разобраться в отличии случая простой нулевой гипотезы, от сложной, когда параметры распределения неизвестны и оцениваются по выборке (например посредством минимизации статистики хи-квадрат).
Дык, нет же задачи оценивать параметры распределения)