Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Да, объем выборки - свой для каждой пары. Именно так. Это очень важно. Даже Vizard_ по-моему, этого момента не улавливает в полной мере. А ответ прост - волновая функция у каждой пары своя, так сказать именная.
Отчего столько вопросов? Товарищ берет период дискретизации цены - 1с. Далее всяческая статистика. Если чего не изменилось за это время.) Уже и автор стал Визард.))
Чего я действительно не понимаю, это экспоненциальное время. Зачем? Есть стандартные подходы с весовыми коэффициентами, уменьшающими вес в статистике старых данных.
С экспоненциальным временем (отсчетами) мы просто выбрасываем часть инфы между отсчетами, и по мере движения окна эта инфа начинает мерцать - отсчеты появляются, исчезают, и вновь появляются и т.д.
Еще раз - без Визарда я бы к этим графикам пришел гораздо позже. Хотя пришел бы. Он это заметил и просто немного помог. Видимо, ему ждать надоело.
И вот смотрите какая штука - этот алгоритм уже неплох и мы посмотрим на результаты. Если результаты будут положительные, то я навсегда на этом алгоритме и останусь. Но, еще раз - Фейнман однозначно утверждал, что на основе знания волновой функции и ее амплитуды можно и нужно прогнозировать движения частиц. И Визард сидит в нейросетях, это просто очевидно. Так что, если что вдруг не так - плавно перетечем в соседнюю ветку и начнем там всех подряд поучать и встревать между фразами :)))))
Ну вот, по аналогии как картинка выше, можно выложить список ваших пар с объемами выборки для каждой из них?
Отчего столько вопросов? Товарищ берет период дискретизации цены - 1с. Далее всяческая статистика. Если чего не изменилось за это время.) Уже и автор стал Визард.))
Чего я действительно не понимаю, это экспоненциальное время. Зачем? Есть стандартные подходы с весовыми коэффициентами, уменьшающими вес в статистике старых данных.
С экспоненциальным временем (отсчетами) мы просто выбрасываем часть инфы между отсчетами, и по мере движения окна эта инфа начинает мерцать - отсчеты появляются, исчезают, и вновь появляются и т.д.
Единственно в чем Автор прав, - в том, что никто так не делает.)
Подозреваю, для того чтобы получить обратную экспоненте величину, а затем линейную зависимость меж нормальным и получившимся распределением
Проблема в том что добавляя случайность там где её раньше небыло, мы увеличиваем энтропию, а не уменьшаем её.
Вот если бы был предложен метод детерминистический, вопросов небыло бы.
Там типа, шаг измерения зависит от прошлых данных по какой то формуле. Как например в Каги или Ренко, но чуть сложнее.
Либо например от накопленного объёма, либо от накопления на бай при падающем рынке.
Примеры надеюсь понятны. Но случайная последовательность это перебор.
Объемы выборки:
AUDCAD = 19600
AUDCHF = 14400
AUDJPY = 12100
AUDUSD = 14400
CADJPY = 16900
CHFJPY = 19600
EURAUD = 32400
EURCAD = 44100
EURCHF = 16900
EURGBP = 14400
EURJPY = 22500
EURUSD = 16900
Ну, это при обработке архива из 200.000 котировок, а надо не менее 1.000.000.
Интересно, чем таким особенным отличается EURCAD, что по нему якобы выборка нужна аж в 3 раза больше)
Кроссы все примерно схожи и по волатильности, и по трендовости, различия есть, но далеко не в разы.
Какой-то фикцией пахнет. Александр, откуда такое различие в расчетах вылезло?
Интересно, чем таким особенным отличается EURCAD, что по нему якобы выборка нужна аж в 3 раза больше)
Кроссы все примерно схожи и по волатильности, и по трендовости, различия есть, но далеко не в разы.
Какой-то фикцией пахнет. Александр, откуда такое различие в расчетах вылезло?
Уважаемые программисты, а почему, хотя у меня везде при открытии ордера стоит проверка
а все равно одновременно открылось аж 4 сделки на разных парах?
Из-за этого?
Этот параметр у меня одинаков для всех советников.
Практиканты! Где реалы? Без шуток и без подколов...