Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1884
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
В итоге на практике так, это сегодняшний евро на M2, что то нейросеть начинает понимать, но пока слабо.
Синий - прогноз вверх, желтый - вниз.
Сразу видно что человек в реальном процессе ))
По началу стандарно отрисовывал используя
но толку мало, из-за большого шума уже после 10 эпох график ложится на горизонтальную.
У меня бинарная классификая и я анализирую степень уверенности сети в каждом ответе, т.е. например правильный ответ 0 1, а сеть выдает 0.4 0.6 - это хорший ответ, а чаще так: правильный ответ 0 1, а сеть выдает 0.49 0.51
Когда ответов тысячи их можно раскидать по группам по степени уверенности и проводить анализ.
Графики loss можешь выложить? Кроме эпох размер батча надо менять, чем больше эпох и меньше размер батча, тем больше раз измененяются веса. Еще есть смысл lerning_rate в оптимизаторе +- на порядок поменять. А оптимизатор какой используешь?
Графики можешь выложить? Кроме эпох размер батча надо менять, чем больше эпох и меньше размер батча, тем больше раз измененяются веса. Еще есть смысл lerning_rate в оптимизаторе +- на порядок поменять. А оптимизатор какой используешь?
Бач 128, если мы об одном и том же говорим. Он всегда должен быть 128 это что то связано с TPU, такое требование.
Эпохи тоже перестал менять, после 150 обычно ничего не меняется.
Оптимизатор adam, c SGD чето не получается.
Вот моя сетка, я тут динамически меняю количество слоев
Вот моя сетка, я тут динамически меняю количество слоев
Можно попробовать вместо Dropout еще что-нибудь, уменьшить число нейронов. Добавить инициализацию и нормализацию весов. Входные данные как-нибудь обрабатываются? У меня результат стал лучше после умножения входных данных на порядок, похоже нужно все таки избавляться от нестационарности.
Можно попробовать вместо Dropout еще что-нибудь, уменьшить число нейронов. Добавить инициализацию и нормализацию весов. Входные данные как-нибудь обрабатываются? У меня результат стал лучше после умножения входных данных на порядок, похоже нужно все таки избавляться от нестационарности.
Ни какой пакет не даст точный результат. Любая НС может выдавать только вероятностный прогноз вверх, вниз или неизвестно. Цена не подчиняется нейросетям и может легко идти против них. Вариант в 65% уже приемлем.
Ни какой пакет не даст точный результат. Любая НС может выдавать только вероятностный прогноз вверх, вниз или неизвестно. Цена не подчиняется нейросетям и может легко идти против них. Вариант в 65% уже приемлем.
здесь 56%. Синяя как должно быть, красная ответ сети. Проценты ничего не значат.
здесь 48%, цифра еще меньше, но хоть какие то телодвижения присутствуют.
Можно попробовать вместо Dropout еще что-нибудь, уменьшить число нейронов. Добавить инициализацию и нормализацию весов. Входные данные как-нибудь обрабатываются? У меня результат стал лучше после умножения входных данных на порядок, похоже нужно все таки избавляться от нестационарности.
Попробуй поиграть в это, хорошо прокачивает понимание как параметры влияют на результат.
Да, надо все перебирать, иначе никак.
Попробуй поиграть в это, хорошо прокачивает понимание как параметры влияют на результат.
Ага видел, плохо что свое нельзя подсунуть.
Попробуй lerning_rate уменьшить для начала.
Красивая картинка, четко видно где пошло переобучение
Торговля твоих кластеров, все как я и говорил
и ето при том что ошибка на новых данных 0.82%
Так что надо было слушать меня когда я говорил - делай торговалку и смотри сразу, а ты какие то оптимизаторы, парсеры и прочее г-но пилил