Обсуждение статьи "Глубокие нейросети (Часть VI). Ансамбль нейросетевых классификаторов: bagging" - страница 4
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
А как Вы эту цифру определили/вычислили? Если не секрет конечно.
Экспериментальным путём. Многое зависит от конкретного временного ряда, таймфрейма и параметров ZigZag. Например, для EURUSD15, точности 0.84 оказалось не достаточно.
Попробовал ансамбль из 10 штук DNN Darch, усреднением прогнозов 10 лучших. На данных аналогичным вашим, но с моего ДЦ.
Улучшений нет, средний прогноз (ош=33%) чуть ниже лучшего (ош=31%). Худший был с ошибкой=34%.
DNN обучены хорошо - на 100 эпох.
Видимо ансамбли хорошо помогают на большом кол-ве недообученных или слабых сетей типа Elm.
Попробовал ансамбль из 10 штук DNN Darch, усреднением прогнозов 10 лучших. На данных аналогичным вашим, но с моего ДЦ.
Улучшений нет, средний прогноз (ош=33%) чуть ниже лучшего (ош=31%). Худший был с ошибкой=34%.
DNN обучены хорошо - на 100 эпох.
Видимо ансамбли хорошо помогают на большом кол-ве недообученных или слабых сетей типа Elm.
Конечно в ансамблях лучше всего использовать слабые и нестабильные модели. Но и со строгими можно создавать ансамбли, но техника создания несколько другая. Если позволит размер я покажу в следующей статье как создать ансамбль с использованием TensorFlow. Вообще тема ансамблей очень объемна и интересна. Например можно построить RandomForest в узлах которого будут нейросети ELM или любые другие слабые модели (смотрите пакет gensemble ).
Успехов