Обсуждение статьи "Глубокие нейросети (Часть VI). Ансамбль нейросетевых классификаторов: bagging" - страница 4

 
Vladimir Perervenko:

А как Вы эту цифру определили/вычислили? Если не секрет конечно.

Экспериментальным путём. Многое зависит от конкретного временного ряда, таймфрейма и параметров ZigZag. Например, для EURUSD15, точности 0.84 оказалось не достаточно.

 

Попробовал ансамбль из 10 штук DNN Darch, усреднением прогнозов 10 лучших. На данных аналогичным вашим, но с моего ДЦ.

Улучшений нет, средний прогноз (ош=33%) чуть ниже лучшего (ош=31%). Худший был с ошибкой=34%.

DNN обучены хорошо - на 100 эпох.

Видимо ансамбли хорошо помогают на большом кол-ве недообученных или слабых сетей типа Elm.

 
elibrarius:

Попробовал ансамбль из 10 штук DNN Darch, усреднением прогнозов 10 лучших. На данных аналогичным вашим, но с моего ДЦ.

Улучшений нет, средний прогноз (ош=33%) чуть ниже лучшего (ош=31%). Худший был с ошибкой=34%.

DNN обучены хорошо - на 100 эпох.

Видимо ансамбли хорошо помогают на большом кол-ве недообученных или слабых сетей типа Elm.

Конечно в ансамблях лучше всего использовать слабые и нестабильные модели. Но и со строгими можно создавать ансамбли, но техника создания несколько другая. Если позволит размер я покажу в следующей статье как создать ансамбль с использованием TensorFlow. Вообще тема ансамблей очень объемна и интересна. Например можно построить RandomForest в узлах которого будут нейросети ELM или любые другие слабые модели (смотрите пакет gensemble ).  

Успехов