Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 979

 

Поиграл с НС и kfold еще и ансамблями НС из alglib для классификации (softmax), первое впечатление:

1. LBFGS обучается намного быстрее LM (второй ждать вообще нереально), в т.ч. для одной НС без ансамбля

2. kfold все время показывает большую ошибку обучения, вывести стратегию в + не получилось даже при 2-х фолдах, не говоря о 10. Возможно, не очень подходит для моей задачи, но еще попробую.

3. Ансамбль НС на основе bagging и на алгоритме LBFGS по качеству примерно как ансамбль из лесов, но обучается медленнее

3. Ансамбль на основе раннего останова с валидационной выборкой (по моему используется LM): вообще не дождешься пока обучится

4. Тюнинг параметров (шаг, кол-во перезапусков) не дают видимых улучшений. Увеличение кол-ва нейронов в 2-3 раза дает небольшое улучшение.

5. В целом создалось впечатление, что НС переобучаются так же как Лес, ансамбль из НС на баггинге переобучается немного меньше чем комитет из лесов.

Все это делалось для того, что бы потом сравнить с xgboost, например, который позже буду исследовать.

++ stacking моделей у меня не дал бОльшей устойчивости, обучается точно так же, иногда можно улучшить результаты на трейне из-за того что модель просто больше обучается

 
Maxim Dmitrievsky:

Привет, немного не по теме. Как то на форуме находил вашу переписку с другим человеком. Вы там обсуждали через какую программу делают справку от майкрософта. (Та самая котоая вылазиет при нажатии F1). Что бы там собрать свои варианты кода в более удобной форме с поиском. Подскажите пожалуйста еще раз. (Надеюсь я не ошибся и это были вы)))

 
Evgeny Raspaev:

Привет, немного не по теме. Как то на форуме находил вашу переписку с другим человеком. Вы там обсуждали через какую программу делают справку от майкрософта. (Та самая котоая вылазиет при нажатии F1). Что бы там собрать свои варианты кода в более удобной форме с поиском. Подскажите пожалуйста еще раз. (Надеюсь я не ошибся и это были вы)))

по моему это был не я ) не помню такого

 
Maxim Dmitrievsky:

по моему это был не я ) не помню такого

Жаль, извиняюсь))) 

 
Evgeny Raspaev:

Жаль, извиняюсь))) 

Help & Manual попробуйте.
 
Dmitriy Skub:
Help & Manual попробуйте.

О то что надо спс

 

Добрый день ))


Пока вы тут занимаетесь поиском досихпор, у нас уже создали РПЭ - российский прорывной элемент.

Это "пятый элемент"  - грааль, философский камень, киноварь, система ци , достижение наших научных специалистов по алгоритмизации.

Теперь любые экономические-финансовые проекты будут оптимизировать через глубокий нейронный анализ на РПЭ.

Т.е. в будущем 1 рубль будет приравнен к  1 доллару- путем экономических прорывов.


мы дружно идем в светлое будущее!))

 
Alexander Ivanov:

Добрый день ))

....

А вы наверное из этой команды гениев? инсайд сливаете? подождите обычные не окрепшие умы могут не понять )

 
Maxim Dmitrievsky:

Поиграл с НС и kfold еще и ансамблями НС из alglib для классификации (softmax), первое впечатление:

1. LBFGS обучается намного быстрее LM (второй ждать вообще нереально), в т.ч. для одной НС без ансамбля

2. kfold все время показывает большую ошибку обучения, вывести стратегию в + не получилось даже при 2-х фолдах, не говоря о 10. Возможно, не очень подходит для моей задачи, но еще попробую.

3. Ансамбль НС на основе bagging и на алгоритме LBFGS по качеству примерно как ансамбль из лесов, но обучается медленнее

3. Ансамбль на основе раннего останова с валидационной выборкой (по моему используется LM): вообще не дождешься пока обучится

4. Тюнинг параметров (шаг, кол-во перезапусков) не дают видимых улучшений. Увеличение кол-ва нейронов в 2-3 раза дает небольшое улучшение.

5. В целом создалось впечатление, что НС переобучаются так же как Лес, ансамбль из НС на баггинге переобучается немного меньше чем комитет из лесов.

Все это делалось для того, что бы потом сравнить с xgboost, например, который позже буду исследовать.

++ stacking моделей у меня не дал бОльшей устойчивости, обучается точно так же, иногда можно улучшить результаты на трейне из-за того что модель просто больше обучается

Еще бы знать как называется та игрушка с которой Вы играетесь.

 
Vladimir Perervenko:

Еще бы знать как называется та игрушка с которой Вы играетесь.

написано же - библиотека численного анализа alglib, портированная в MT5. Заюзал уже вдоль и поперек, косяков в общем-то нет, либа хорошая. Но без визуализации и более новых современных моделей. Кажется, что либа больше не развивается, на их сайте тишина.

Причина обращения: