Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1512
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Как называется обучение сетки одновременно по нескольким символам, то есть когда одни и те же параметры (веса) сетки используются на нескольких символах?
Я бы назвал это "сливным обучением", или "drawdown learning", для важности, ждем статью по "drawdown learning" от Переверенко или Денисенко, с продвинутым ООП(>5 глубина наследования), 90% акураси и одинаковым(equal) отношением прибыли к просадке на тесте, или как в старые добрые вообще без теста, всё на лёрне и с мартином, чистая экспонента)))
Я бы назвал это "сливным обучением", или "drawdown learning", для важности, ждем статью по "drawdown learning" от Переверенко или Денисенко, с продвинутым ООП(минимум 5 глубина наследования), 90% акураси и одинаковым(equal) отношением прибыли к просадке на тесте, или как в старые добрые вообще без теста, всё на лёрне и с мартином, чистая экспонента)))
а по делу?
а по делу?
По делу оно обычно так и должно быть, на вход "пучок" ВР как то предобработанных, на выход вектор будущих свойств для каждого ВР. Но для этого нужны синхронизированные ряды, от ДЦ такого не получить, нужно самому собирать, легкая разсинхронизация и в подарок тестерный грааль а на реале слив.
Как называется обучение сетки одновременно по нескольким символам, то есть когда одни и те же параметры (веса) сетки используются на нескольких символах?
Transfer learning мб
Transfer learning мб
Срочно писать статью по "drawdown learning".
Даю справку transfer learning это вообще из другой оперы, наш иждивенец совсем не шарит, transfer learning это когда выделенные(как правило первые 1-2 слоя) нейроны\слои обученные на каком то одном датасете или алгоритме используются в другой сетке как запчасть, такое использует например для стилизации картинок.
По делу оно обычно так и должно быть, на вход "пучок" ВР как то предобработанных, на выход вектор будущих свойств для каждого ВР. Но для этого нужны синхронизированные ряды, от ДЦ такого не получить, нужно самому собирать, легкая разсинхронизация и в подарок тестерный грааль а на реале слив.
с синхронизацией рядов проблем нет, так как нет привязки к конкретным точкам ВР-ов, по крайней мере я так мучу.
Transfer learning мб
смысл сего действа - выделение стабильных паттернов (или ещё как угодно можно назвать), а стабильные они оттого, что работают на разных ВР, мои робкие эксперементы в этой области показывают, что это в принципе возможно... и как следствие повышается робастность (снижение степени подгонки)
Срочно писать статью по "drawdown learning".
Даю справку transfer learning это вообще из другой оперы, наш иждивенец совсем не шарит, transfer learning это когда выделенные(как правило первые 1-2 слоя) нейроны\слои обученные на каком то одном датасете или алгоритме используются в другой сетке как запчасть, такое использует например для стилизации картинок.
без сопливых гололед
смысл сего действа - выделение стабильных паттернов (или ещё как угодно можно назвать), а стабильные они оттого, что работают на разных ВР, мои робкие эксперементы в этой области показывают, что это в принципе возможно... и как следствие повышается робастность (снижение степени подгонки)
обучается сначала на одном вр, затем дообучается на другом. Какие конкретно реализации надо смотреть, могут быть разные
я еще искусственно шум добавляю к фичам, иногда улучшает результаты
посмотри еще importance sampling, тоже интересная штука
еще meta learning
Я бы назвал это "сливным обучением", или "drawdown learning", для важности, ждем статью по "drawdown learning" от Переверенко или Денисенко, с продвинутым ООП(>5 глубина наследования), 90% акураси и одинаковым(equal) отношением прибыли к просадке на тесте, или как в старые добрые вообще без теста, всё на лёрне и с мартином, чистая экспонента)))
Кеша, прекращай курить всякую дрянь. А то действительно станешь ...
Откуда берутся эти недоумки?