Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 629
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Максим, ну, не надо обучать сеть в оптимизаторе МТ. Обучалка НС и оптимизатор - это совершенно разные алгоритмы с совершенно разными критериями оптимальности.
Если Вы еще пользуете ту структуру НС, которую раньше рисовали, то она простовата-слабовата для рынка. Я уже писал, что у меня получилось только когда я дошел до структуры 15-20-15-10-5-1. И это только для одного типа сделок. И еще, абсолютно все делал методами, описанными Хайкиным, т.е., ничего нового, никаких наворотов.
Более простые структуры плохо обучались.
а не пробовали брать не количеством слоев, количеством нейронов в слое? Например 15-200-1 или 15-200-20-1?
ЗЫ На самом деле данных для обучения надо не много, а очень много. На малой объеме выборки НС ничего толкового не выделит.
А сколько данных вы берете? Я брал 86000 строк на обучение.
1) а не пробовали брать не количеством слоев, количеством нейронов в слое? Например 15-200-1 или 15-200-20-1?
2) А сколько данных вы берете? Я брал 86000 строк на обучение.
1. Не пробовал. Вполне хватает 20 в первом слое. Шел по увеличению и нейронов в слое и слоев.
2. На обучении было около 12000 строк с промежуточным перемешиванием между N эпохами. После ряда эпох обучающие данные заменялись другими, не участвовавшими в обучении ранее.
Я конечно прошу прощения за нападку, но Вы свое сообщение перечитайте. Выглядит достаточно неоднозначно.
То же самое. МЛП давно не актуальны, давно в тренде глубокое обучение. И одна сеть вполне способна обработать разнородные данные, главное архитектура.А вообще Вы правы, но только относительно первого слоя нейросети. Если обратная связь идет на второй и последующие слои, либо вообще на параллельные слои сети, тогда Ваше высказывание потеряет силу.
В таком случае Максиму следует подумать об углублении сети и подводу обратной связи к скрытым слоям.
И что касается:
согласен, вот только как объединить глубину со всеми теми наворотами которые придумал :) в оптимизаторе будет обучаться долговато.. зато оч и оч качественно, т.к. там и торговля сразу происходит
думаю, более 30 весов для оптимизатора уже не вариант
+ многие тут забывают что есть облако, через которое вообще прикольно со всеми этими вещами работать, но нужно оч. хорошо оптимизировать код
согласен, вот только как объединить глубину со всеми теми наворотами которые придумал :) в оптимизаторе будет обучаться долговато.. зато оч и оч качественно, т.к. там и торговля сразу происходит
думаю, более 30 весов для оптимизатора уже не вариант
+ многие тут забывают что есть облако, через которое вообще прикольно со всеми этими вещами работать, но нужно оч. хорошо оптимизировать код
Попробуй входной слой продублировать.
То же самое. МЛП давно не актуальны, давно в тренде глубокое обучение. И одна сеть вполне способна обработать разнородные данные, главное архитектура.Попробуй входной слой продублировать.
Если МЛП может решить задачу, то какая разница актуальны они или нет? Тем более с МЛП особо напрягаться не надо - для них есть все и практически везде.
Ну я Вас ни к чему не склоняю. Глубокое обучение начинается как раз с МЛП.
В довесок для глубокого обучения тоже есть все и везде. =)Просто когда речь заходит о представлении данных внутри сети, их движении и трансформациях, то естественно поднимаются вопросы об активации, рекурентных слоях, регуляризации, комбинировании слоев и т.д. Вот это уже deep lerning.
Если МЛП может решить задачу, то какая разница актуальны они или нет? Тем более с МЛП особо напрягаться не надо - для них есть все и практически везде.
Ну я Вас ни к чему не склоняю. Глубокое обучение начинается как раз с МЛП.
Просто когда речь заходит о представлении данных внутри сети, их движении и трансформациях, то естественно поднимаются вопросы об активации, рекурентных слоях, регуляризации, комбинировании слоев и т.д. Вот это уже deep lerning.
Я это понимаю, но говорю немного о другом. Для задачи про две трубы не нужна высшая математика, достаточно арифметики. А актуальна арифметика или нет - это другой вопрос.
Т.е., вначале надо определиться с задачей, а потом выбирать методы решения.
Что касается больших и сложных задач DM - DL, МЛП там конечно давно пройденный этап.
Просто глубинная намного быстрее обучиться может еще, при всех прочих равных.. не 10 часов а 5 минут, например :)