Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 629

 
Yuriy Asaulenko:

Максим, ну, не надо обучать сеть в оптимизаторе МТ. Обучалка НС и оптимизатор - это совершенно разные алгоритмы с совершенно разными критериями оптимальности.

Если Вы еще пользуете ту структуру НС, которую раньше рисовали, то она простовата-слабовата для рынка. Я уже писал, что у меня получилось только когда я дошел до структуры 15-20-15-10-5-1. И это только для одного типа сделок. И еще, абсолютно все делал методами, описанными Хайкиным, т.е., ничего нового, никаких наворотов.

Более простые структуры плохо обучались.

а не пробовали брать не количеством слоев, количеством нейронов в слое? Например 15-200-1 или 15-200-20-1?

Yuriy Asaulenko:

ЗЫ На самом деле данных для обучения надо не много, а очень много. На малой объеме выборки НС ничего толкового не выделит.

А сколько данных вы берете? Я брал 86000 строк на обучение.

 
elibrarius:

1) а не пробовали брать не количеством слоев, количеством нейронов в слое? Например 15-200-1 или 15-200-20-1?

2) А сколько данных вы берете? Я брал 86000 строк на обучение.

1. Не пробовал. Вполне хватает 20 в первом слое. Шел по увеличению и нейронов в слое и слоев.

2. На обучении было около 12000 строк с промежуточным перемешиванием между N эпохами. После ряда эпох обучающие данные заменялись другими, не участвовавшими в обучении ранее.

 
Aleksey Terentev:

Я конечно прошу прощения за нападку, но Вы свое сообщение перечитайте. Выглядит достаточно неоднозначно.
А вообще Вы правы, но только относительно первого слоя нейросети. Если обратная связь идет на второй и последующие слои, либо вообще на параллельные слои сети, тогда Ваше высказывание потеряет силу.
В таком случае Максиму следует подумать об углублении сети и подводу обратной связи к скрытым слоям.

И что касается:

То же самое. МЛП давно не актуальны, давно в тренде глубокое обучение. И одна сеть вполне способна обработать разнородные данные, главное архитектура.

согласен, вот только как объединить глубину со всеми теми наворотами которые придумал :) в оптимизаторе будет обучаться долговато.. зато оч и оч качественно, т.к. там и торговля сразу происходит

думаю, более 30 весов для оптимизатора уже не вариант

+ многие тут забывают что есть облако, через которое вообще прикольно со всеми этими вещами работать, но нужно оч. хорошо оптимизировать код

 
Maxim Dmitrievsky:

согласен, вот только как объединить глубину со всеми теми наворотами которые придумал :) в оптимизаторе будет обучаться долговато.. зато оч и оч качественно, т.к. там и торговля сразу происходит

думаю, более 30 весов для оптимизатора уже не вариант

+ многие тут забывают что есть облако, через которое вообще прикольно со всеми этими вещами работать, но нужно оч. хорошо оптимизировать код

Попробуй входной слой продублировать.

 
Aleksey Terentev:


То же самое. МЛП давно не актуальны, давно в тренде глубокое обучение. И одна сеть вполне способна обработать разнородные данные, главное архитектура.
Если МЛП может решить задачу, то какая разница актуальны они или нет? Тем более с МЛП особо напрягаться не надо - для них есть все и практически везде.
 
Aleksey Terentev:

Попробуй входной слой продублировать.

тема, и веса местами перемешать :)
 
Yuriy Asaulenko:
Если МЛП может решить задачу, то какая разница актуальны они или нет? Тем более с МЛП особо напрягаться не надо - для них есть все и практически везде.

Ну я Вас ни к чему не склоняю. Глубокое обучение начинается как раз с МЛП.
Просто когда речь заходит о представлении данных внутри сети, их движении и трансформациях, то естественно поднимаются вопросы об активации, рекурентных слоях, регуляризации, комбинировании слоев и т.д. Вот это уже deep lerning.

В довесок для глубокого обучения тоже есть все и везде. =)
 
Yuriy Asaulenko:
Если МЛП может решить задачу, то какая разница актуальны они или нет? Тем более с МЛП особо напрягаться не надо - для них есть все и практически везде.
Просто глубинная намного быстрее обучиться может еще, при всех прочих равных.. не 10 часов а 5 минут, например :)
 
Aleksey Terentev:

Ну я Вас ни к чему не склоняю. Глубокое обучение начинается как раз с МЛП.
Просто когда речь заходит о представлении данных внутри сети, их движении и трансформациях, то естественно поднимаются вопросы об активации, рекурентных слоях, регуляризации, комбинировании слоев и т.д. Вот это уже deep lerning.

Я это понимаю, но говорю немного о другом. Для задачи про две трубы не нужна высшая математика, достаточно арифметики. А актуальна арифметика или нет - это другой вопрос.

Т.е., вначале надо определиться с задачей, а потом выбирать методы решения. 

Что касается больших и сложных задач DM - DL, МЛП там конечно давно пройденный этап.

 
Maxim Dmitrievsky:
Просто глубинная намного быстрее обучиться может еще, при всех прочих равных.. не 10 часов а 5 минут, например :)
Не буду утверждать, но мне кажется, что это иллюзии. Просто из общих соображений.