Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 627

 
Aleksey Terentev:

А я думаю, чего первый пост удалил. Он схему в блог завел. =)

да, просто запарился искать на форуме свои же сообщения :D так хоть ссыль можно будет давать
 
Maxim Dmitrievsky:
да, просто запарился искать на форуме свои же сообщения :D так хоть ссыль можно будет давать
Я поэтому статью и писал, чтоб 100 не повторять одно и тоже разным людям...
 
Mihail Marchukajtes:

тут на статью пока не тянет, если результ будет интересный то можно оформить потом

т.к. я ленивый и медленно делаю, с перекурами на неделю :)

 
Maxim Dmitrievsky:

тут на статью пока не тянет, если результ будет интересный то можно оформить потом

т.к. я ленивый и медленно делаю, с перекурами на неделю :)

Я свою писал примерно месяц с редактурой... от момента первой редакции и до выхода в свет.....
 
Maxim Dmitrievsky:

набросал новую схемку сети, это первое описание. Потом будет продолжение (надеюсь)

создал под это бложик для мемориза, а то надоело искать обрывки мыслей на форуме

https://rationatrix.blogspot.ru/2018/01/blog-post.html

Вы путаете тёплое с мягким. Подавать данные о результате работы сети порочная практика.

Вы просто запутаете сетку, и она не сможет понять почему один и тот же паттерн в одном случае растёт а в другом падает.

А всё потому что в данные подмешаны значения предыдущих результатов. Это касается как результата предыдущей сделки так и эквити.

Вы пытаетесь фитнес-функцию вкрутить в тело самой сетки. Но знание что хорошо что плохо это инородное знание, к механизму сетки оно не относится.

Если вы хотите подавать историю переходите с MLP на рекурентные сетки.

Но ваша гипотеза это (ИМХО) котопёс.

ЗЫ И да, раз уже зашёл, вы писали что есть проблемы с переобучением. Современная наука о НС давно эту проблему решила.

Самый простой и понятный и действенный способ это кросс-валидация (погуглите).

 
Nikolay Demko:

Вы путаете тёплое с мягким. Подавать данные о результате работы сети порочная практика.

Вы просто запутаете сетку, и она не сможет понять почему один и тот же паттерн в одном случае растёт а в другом падает.

А всё потому что в данные подмешаны значения предыдущих результатов. Это касается как результата предыдущей сделки так и эквити.

Вы пытаетесь фитнес-функцию вкрутить в тело самой сетки. Но знание что хорошо что плохо это инородное знание, к механизму сетки оно не относится.

Если вы хотите подавать историю переходите с MLP на рекурентные сетки.

Но ваша гипотеза это (ИМХО) котопёс.

Судя по всему нейросети для Вас заключаются в одном определении - Персептрон. ИМХО, вы даже и не подозреваете о том, что это только видимая верхушка айсберга, да и то малюсенькая.

И переобучение ни кто еще не побеждал. У Вас понимания сферы МО кот наплакал.
 
Nikolay Demko:

Вы путаете тёплое с мягким. Подавать данные о результате работы сети порочная практика.

Вы просто запутаете сетку, и она не сможет понять почему один и тот же паттерн в одном случае растёт а в другом падает.

А всё потому что в данные подмешаны значения предыдущих результатов. Это касается как результата предыдущей сделки так и эквити.

Вы пытаетесь фитнес-функцию вкрутить в тело самой сетки. Но знание что хорошо что плохо это инородное знание, к механизму сетки оно не относится.

Если вы хотите подавать историю переходите с MLP на рекурентные сетки.

Но ваша гипотеза это (ИМХО) котопёс.

мне бы хотелось сделать аналог сети с подкреплением. Рекуррентные сетки, к сожалению, не имеют понятия о среде и нет отклика. У сеток с подкреплением есть. А как это сделать? первое что приходит на ум это пинать ее если ее работа вовне неудовлетворительна, например через эквити

может и котопес, я сам хз и имхо.. просто прикольно :) и там все просто, много времени не займет

 
Nikolay Demko:

ЗЫ И да, раз уже зашёл, вы писали что есть проблемы с переобучением. Современная наука о НС давно эту проблему решила.

Самый простой и понятный и действенный способ это кросс-валидация (погуглите).

про это я все знаю, кросс-валидация это тоже подгонка но более изощренная

рекуррентки тоже циклятся сами на себя и иногда не могут обучиться

и не очень понял - Вы говорите что нельзя подавать выходы сети на входы, и тут же пишете заюзать рекуррентку.. :) а она только этим и занимается, что хавает свои ыходы

рекуррентка это, в простейшем случае, обычная MLP, которая поедает сама себя

 
Maxim Dmitrievsky:

про это я все знаю, кросс-валидация это тоже подгонка но более изощренная

рекуррентки тоже циклятся сами на себя и иногда не могут обучиться

и не очень понял - Вы говорите что нельзя подавать выходы сети на входы, и тут же пишете заюзать рекуррентку.. :) а она только этим и занимается, что хавает свои ыходы

рекуррентка это, в простейшем случае, обычная MLP, которая поедает сама себя

Нет, я говорил что нельзя смешивать данные о рынке с результатами деятельности сети.

Другими словами ваша сеть обрабатывает котировки, а вы в неё пихаете данные о том удачна была прошлая сделка или нет, это неоднородные данные их нельзя смешивать.

И вообще хорошо сеть отработала или нет, это дело отдельного блока (я привык как в ГА называть её фитнес-функция, в НС используется название функция ошибки, но суть таже).

Предположим вы обучаете сеть бекпропом, получается у вас ошибка становится частью данных, масло маслянное. Надеюсь поняли о чём я.

 
Aleksey Terentev:

Судя по всему нейросети для Вас заключаются в одном определении - Персептрон. ИМХО, вы даже и не подозреваете о том, что это только видимая верхушка айсберга, да и то малюсенькая.

И переобучение ни кто еще не побеждал. У Вас понимания сферы МО кот наплакал.

Я говорил о конкретной сети представленной Максимом.

Если не разобрались в трех предложениях ... ну вы сами занете, чего мне вам рассказавать ))

Причина обращения: