Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 627
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
А я думаю, чего первый пост удалил. Он схему в блог завел. =)
да, просто запарился искать на форуме свои же сообщения :D так хоть ссыль можно будет давать
тут на статью пока не тянет, если результ будет интересный то можно оформить потом
т.к. я ленивый и медленно делаю, с перекурами на неделю :)
тут на статью пока не тянет, если результ будет интересный то можно оформить потом
т.к. я ленивый и медленно делаю, с перекурами на неделю :)
набросал новую схемку сети, это первое описание. Потом будет продолжение (надеюсь)
создал под это бложик для мемориза, а то надоело искать обрывки мыслей на форуме
https://rationatrix.blogspot.ru/2018/01/blog-post.html
Вы путаете тёплое с мягким. Подавать данные о результате работы сети порочная практика.
Вы просто запутаете сетку, и она не сможет понять почему один и тот же паттерн в одном случае растёт а в другом падает.
А всё потому что в данные подмешаны значения предыдущих результатов. Это касается как результата предыдущей сделки так и эквити.
Вы пытаетесь фитнес-функцию вкрутить в тело самой сетки. Но знание что хорошо что плохо это инородное знание, к механизму сетки оно не относится.
Если вы хотите подавать историю переходите с MLP на рекурентные сетки.
Но ваша гипотеза это (ИМХО) котопёс.
ЗЫ И да, раз уже зашёл, вы писали что есть проблемы с переобучением. Современная наука о НС давно эту проблему решила.
Самый простой и понятный и действенный способ это кросс-валидация (погуглите).
Вы путаете тёплое с мягким. Подавать данные о результате работы сети порочная практика.
Вы просто запутаете сетку, и она не сможет понять почему один и тот же паттерн в одном случае растёт а в другом падает.
А всё потому что в данные подмешаны значения предыдущих результатов. Это касается как результата предыдущей сделки так и эквити.
Вы пытаетесь фитнес-функцию вкрутить в тело самой сетки. Но знание что хорошо что плохо это инородное знание, к механизму сетки оно не относится.
Если вы хотите подавать историю переходите с MLP на рекурентные сетки.
Но ваша гипотеза это (ИМХО) котопёс.
Судя по всему нейросети для Вас заключаются в одном определении - Персептрон. ИМХО, вы даже и не подозреваете о том, что это только видимая верхушка айсберга, да и то малюсенькая.
И переобучение ни кто еще не побеждал. У Вас понимания сферы МО кот наплакал.Вы путаете тёплое с мягким. Подавать данные о результате работы сети порочная практика.
Вы просто запутаете сетку, и она не сможет понять почему один и тот же паттерн в одном случае растёт а в другом падает.
А всё потому что в данные подмешаны значения предыдущих результатов. Это касается как результата предыдущей сделки так и эквити.
Вы пытаетесь фитнес-функцию вкрутить в тело самой сетки. Но знание что хорошо что плохо это инородное знание, к механизму сетки оно не относится.
Если вы хотите подавать историю переходите с MLP на рекурентные сетки.
Но ваша гипотеза это (ИМХО) котопёс.
мне бы хотелось сделать аналог сети с подкреплением. Рекуррентные сетки, к сожалению, не имеют понятия о среде и нет отклика. У сеток с подкреплением есть. А как это сделать? первое что приходит на ум это пинать ее если ее работа вовне неудовлетворительна, например через эквити
может и котопес, я сам хз и имхо.. просто прикольно :) и там все просто, много времени не займет
ЗЫ И да, раз уже зашёл, вы писали что есть проблемы с переобучением. Современная наука о НС давно эту проблему решила.
Самый простой и понятный и действенный способ это кросс-валидация (погуглите).
про это я все знаю, кросс-валидация это тоже подгонка но более изощренная
рекуррентки тоже циклятся сами на себя и иногда не могут обучиться
и не очень понял - Вы говорите что нельзя подавать выходы сети на входы, и тут же пишете заюзать рекуррентку.. :) а она только этим и занимается, что хавает свои ыходы
рекуррентка это, в простейшем случае, обычная MLP, которая поедает сама себя
про это я все знаю, кросс-валидация это тоже подгонка но более изощренная
рекуррентки тоже циклятся сами на себя и иногда не могут обучиться
и не очень понял - Вы говорите что нельзя подавать выходы сети на входы, и тут же пишете заюзать рекуррентку.. :) а она только этим и занимается, что хавает свои ыходы
рекуррентка это, в простейшем случае, обычная MLP, которая поедает сама себя
Нет, я говорил что нельзя смешивать данные о рынке с результатами деятельности сети.
Другими словами ваша сеть обрабатывает котировки, а вы в неё пихаете данные о том удачна была прошлая сделка или нет, это неоднородные данные их нельзя смешивать.
И вообще хорошо сеть отработала или нет, это дело отдельного блока (я привык как в ГА называть её фитнес-функция, в НС используется название функция ошибки, но суть таже).
Предположим вы обучаете сеть бекпропом, получается у вас ошибка становится частью данных, масло маслянное. Надеюсь поняли о чём я.
Судя по всему нейросети для Вас заключаются в одном определении - Персептрон. ИМХО, вы даже и не подозреваете о том, что это только видимая верхушка айсберга, да и то малюсенькая.
И переобучение ни кто еще не побеждал. У Вас понимания сферы МО кот наплакал.Я говорил о конкретной сети представленной Максимом.
Если не разобрались в трех предложениях ... ну вы сами занете, чего мне вам рассказавать ))