Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 494
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Почитать теорию Хайкин Нейронные сети и Бишоп на английском - перевода нет, но вроде готовится.
Да все просто. На вход случайные сделки, на выход результат. Метод Монте-Карло называется, а он оч. не быстрый сам по себе. А уж систематизация дело самой НС.
ну а самой НС есть какое-то особенное название? Типа нейросеть на стохастическом методе отжига непонятно как обучающаяся то-ли с учителем то ли без, и вместо выходов оптимизирующая входы :)) книжки почитаю,
Хайкин "НС полный курс второе изд." есть на русском
ну а самой НС есть какое-то особенное название? Типа нейросеть на стохастическом методе отжига непонятно как обучающаяся то-ли с учителем то ли без, и вместо выходов оптимизирующая входы :)) книжки почитаю,
Хайкин "НС полный курс второе изд." есть на русском
Хайкин есть, Бишопа на русском нет.
НС - обычный MLP, обучение - обычный БП, только с регулярными ручными перенастройками по ходу пьесы. Если таких перенастроек не делать или просто перемешивать выборку, то обучается оч быстро, но хорошо (даже отлично)) работает только на обучающей последовательности.
Хайкин есть, Бишопа на русском нет.
НС - обычный MLP, обучение - обычный БП, только с регулярными ручными перенастройками по ходу пьесы. Если таких перенастроек не делать или просто перемешивать выборку, то обучается оч быстро, но хорошо (даже отлично)) работает только на обучающей последовательности.
А у Хайкина старье :) пока обойдусь значит, всегда ограничивался статьями и описанием моделей, в книгах много лишнего (что бы был объем для продажи)
А у Хайкина старье :) пока обойдусь значит, всегда ограничивался статьями и описанием моделей, в книгах много лишнего (что бы был объем для продажи)
Ложное утверждение. Лес обычный и бустовый в экстраполяции ни чем от НС не отличается.
во всех статьях, на которые бы я не натыкался пишут одно и то же
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
Extrapolation is tough for trees! - Peter's stats stuff
http://ellisp.github.io/blog/2016/12/10/extrapolation
Random Forest unable to predict outside of training data
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
Random forest regression not predicting higher than training data
во всех статьях, на которые бы я не натыкался пишут одно и то же
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
Extrapolation is tough for trees! - Peter's stats stuff
http://ellisp.github.io/blog/2016/12/10/extrapolation
Random Forest unable to predict outside of training data
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
Random forest regression not predicting higher than training data
Чушь пишут малообразованные люди. Они не слышали про переобучение, не имеют понятия про дэйтамайнинг, не слышали про шумовые предикторы, не умеют оценивать модели. Это просто такая разновидность великовозрастных снобов, играющих в интеллектуальные игры.
Чушь пишут малообразованные люди. Они не слышали про переобучение, не имеют понятия про дэйтамайнинг, не слышали про шумовые предикторы, не умеют оценивать модели. Это просто такая разновидность великовозрастных снобов, играющих в интеллектуальные игры.
причем здесь все это когда речь идет об экстраполяции..
те кто написал RF в библиотеке alglib тоже малообразованные люди?
и r блоггеры тоже неучи, судя по всему
https://www.r-bloggers.com/extrapolation-is-tough-for-trees/
все неучи, кроме ФА
только ФА уч
;))
все неучи, кроме ФА
только ФА уч
;))
вот так люди и используют МО, не понимая принципы, а потом говорят что ниче не работает.. из последней статьи очевидно что RF не умеет экстраполировать, поэтому работать он должен только на знакомых данных
Увы, но они ошибаются и это нормально не только для "неучей" и снобов, вспомните про Минского и его авторитетное мнение в отношении "бесперспективности" многослойных персептронов)))
Про статьи на хабре я вообще молчу, это всё равно что вбросы на форумах, 99.9% реклама найчпоп и откровенный трэш 0.1% толковых мыслей в неявной форме, "между строк".человек же на R привел пример, в каком месте он ошибся? я к сожалению R не пользуюсь, но могу даже сам воспроизвести