Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
На данный момент это приносит прибыль ?
Пример в статье носит демонстрационный характер, чрезвычайно избыточен.
Если говорить о случайных лесах в частности и применении моделей машинного обучения в общем (нейросети относят к этому классу алгоритмов), то широчайше применяются в трейдинге.
ПС. На форуме масса сторонников НС. Так это не самые эффективные алгоритмы для трейдинга. Случайные леса кратно более эффективны.
Пример в статье носит демонстрационный характер, чрезвычайно избыточен.
Если говорить о случайных лесах в частности и применении моделей машинного обучения в общем (нейросети относят к этому классу алгоритмов), то широчайше применяются в трейдинге.
ПС. На форуме масса сторонников НС. Так это не самые эффективные алгоритмы для трейдинга. Случайные леса кратно более эффективны.
Куда пропадали?
Давно слышно не было?
Куда пропадали?
Давно слышно не было?
Нет ли у Вас ссылок на более развернутый материал?
Нет ли у Вас ссылок на более развернутый материал?
По данной тематике существует большое количество литературы в основном на английской языке.
Мною написана книга "Предсказываем тренды", в которой гораздо подробнее, чем в статье, рассмотрены проблемы классификации. Книга содержит буквальные переводы технической документации (около 30%), примеры использования классификационных моделей на рынке форекс (около 20% текста) и объяснение идеологии построения классификационных моделей. А также изложена последовательность шагов по построению советника на основе классификационных моделей.
Более подробно в аттаче.
PS. В книге имеется довольно обширный список литературы по данной тематике.
vlad1949 2014.11.23 15:
Уважаемый Влад!
Все рассуждения об эффективности алгоритмов машинного обучения имеют смысл при одном условии: модель не переобучена. В моей практике получить не переобученную модель очень сложно. в частности в данной статье - это переобученная модель.
Переобученность модели возникает из-за ошибочности набора предикторов, вся собака зарыта в них. Поэтому все усилилия должны быть направлены на подбор предикторов, а потом уже на модель.
Мне, как мне кажется, удалось найти формальные признаки пригодности предикторов для конкретной целевой переменной. Если Вам это интересно, то с удовольствием обсужу это в личке.
vlad1949 2014.11.23 15:
Уважаемый Влад!
Все рассуждения об эффективности алгоритмов машинного обучения имеют смысл при одном условии: модель не переобучена. В моей практике получить не переобученную модель очень сложно. в частности в данной статье - это переобученная модель.
Переобученность модели возникает из-за ошибочности набора предикторов, вся собака зарыта в них. Поэтому все усилилия должны быть направлены на подбор предикторов, а потом уже на модель.
Мне, как мне кажется, удалось найти формальные признаки пригодности предикторов для конкретной целевой переменной. Если Вам это интересно, то с удовольствием обсужу это в личке.
тттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттт
Конечно интересно. Напишите
vlad1949 2014.11.23 15:
http://appliedpredictivemodeling.com/blog/2014/11/11/some-thoughts-on-do-we-need-hundreds-of-classifiers-to-solve-real-world-classification-problems
Эту ссылку с аннотацией я выкладывал в своем блоге. Она никого не заинтересовала. Вот здесь сама статья
Переобученность модели возникает из-за ошибочности набора предикторов, вся собака зарыта в них. Поэтому все усилилия должны быть направлены на подбор предикторов, а потом уже на модель.
Модель и выбор предикторов взаимосвязаны. Сначала надо выбрать модель, а потом выбрать предикторы на основе этой модели путём отсеивания этой же моделью тех предикторов, которые имеют наименьшую "полезность" в предсказании. Хотя многие статьи iи учебники учат другому: сначала выбираем предикторы используя какой-то метод вычисления связи между этими предикторами и целевым рядом - выходом. Наиболее распространёнными методами отсеивания являются коэффициент корреляции между предикторами и выходом и взаимная информация. Потом выбирают модель обычно не связанную с тем как были выбраны предикторы. Если вдуматься (и это вам в учебниках по эконометрике не скажут, надо самому подумать), то метод выбора предикторов коэффициентом корелляцией с выходом по существу выбирает те предикторы, которые будут иметь наименьшую ошибку в линейной регриссионной моделе (МНК). Метод выбора предикторов по их взаимной информации с выходом по существу выбирает те предикторы, которые дадут наименьшую ошибку в моделе основанной на Nadaraya-Watson регрессии (заумное название GRNN).