Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1037
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
сложно сказать, что там, Вашу статью RANDOM DECISION FOREST В ОБУЧЕНИИ С ПОДКРЕПЛЕНИЕМ
вчера за ночь изучил, информации конечно мало, но пример работы очень впечатлил... наверное пример не нужно было выкладывать! полночи на картинки тестера любовался, одно заглядение! )))
ну, а если серьезно, то само машинное обучение вроде как и работает, но проблема во входных данных - машину нужно учить различным участкам ценовых данных, отдельно для флетовых или боковых движений, отдельно для трендовых, ну и сама идея подбора параметров индикаторов мне все равно не нравится - рынок меняется постоянно и подобранные параметры индикаторов та же игра - угадал не угадал
для начала бы научить машину, ну к примеру - если был трендовый день, то потом будет боковик - пусть машина хотя бы этот момент научится определять - это реально уже машинное обучение
кактотак
для подробной информации там ссылка на целую книгу :)
не чем-то а в разы усложненный не эффективный аналог
причем он сам до конца не может объяснить чего понакрутил и зачем :)
Я просто не вижу смысла что-то объяснять тому, кто умудрился спутать пороговое значение из кое-какой модификации с параметром R из AlgLib, который на самом деле просто делит выборку на обучаемую и проверочную.
Профит и "не эффективный аналог" всё же сочетаются.
Я модифицировал лес из AlgLib,чтобы он вёл подсчёт задействованных предикторов. Сам список предикторов я раскрывать не хочу, потому что "не заслужили ещё", но количество сохранено.
Я просто не вижу смысла что-то объяснять тому, кто умудрился спутать пороговое значение из кое-какой модификации с параметром R из AlgLib, который на самом деле просто делит выборку на обучаемую и проверочную.
Профит и "не эффективный аналог" всё же сочетаются.
Я модифицировал лес из AlgLib,чтобы он вёл подсчёт задействованных предикторов. Сам список предикторов я раскрывать не хочу, потому что "не заслужили ещё", но количество сохранено.
49
вас никто здесь не понимает, в т.ч. и я. Т.к. вы умеете писать код, но не умеете выражать мысли буквами
какое пороговое значение и r, я вообще вам ничего такого не писал
нафига выкладывать библиотеку без описания, а потом писать что "не заслужили еще"
Я просто не вижу смысла что-то объяснять тому, кто умудрился спутать пороговое значение из кое-какой модификации с параметром R из AlgLib, который на самом деле просто делит выборку на обучаемую и проверочную.
Профит и "не эффективный аналог" всё же сочетаются.
Я модифицировал лес из AlgLib,чтобы он вёл подсчёт задействованных предикторов. Сам список предикторов я раскрывать не хочу, потому что "не заслужили ещё", но количество сохранено.
Случайно не модифицировали лес, чтобы можно было деревья обрезать в нем? Интересно было бы попробовать.
Maxim Dmitrievsky:
какое пороговое значение и r, я вообще вам ничего такого не писал
лес не выдает вероятности принадлежности к классу, так что эти неравенства - бред
>< 0.5 и все, по другому не будет. И еще вопрос что лучше - бинаризованные признаки и выходы или нет.
можно от 0 до 100 на классы разделить, разницы никакой этож не НСа, ну да
результатом работы всех алгоритмов классификации, входящих в пакет ALGLIB, является не класс, к которому относится объект, а вектор условных вероятностей.
но это слабое утешение. Сигналов станет меньше а результативность не факт что увеличится. У меня например не увеличивалась, везде ставлю 0.5 порог теперь
гораздо важнее сопоставимость ошибок на трэйн и oob
у меня вроде тоже алглиб )
И тут до меня дошло, что "порогом" назван параметр R из AlgLib.
Чтение исходников даёт гораздо больше, чем чтение теоретических статей. Программист обязан читать исходники, от которых зависит выполнение программы.
А как же предыдущие посты?
Сначала я подумал, что используются модификации, которых много. Правда, там используется понятие "вес", а не "порог". Ну перепутал... Но потом вот это:
И тут до меня дошло, что "порогом" назван параметр R из AlgLib.
Чтение исходников даёт гораздо больше, чем чтение теоретических статей. Программист обязан читать исходники, от которых зависит выполнение программы.
Я привел цитату с сайта алглиб:
"результатом работы всех алгоритмов классификации, входящих в пакет ALGLIB, является не класс, к которому относится объект, а вектор условных вероятностей."
то есть подтвердил ваши слова, что на выходе вероятности. Это конечно псевдо вероятности, но все же. Я не изучал подробно как они считаются, но по логике от слов "вероятности" там одно название.
Случайно не модифицировали лес, чтобы можно было деревья обрезать в нем? Интересно было бы попробовать.
Я привел цитату с сайта алглиб:
"результатом работы всех алгоритмов классификации, входящих в пакет ALGLIB, является не класс, к которому относится объект, а вектор условных вероятностей."
А причём тут "порог" для случайного леса?
я уже не помню какой порог, имелся в виду ваш порог наверное для входа в сделку или еще чего-нибудь 0.75 или сколько там (вероятность типа)
А причём тут "порог" для случайного леса?
В случае логит регрессии я могу представить что такое вероятности отнесения к тому или иному классу, в случае леса - увы. Поэтому это псевдо вероятности скорее всего, и это так не должно работать. При пороге 0.75 это не должно означать что вероятность отнесения к классу выше чем при 0.6, например.
по крайней мере инфы не читал по этому поводу