Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1037

 
Igor Makanu:

сложно сказать, что там, Вашу статью RANDOM DECISION FOREST В ОБУЧЕНИИ С ПОДКРЕПЛЕНИЕМ

вчера за ночь изучил, информации конечно мало, но пример работы очень впечатлил... наверное пример не нужно было выкладывать! полночи на картинки тестера любовался, одно заглядение! )))

ну, а если серьезно, то само машинное обучение вроде как и работает, но проблема во входных данных - машину нужно учить различным участкам ценовых данных, отдельно для флетовых или боковых движений, отдельно для трендовых, ну и сама идея подбора параметров индикаторов мне все равно не нравится - рынок меняется постоянно и подобранные параметры индикаторов та же игра - угадал не угадал

для начала бы научить машину, ну к примеру - если был трендовый день, то потом будет боковик - пусть машина хотя бы этот момент научится определять - это реально уже машинное обучение

кактотак

для подробной информации там ссылка на целую книгу :)

 
Maxim Dmitrievsky:

не чем-то а в разы усложненный не эффективный аналог

причем он сам до конца не может объяснить чего понакрутил и зачем :)

Я просто не вижу смысла что-то объяснять тому, кто умудрился спутать пороговое значение из кое-какой модификации с параметром R из AlgLib, который на самом деле просто делит выборку на обучаемую и проверочную.

Профит  и "не эффективный аналог" всё же сочетаются.

Я модифицировал лес из AlgLib,чтобы он вёл подсчёт задействованных предикторов. Сам список предикторов я раскрывать не хочу, потому что "не заслужили ещё", но количество сохранено.

Файлы:
stats_rf.zip  2 kb
 
Roffild:

Я просто не вижу смысла что-то объяснять тому, кто умудрился спутать пороговое значение из кое-какой модификации с параметром R из AlgLib, который на самом деле просто делит выборку на обучаемую и проверочную.

Профит  и "не эффективный аналог" всё же сочетаются.

Я модифицировал лес из AlgLib,чтобы он вёл подсчёт задействованных предикторов. Сам список предикторов я раскрывать не хочу, потому что "не заслужили ещё", но количество сохранено.

49

вас никто здесь не понимает, в т.ч. и я. Т.к. вы умеете писать код, но не умеете выражать мысли буквами

какое пороговое значение и r, я вообще вам ничего такого не писал

нафига выкладывать библиотеку без описания, а потом писать что "не заслужили еще"

 
Roffild:

Я просто не вижу смысла что-то объяснять тому, кто умудрился спутать пороговое значение из кое-какой модификации с параметром R из AlgLib, который на самом деле просто делит выборку на обучаемую и проверочную.

Профит  и "не эффективный аналог" всё же сочетаются.

Я модифицировал лес из AlgLib,чтобы он вёл подсчёт задействованных предикторов. Сам список предикторов я раскрывать не хочу, потому что "не заслужили ещё", но количество сохранено.

Случайно не модифицировали лес, чтобы можно было деревья обрезать в нем? Интересно было бы попробовать.

 

Maxim Dmitrievsky:

какое пороговое значение и r, я вообще вам ничего такого не писал

А как же предыдущие посты?
Maxim Dmitrievsky:

лес не выдает вероятности принадлежности к классу, так что эти неравенства - бред

>< 0.5 и все, по другому не будет. И еще вопрос что лучше - бинаризованные признаки и выходы или нет.

можно от 0 до 100 на классы разделить, разницы никакой этож не НС
Maxim Dmitrievsky:

а, ну да

результатом работы всех алгоритмов классификации, входящих в пакет ALGLIB, является не класс, к которому относится объект, а вектор условных вероятностей.

но это слабое утешение. Сигналов станет меньше а результативность не факт что увеличится. У меня например не увеличивалась, везде ставлю 0.5 порог теперь

гораздо важнее сопоставимость ошибок на трэйн и oob

Сначала я подумал, что используются модификации, которых много. Правда, там используется понятие "вес", а не "порог". Ну перепутал... Но потом вот это:
Maxim Dmitrievsky:

у меня вроде тоже алглиб )

И тут до меня дошло, что "порогом" назван параметр R из AlgLib.

Чтение исходников даёт гораздо больше, чем чтение теоретических статей. Программист обязан читать исходники, от которых зависит выполнение программы.

 
Roffild:
А как же предыдущие посты?
Сначала я подумал, что используются модификации, которых много. Правда, там используется понятие "вес", а не "порог". Ну перепутал... Но потом вот это:

И тут до меня дошло, что "порогом" назван параметр R из AlgLib.

Чтение исходников даёт гораздо больше, чем чтение теоретических статей. Программист обязан читать исходники, от которых зависит выполнение программы.

Я привел цитату с сайта алглиб:

"результатом работы всех алгоритмов классификации, входящих в пакет ALGLIB, является не класс, к которому относится объект, а вектор условных вероятностей."

то есть подтвердил ваши слова, что на выходе вероятности. Это конечно псевдо вероятности, но все же. Я не изучал подробно как они считаются, но по логике от слов "вероятности" там одно название.

причем тут r
 
forexman77:

Случайно не модифицировали лес, чтобы можно было деревья обрезать в нем? Интересно было бы попробовать.

Я думал о такой модификации, но после перехода на Apache Spark, в котором уже реализована такая возможность, я пока не планирую это изменение.
 
Maxim Dmitrievsky:

Я привел цитату с сайта алглиб:

"результатом работы всех алгоритмов классификации, входящих в пакет ALGLIB, является не класс, к которому относится объект, а вектор условных вероятностей."

причем тут r
А причём тут "порог" для случайного леса?
 
Roffild:
А причём тут "порог" для случайного леса?

я уже не помню какой порог, имелся в виду ваш порог наверное для входа в сделку или еще чего-нибудь 0.75 или сколько там (вероятность типа)

 
Roffild:
А причём тут "порог" для случайного леса?

В случае логит регрессии я могу представить что такое вероятности отнесения к тому или иному классу, в случае леса - увы. Поэтому это псевдо вероятности скорее всего, и это так не должно работать. При пороге 0.75 это не должно означать что вероятность отнесения к классу выше чем при 0.6, например.

по крайней мере инфы не читал по этому поводу
Причина обращения: