Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1240

 

Если еще короче, представьте себе, что форекс это гора на которую Вам нужно забраться. Но, это практически гладкая гора не за что зацепиться.

И улучшения в МО НА 1-2% практически ничего не дадут, нету там предикторов один шум и все, все остальное переобучение и ничего более.

 
Maxim Dmitrievsky:

короче в алглиб ошибка классификации и логлосс.. по логлоссу вообще ничего не понятно, ошибка классификации на трейне у леса падает до нуля при обучающей выборке>0.8  и oob 0.2

поэтому обучающую выборку делал маленькую что бы хоть какая-то ошибка была, но она все равно маленькая. Не знаю как сравнивать с питоновскими

Скорее переобучение... Деревья же могут полностью запоминать входные данные. R уменьшить можно, а больше в Алглибе вроде и нечего подкручивать. В xgboost например глубину дерева можно ограничивать.
Я потому и не стал ими заниматься вначале, а на сетки перешел. Но у сеток свои проблемы.
 
Vizard_:

угараю... Максимка вот поэтому и укуренный))) Нах я тут чет писал. Короче - логлосс это штрафная. Перещитай в акуариси, она легко интерпритируемая, поэтому и используется.

Логлосс мона потом маленько погнуть и еще процентик-пару если повезет на аккуариси выжать. Показывал Фа, в Р библа есть...

да половину забываю всегда, потом удивляюсь через год тому же самому. перещитаю :) там гониво какое-то в алглиб, вообще все не так как в серьезных либах, и лес самопальный

 
Vizard_:

угараю... Максимка вот поэтому и укуренный))) Нах я тут чет писал. Короче - логлосс это штрафная. Перещитай в акуариси, она легко интерпритируемая, поэтому и используется.

Логлосс мона потом маленько погнуть и еще процентик-пару если повезет на аккуариси выжать. Показывал Фа, в Р библа есть...  То что подгоняет в алгиб да хз че там понакручено в настройках у тя...

убавь жадность погремухе...

В Alglib-e только r и есть для регуляризации
 

Вы чО акурасю вообще к рынкам, по моему не применимо, там изначально классы не сбалансированы.

Будет у Вас акурасю 100% все улетит в мажоритарный класс это вообще метрика самая плохая. Лучше уж матрицу путаницы смотреть, там конкретно видно, как классы разделились.

 
elibrarius:
Скорее переобучение... Деревья же могут полностью запоминать входные данные. R уменьшить можно, а больше в Алглибе вроде и нечего подкручивать. В xgboost например глубину дерева можно ограничивать.
Я потому и не стал ими заниматься вначале, а на сетки перешел. Но у сеток свои проблемы.

там только кол-во деревьев и r да, если r ставишь больше 0.6 то почти всегда ошибка классификации на трейне 0.0 :)) на тесте могут быть варианты, обычно в районе 0.5

 
forexman77:

Вы чО акурасю вообще к рынкам, по моему не применимо, там изначально классы не сбалансированы.

Будет у Вас акурасю 100% все улетит в мажоритарный класс это вообще метрика самая плохая. Лучше уж матрицу путаницы смотреть, там конкретно видно, как классы разделились.

Да мне тоже Accuracy не оч. понятна. Вот матрица ошибок или ошибка классификации понятнее, себе на экран их и выдаю.
 
Vizard_:

Нспеша попробуй разные и в питоне. Кошачий буст например, он мало офертит даже из коробки + хавает все подряд + виузуализатор есть с точкой(ставится когда уже рез не особо улучшается) и пр...

уже поставил, завтра буду пробовать его, наряду с просто GBM, еще может LightGbm.. a xgboost что-то настраивать муторно, долго разбираться надо

 
elibrarius:
Да мне тоже Accuracy не оч. понятна. Вот матрица ошибок или ошибка классификации понятнее, себе на экран их и выдаю.

Акурасю на не сбалансированных классах может показать 100% разделение классов, только это нифига не так будет. А данные просто все в мажоритарный класс уйдут.

 
Maxim Dmitrievsky:

уже поставил, завтра буду пробовать его, наряду с просто GBM, еще может LightGbm.. a xgboost что-то настраивать муторно, долго разбираться надо

Скорее подбор параметров надо делать... которые для ВР больше подходят