トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 839

 

当初、数百人しか予言をしなかった頃は、何も問題なく、場所代ももらえた。フォーラムでは、他にも少なくとも2名の方が賞品で素晴らしい結果を出していました。

フォーラムでも、あと2人くらいは素晴らしい結果を示してくれていますよ。その後、モデルの代わりに様々なゴミが送られるようになり、何百ものアカウントを持つ様々な詐欺師が現れ、予想をバカバカしく捏造するようになったのです。管理人はこの騒ぎにうんざりして、「賞金が欲しいなら、預金を残せ」と、とてもシンプルにしたのです。モデルがインチキで、保証金がなくなっても、利益が出なければ
私の考えでは、管理人は彼らにとって一番楽な道を選んだのだと思います。良いモデルになりそうなものを見分ける方法や、特徴を整えることすら学ばず、すべてを抽選にしてしまったのです。私が彼らなら、もっと違うやり方をするでしょうね。

 
Dr.トレーダー

当初、数百人しか予言をしなかった頃は、何も問題なく、場所代ももらえた。このフォーラムでは、他に少なくとも2人の方が賞品で素晴らしい結果を出しています。

ヌメアの管理者は、最高の結果を選び出し、それをもとに取引するのは至って簡単なことであった。エントリーを買っても満足できない、エントリーを出したくないということです。管理人はこの騒ぎにうんざりして、「賞金が欲しいなら、預金を残せ」と、とてもシンプルにしたのです。モデルがインチキで、保証金がなくなっても、利益が出なければ
私の考えでは、管理人は彼らにとって一番楽な道を選んだのだと思います。良いモデルになりそうなものを見分ける方法や、特徴を整えることすら学ばず、すべてを抽選にしてしまったのです。私が彼らなら、もっと違うやり方をしますよ。

たぶん、あなたは正しいが、今IMHOそれはすべてあまりにも任意の、奇妙なようにロゴを変更し、その後ライフにランダム(0.96315)よりも下に半分以上だった、今突然ほぼすべてのあなたの(悪い)ランダムになる...分類自体はチェレンジの対象ではありませんし、それを任せる意味はありません。

 

この支店をトップクラスから脱落させるわけにはいきません。

神経ネットワークの諸君--庶民は君たちからの聖杯を待って いる。台無しにしないでください。

 

randomUniformForestを試してみたが、あまり好きではなかった。

予測因子の重要度は、どんどん上がっていく。

以下は、論文 https://www.mql5.com/ru/articles/4227 のデータに関する再現例である。
RStudioを起動し、ターミナルから引用して得たCotir.RData ファイルをGitHub/Part_Iから、データ準備関数を含むFunPrepareData.R ファイルをGitHub/Part_IVから ダウンロードしてください。
それから。

evalq({
  dt <- PrepareData(Data, Open, High, Low, Close, Volume)
}, env)

 prep <- caret::preProcess(x = env$dt[, -c(1,ncol(env$dt))], method = c("spatialSign"))
 x.train <- predict(prep, env$dt[, -c(1,ncol(env$dt))])#удалить время и класс
 x.train <- as.matrix(x.train,ncol=(ncol(env$dt)-1))
 
 y.train <- as.matrix(env$dt[, ncol(env$dt)],ncol=1)
 require(randomUniformForest)

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ここでは、同じデータに対して予測変数のグローバルな重要度を4回計算する。結果はほぼランダムです。

----------------------------------------------------------------------------------------------
1 ftlm 9204 2 0.52 100.00 8
2 rbci 9197 2 0.52 99.92 8
3 stlm 9150 2 0.52 99.41 8
4 v.fatl 9147 2 0.51 99.38 8
5 v.rftl 9122 2 0.52 99.11 8
6 v.satl 9110 2 0.51 98.98 8
7 v.stlm 9096 2 0.51 98.82 8
8 v.rbci 9084 2 0.51 98.69 8
9 PCC 9082 2 0.52 98.68 8
10 V.RSTL 9049 2 0.52 98.31 8
11 V.PCC 8980 2 0.51 97.57 8
12 V.ftlm 8953 2 0.52 97.28 8
----------------------------------------------------------------------------------------------

1 v.fatl 9130 2 0.51 100.00 8
2 ftlm 9079 2 0.52 99.45 8
3 v.rbci 9071 2 0.52 99.35 8
4 v.rftl 9066 2 0.52 99.30 8
5 stlm 9058 2 0.51 99.21 8
6 v.satl 9033 2 0.51 98.94 8
7 PCC 9033 2 0.51 98.94 8
8 v.stlm 9019 2 0.51 98.78 8
9 V.RSTL 8977 2 0.51 98.33 8
10 rbci 8915 2 0.52 97.64 8
11 v.pcci 8898 2 0.51 97.46 8
12 V.ftlm 8860 2 0.51 97.04 8
----------------------------------------------------------------------------------------------

1 v.fatl 9287 2 0.51 100.00 9
2 stlm 9191 2 0.52 98.96 8
3 v.rbci 9172 2 0.52 98.76 8
4 v.rftl 9134 2 0.51 98.35 8
5 v.satl 9115 2 0.51 98.14 8
6 ftlm 9109 2 0.51 98.08 8
7 v.stlm 9072 2 0.51 97.69 8
8 V.RSTL 9072 2 0.51 97.68 8
9 V.ftlm 9036 2 0.51 97.30 8
10 PCC 9014 2 0.52 97.05 8
11 RBCI 9002 2 0.52 96.93 8
12 V.PCC 8914 2 0.51 95.98 8
----------------------------------------------------------------------------------------------

1 v.satl 9413 2 0.51 100.00 8
2 ftlm 9389 2 0.52 99.75 8
3 v.stlm 9371 2 0.51 99.55 8
4 v.rftl 9370 2 0.51 99.54 8
5 v.rbci 9337 2 0.51 99.19 8
6 V.PCC 9314 2 0.51 98.95 8
7 v.fatl 9311 2 0.52 98.91 8
8 stlm 9295 2 0.52 98.75 8
9 PCC 9281 2 0.51 98.60 8
10 V.RSTL 9261 2 0.51 98.39 8
11 v.ftlm 9257 2 0.51 98.35 8
12 rbci 9238 2 0.52 98.14 8

テストされた他の2つのパッケージについては,予測変数の重要度はプレランで同じように決定される.

Глубокие нейросети (Часть VI). Ансамбль нейросетевых классификаторов: bagging
Глубокие нейросети (Часть VI). Ансамбль нейросетевых классификаторов: bagging
  • 2018.03.01
  • Vladimir Perervenko
  • www.mql5.com
В предыдущей статье этой серии мы оптимизировали гиперпараметры модели DNN, обучили ее несколькими вариантами и протестировали. Качество полученной модели оказалось довольно высоким. Также мы обсудили возможности того, как можно улучшить качество классификации. Одна из них — использовать ансамбль нейросетей. Этот вариант усиления мы и...
 
エリブラリウス

randomUniformForestを試してみたが、あまり好きではなかった。

予測因子の重要度はどんどん上がっていく。

見えませんね。

でも、そんなことより、ポイントはこの原理です。

このモデルや他のモデルで定義されている予測変数の重要度は、特定のモデルで特定の予測変数を使用する際の何らかの特徴である。

そして、特定のモデルではなく、対象変数に対する予測因子の重要度として問題を置くことができます。

これらは、まさにcaretからの機能です。それらを使って、ターゲット変数に「有用」な予測変数の一般的なセットを生成することができます。例えば、特定のアルゴリズムに関連するような、既に選択された予測因子でウィンドウを移動して再選択すると、このセットは常に変化します。

一般的に言えば、「なぜ予測変数の重要度が必要なのか」という問いに対する答えが必要です。特定のアルゴリズムで選択するため?つまり、アルゴリズムはすでにこれに対する意見を表明し、それをあなたに伝えているのです。ですから、あなたが示す数字は、変化しようがしまいが、まったく関係ないものなのです。重要なのは,学習サンプルの外でのモデルによる予測と,予測変数のリストとサンプル外での予測の成功の関係である

 
elibrarius:

randomUniformForestを試してみたが、あまり好きではなかった。

プレディクターはこちらからアップロードしてみてください。

https://www.mql5.com/ru/articles/3856

を学習させ、自動生成されたマトリックスにインポート することで、Agentの学習後

私の場合は今のところ+-の結果ですが、まだ改善の余地があります。

非定常的な市場において、重要度も確率的に変化するため、自分でプレディクターにターゲットを合わせるのは無駄だと思います。

Random Decision Forest в обучении с подкреплением
Random Decision Forest в обучении с подкреплением
  • 2018.04.12
  • Maxim Dmitrievsky
  • www.mql5.com
Random Forest (RF) с применением бэггинга — один из самых сильных методов машинного обучения, который немного уступает градиентному бустингу.  Случайный лес состоит из комитета деревьев решений (которые также называются деревьями классификации или регрессионными деревьями "CART" и решают одноименные задачи). Они применяются в статистике...
 
SanSanych Fomenko:

見えませんね。

でも、そんなことより、ポイントはこの原理です。

このモデルや他のモデルで定義されている予測変数の重要度は、特定のモデルで特定の予測変数を使用する際の何らかの特徴である。

そして、特定のモデルではなく、対象変数に対する予測因子の重要度として問題を置くことができます。

これらは、まさにcaretからの機能です。それらを使って、ターゲット変数に「有用」な予測変数の一般的なセットを生成することができます。つまり、ウィンドウを移動して、例えば特定のアルゴリズムに関連するような既に選択されている予測因子を再選択すると、このセットは常に変化することになるのです。

一般的に言えば、「なぜ予測変数の重要度が必要なのか」という問いに対する答えが必要です。特定のアルゴリズムで選択するため?つまり、アルゴリズムはすでにこれに対する意見を表明し、それをあなたに伝えているのです。ですから、あなたが示す数字は、変化しようがしまいが、まったく関係ないものなのです。重要なのは,学習サンプルの外でのモデルによる予測と,予測変数のリストとサンプル外での予測の成功の関係である

seed - は、これらのランダムセットのうちの1つを固定するだけである。しかし、再現性があるとはいえ、ランダムであることに変わりはないでしょう。重要度重み(3列目)が最小と最大で3%しか違わないので、森の小さな変化で簡単にリストを飛び越えてしまうのがポイントだと思います。他のパッケージでは、これらの重みが何倍、何桁も違うのです。

予測変数の重要度は、重要でないものやノイズの多いものを除外し、NSやアンサンブルで使用するために必要である。

このデータセットでは、stlmは学習結果を大きく劣化させるので、これを指標にしています。このままでは、予測変数の選択 パッケージが失敗してしまうからです。

 
マキシム・ドミトリエフスキー

プレディクターはこちらからアップロードしてみてください。

https://www.mql5.com/ru/articles/3856

を学習させた後、自動的に生成されたマトリックス上にインポートされたものを見ることができます。

私の場合、今のところOOSで+αの結果が出ているが、まだ改善の余地がある

インパターンは確率的に変化するので、非定常的な市場でプレディクターにターゲットをピックアップするのは無駄だと思います

お~新しい記事だ。面白い...
 
エリブラリウス
お~新しい記事だ。面白い...

確かに、この方法ではターゲット選択の問題は解消されますが、エージェントに意味のある修正を加える方法を学ぶ必要があります

どのような予測器でもうまくいきますが、OOSで動作させるためには、その選択を混乱させる必要があります。

 
Alexander_K2 です。

この支店をトップクラスから脱落させるわけにはいきません。

神経ネットワークの諸君--庶民は君たちからの聖杯を待っている。台無しにしないでください。

自分でも心配になるくらいです:-)