トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 645

 
サンサニッチ・フォメンコ

元の引用文のテストを実行しても、系列が定常でないことは目で見て明らかなので、意味がないのです。

そして、興味深いのは(私にとってはではなく、いつも使っている)時系列log(p/p-1)のグラフです。

何が入っているんですか?もちろん、縦軸には目盛りが必要です。

2つのグラフを1つのフレームに収めるために、省スペースのためにスケールを使わなかったのですが、もともとY座標が違っていたんですね。

前回とは全く違う結果になってしまいましたが、ここでは最も興味深いグラフを紹介します。残りはアーカイブにありますので、ここに10枚の写真を貼り付ける必要はありません。でも、エントロピーのグラフは全然おもしろくないんです。

Atacha スクリプトは、R-Studio で、すべてのプロットプロットの履歴を前後にスクロールすることができます。

おっと、またコードにタイプミスがありました。.txtファイルを再添付します。

ファイル:
 
サンサニッチ・フォメンコ


主要な構成要素について議論し、教師なしでアルゴリズムを持つことのデメリットを理解しましたね。

ここで先生と一緒に。

パッケージのスプラッシュ

cranの説明からは想像もつきませんでしたが、ありがとうございます(Sparse Partial Least Squares (SPLS) Regression and Classification)。

 
Dr.トレーダー

2つのグラフを1つのフレームに収めるために、省スペースのためにスケールを使わなかったのですが、そのY座標がもともと違っていました。

前回とはかなり違った結果になっていますが、ここでは最も興味深いグラフを紹介します。残りはアーカイブにありますので、ここに10枚の写真を貼り付けることはありません。でも、エントロピーのグラフは全然おもしろくないんです。

Atacha スクリプトは、R-Studio で、すべてのプロットプロットの履歴を前後にスクロールすることができます。

おっと、またコードにタイプミスがありました。.txtファイルを添付し直します。

素晴らしい写真

アーキテストを見ると、有馬モデルが活躍するプロットがあることが分かりますね。でも、いつも一つ問題があります。私たちは歴史の上ではとても賢いので、合格してから初めて有馬を使えると知るのですそして、私たちの理論には、強い後知恵があるのです。

 
Dr.トレーダー

これをフォローするために -https://www.mql5.com/ru/forum/86386/page643#comment_6472393


予測変数の選別関数である random.forest.importance() は、いくつかのテストにおいて、かなりまともな結果を示した。その意見では、すべての予測因子が少なくともある程度重要であることが不都合である...。しかし、例えば、平均重要度を計算し、平均重要度以上の予測因子だけを取り出せば、非常に良い結果が得られるのです。

どのような重要性?ジニまたはパーミュテーション(MDA)

P.s. http://blog.datadive.net/selecting-good-features-part-iv-stability-selection-rfe-and-everything-side-by-side/、他にも比較できる方法があります。

Selecting good features – Part IV: stability selection, RFE and everything side by side
  • 2014.12.20
  • blog.datadive.net
In this post, I’ll look at two other methods: stability selection and recursive feature elimination (RFE), which can both considered wrapper methods. They both build on top of other (model based) selection methods such as regression or SVM, building models on different subsets of data and extracting the ranking from the aggregates. As a wrap-up...
 
Dr.トレーダー

もう一つ、予測因子を選別するための興味深いパッケージを見つけました。FSelectorと呼ばれるものです。予測因子を選別する方法として、エントロピーを含む約12種類の方法が用意されています。

https://www.mql5.com/ru/forum/86386/page6#comment_2534058 から予測変数とターゲットのファイルを入手しました。


それぞれの方法で予測器を評価した結果を、最後にグラフで示しました。

青が良い、赤が悪い(corrplotの結果は[-1:1]にスケーリングされています、正確な推定はcfs(targetFormula, trainTable), chi.squared(targetFormula, trainTable) 等のコール結果をご覧ください)。
X3、X4、X5、X19、X20は、ほぼすべての手法で良好な評価を受けていることがわかりますので、まずはこれらから始めて、さらに追加・削除を試みてください。

しかし、RattleのモデルはRat_DF2においてこれらの5つの予測変数でテストに失敗し、ここでも奇跡は起こりませんでした。つまり、残りの予測変数の場合でも、モデルのパラメータを調整し、クロスバリデーションを行い、予測変数の追加や削除を自分で行う必要があります。

FSelectorはWEKAから来たもので、Javaを使っているということです。メモリを大量に消費する。FSelectorRcppを使用するのがよいでしょう。

グッドラック

 

ここでさらにentropy(price)とarchTest(log(p/p-1))を同時に表示します。目視では相関がないように見えますが、シグナルは見えません。指標を見る目がある人は、何かに気づくかもしれません。


 
マキシム・ドミトリエフスキー

どのImportanceですか?ジニまたはパーミュテーション(MDA)

2つのタイプから選べます
1=平均的な精度の低下(これはおそらくmdaで、最初の文字と一致します)
2=ノード不純物の平均的な減少量

 
ドクタートレーダー

2つのタイプから選べます
1=精度の平均的な低下(mdaがそうだろう、最初の文字を合わせればいい)
2=ノード不純物の平均的な減少量

ええ、彼です、ありがとうございます、2番目のMDIです。

 
Dr.トレーダー

ここでさらにentropy(price)とarchTest(log(p/p-1))を同時に表示します。目視では相関がないように見えますが、シグナルは見えません。指標を見る目がある人なら、何か気づくかもしれない。


通常のボラティリティ・インディケーターは、次のように表示されます。)

しかし、アーチテストでは何も表示されない

 

予測因子の重要性を評価することには、疑いなく関心がある。

最も多様なシステムはCORElearnパッケージにあります(一時期、Vladimir Perervenkoが 強く推奨していました)。

評価のためのいくつかの機能を備えています。

最初のステージでは、それは機能です。

ordEval(formula, data, file=NULL, rndFile=NULL,
variant=c("allNear","attrDist1","classDist1"), ...)

ordEval вычисляет результирующие вероятностные факторы, соответствующие эффекту увеличение/уменьшение значимости атрибута для класса.
Алгоритм оценивает строго зависимые упорядоченные атрибуты, в которых значения отдельных атрибутов зависят от других атрибутов в разной манере.

第2ステージでは、関数

attrEval(formula, data, estimator, costMatrix = NULL, ...)

estimator       Имя метода оценки. Ниже 37 имен.

[1]     "ReliefFequalK"      "  ReliefFexpRank" "ReliefFbestK"  "Relief"
[5]     "InfGain"            "GainRatio"        "MDL"            "Gini"
[9]     "MyopicReliefF"      "Accuracy"         "ReliefFmerit"  "ReliefFdistance"
[13]    "ReliefFsqrDistance"    "DKM"           "ReliefFexpC"   "ReliefFavgC"
[17]    "ReliefFpe"          "ReliefFpa"        "ReliefFsmp"    "GainRatioCost"
[21]    "DKMcost"            "ReliefKukar"      "MDLsmp"        "ImpurityEuclid"
[25]    "ImpurityHellinger"     "UniformDKM"    "UniformGini"   "UniformInf"
[29]    "UniformAccuracy"       "EqualDKM"      "EqualGini"     "EqualInf"
[33]    "EqualHellinger"        "DistHellinger" "DistAUC"       "DistAngle"
[37]    "DistEuclid"                     


Дополнительный параметр costMatrix может включить неоднородную матрицу стоимости для классификаций, чувствительных к стоимости мер 
(ReliefFexpC, ReliefFavgC, ReliefFpe, ReliefFpa, ReliefFsmp, GainRatioCost, DKMcost, ReliefKukar и MDLsmp). 



このように、予測変数の重要性を判断するためには、演習の余地が十分にあるのです。