トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 942

 
オルガ・シェレミー
ありがとうございます。後で必ず読んでくれるはずです。今はシェレピンを読みながら寝ています。邪魔をしないようにと。

OKです。

タッケンズの定理を探させる。

 
アレクセイ・ヴャジミキン

私はこの原則に従って、すべてを1つのテーブルにまとめました。

また、arr_TimeHによるグルーピングプレディクタを作りました - このフォームで役に立つかもしれません。

ファイルを添付しています。

私が使っているプログラムでは、以下のような図式になっています:30.81%しかヒットしない


しかし、例えばエラー-2と-1を足し合わせて、正しく見つかった解答とそうでないものをセットにして、ターゲット番号3はフィルターなので決算に影響しないので無視すると、次のような図になります。

この場合、ポジションに入るまでの誤差は49.19%となり、それほど悪くはないでしょう

 
マキシム・ドミトリエフスキー

kfold alglibを使った実験はされましたか?昔の投稿で、サンプルが混ざらないようなことが書いてありましたね。その必要はあるのでしょうか?

同じデータで、森とmlpのどちらがオーバートレーニングにならないか、結論を出してください。回帰タスクではフォレストが曲がって動作し、分類基準では曲がって(非常に小さく)エラーを返しているのではないかという疑念があります。

2.OpClに興味を持つ人がいるようですが、NSをそれに書き換えるという考えはなかったのでしょうか?例えば、私はGAを悪夢のような無意味なものとして完全にあきらめ、今はすべて1コア1スレッドで学習しています。Clで高速化すればいい(それくらいの速さではあるが)。というか、Sparkでトレーニングしても、どうせパラレルだし、意味がない。

3.gitに何を載せ、どのように適用するのかが大体わかった。素晴らしい面白い作品ですね!リスペクトです。:)

ネットワークを調べ始めると、https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_Multilay erPerceptron.mq5 という結果になりました。予測変数の異なるセットを異なる順序で(シャッフリングあり、なしで)調べました - File_Numパラメータがこれを担っています。もちろん、2つのクラスに対して同じ数のレコードを入れてみた。

このネットワークの問題点は、有効なサンプルを選択するための明確な基準がないことです。例えば、果物の絵を認識する場合、リンゴとオレンジがどこにあるのか、はっきりと識別することができます。価格チャートには100%の選択基準はなく、したがって100%の再トレーニングの基準もありません。

https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_RandomForest.mq5

ランダムフォレストはノイズに左右されにくく、異なるサンプリング条件下でも同じ結果を返す可能性が高い。例えば、グラフの場合。

青と黄のデータはほぼ同じです。2回目のフォレストでサンプルの一部を取り除いたので、もっと差が出るかと思ったが。

また、私見ですが、ネットや森を使って注文の始値を取ろうとする人がいますが、利益確定は注文が終了したときに行われることを忘れています。この問題を解決するために、https://github.com/Roffild/RoffildLibrary/blob/master/Include/Roffild/OrderData.mqh が登場したのだが、このクラスはまさに「親」として使われる。

OpenCLは、ネットワークのトレーニングにのみ必要です。ネットワークやフォレストをすでに学習させた最終的な計算では、ビデオカードへのデータ転送に時間がかかるため、OpenCLは役に立ちません。また、ネットワークや森からデータを取り出すアルゴリズムは実にシンプルで、CPUはそれをうまく処理してくれます。

Sparkは一般に、1台のコンピュータのコア間だけでなく、ネットワーク全体を使った並列計算が可能です。サーバー間コンピューティングの標準規格である。例えば、私は通常、ランダムフォレストを早く完成させるために、amazonで32コアを0.25ドル/時間で購入します。

 
ロフィルド

このネットワークの問題点は、有効なサンプルを選択するための明確な基準がないことです。例えば、果物の絵を認識するとき、どれがリンゴでどれがオレンジなのか、はっきりと区別できます。価格チャートでは、100%の選択基準はなく、したがって100%の再トレーニング基準もありません。

https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_RandomForest.mq5

ランダムフォレストはノイズに左右されにくく、異なるサンプリング条件下でも同じ結果を返すことが多い。例えば、グラフの中で

NSでは建築をピックアップする必要がありますが、森は常に同じように動くからです。)

そして、アーキテクチャをピックアップするには、多次元特徴空間をマッピングして、どの層が何を担当しているかを把握するか、あるいは直感で判断する必要があります。しかし、正しくピックアップされたNSは、理論的には、オーバーフィットの点でも、より良い結果をもたらすはずです。

まだすべてのライブラリではないのですが、ありがとうございます。

 
ナイトメア
 
森の奥に行けば行くほど、大きな薪が...。
 

ロシア語で書かれたもう一つの便利な

Джулли А.,Пал С. - Библиотека Keras - инструмент глубокого обучения [2018, PDF, RUS] :: RuTracker.org
  • rutracker.org
Автор : 2018 : Джулли А.,Пал С.: ДМК Пресс : 978-5-97060-573-8 : Русский: PDF : Отсканированные страницы : 298: Книга представляет собой краткое, но обстоятельное введение в современные нейронные сети, искусственный интеллект и технологии глубокого обучения. В ней представлено более 20 работоспособных нейронных сетей, написанных на языке...
 
ウラジミール・ペレヴェンコ

ロシア語で書かれたもう一つの便利な

Kerasはどうやって見つけるの?ダーチより優れているのか、それとも同じなのか?同じデータ、エポック数で、より速く学習できるのか?
 
エリブラリウス
Kerasはどのような印象を持ちましたか?ダーチより優れているのか、それとも能力は同じなのか?同じデータ、エポック数で学習した方が早いのか?

比較にならない。Kegas - 構造、トレーニング、カスタマイズの面で無限の可能 性があり、多くの例と詳細なドキュメントがあります。別途、TensorFlowについてですが、非常に速いスピードで開発が進んでいます(すでに1.8)。これには長所と短所があることは明らかです。習得が早くないので、余計な体操が必要です。ハイパーパラメータの最適化が困難である。それ以外は、今後のメインとなるものです。

グッドラック

 
アレクセイ・ヴャジミキン

私はまだRと友達になったことがないので、どんなものが出てくるか楽しみです

週足TF、1400本(ターミナルにあるほぼ全ての履歴)の分解を行った。

ここでは日付が表示されないので、不便です。Plotで書き換えるか、インジケータでチャート上にマークする必要がありそうです。

小型のMODでは、より顕著なtsccがあります。そして、一番大きいのが±14年(28年から半周期2回)で、これを7年周期で4回に分けている(と言ったところ)。さらに、前回の7年サイクルは今年の早い時期に終了しており(大体)、それ以前の日付でグリッドを教えることはあまり意味がないことを示唆している

真ん中のサイクルは、それほど顕著ではありません

そして、頭を悩ませるのではなく、すべてのMODをNSに入れればいいだけで、しかも相関関係がないのです。

そうすると、異なるサイクルを認識し、そうでないかもしれませんが、哲学的な質問、そうなるように:)

理由: