トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 593

 
マキシム・ドミトリエフスキー

時間遅れを含む焦点型前方伝搬ネットワーク

構造パターン認識では、静的なニューラルネットワークを用いるのが一般的である。一方、時間的パターン認識では、時間とともに変化する画像を処理し、ある時点で現在の値だけでなく、過去のいくつかの値にも依存した応答を生成する必要がある。

そんなのあるんですか?:) まさにそのようなアーキテクチャは、理論的にはFXでも機能するのですが...実験してみないとわかりませんね。方法は簡単で、MLPに「面白い」ニューロンを2つほど追加するか、2つのモデルを接続するだけです。

モデルはどこで手に入れるのですか?
 
ユーリイ・アサウレンコ
モデルはどこで手に入れるのですか?

自分でやる)まだ読み終えていない、本には面白いことがたくさんある、結局のところ

しかし、市場のための「メモリ」のアイデアは良いはずです。しかし、超低速の再帰ではなく、よりシンプルで専門的なものです。

 

最もシンプルな例です。

外部の「シフター」とは、例えば、過去の取引、ボラティリティ、あるいはシステムの他のハイパーパラメータからのf-を意味することができる。

しかし、シフターが1つ以上の神経細胞に組み込まれていれば、あたかも非線形であるかのようになる。

 

すべての問題を解決してくれる新しい種類のneuronkeyやpythonパッケージが現れることを期待しないでください - モデルのオーバーフィッティングはありませんし、非定常性も恐れません。

どんなに立派なモデルであっても、人間が用意した学習用のデータを受け取り、モデルはその入力データからどのように結果を計算するかを簡略化して作成するだけ、という単純な原理に基づいています。これは、最近傍予測と大差ないのですが、従来のモデルは(学習には時間がかかりますが)桁違いに速く予測するので、好感が持てます。

キーワードは「人間が学習させたデータ」です。専門家が正しくデータを準備すれば、それを使ってモデルを訓練し、有益な取引をすることができます。例えば、SanSanych、Vizard、Michaelが共有した訓練とテストのテーブルを見てください。
見ていて驚かされます。また、非線形入力フィルタや何十もの層を持つ驚異的なRNNニューロニックは、あなたのためにそれを行うことはありません。

 
Dr.トレーダー

新しい種類のneuronkeyやpythonパッケージが現れて、すべての問題を解決してくれる--モデルのオーバーフィッティングがなく、非定常性を恐れない、などということは期待しないでください。

どんなに立派なモデルであっても、人間が用意した学習用のデータを受け取り、モデルはその入力データからどのように結果を計算するかを簡略化して作成するだけ、という単純な原理に基づいています。これらはすべて最近傍予測に遠く及ばないが、通常のモデルは(訓練に長い時間がかかるが)桁違いに速く予測するので、より好まれているのだ。

キーワードは「人が用意した学習のためのデータ」です。例えば、SanSanych、Vizard、Michaelが投稿したトレーニングおよびテスト用のテーブルがそうです。
見ていて驚かされます。また、非線形入力フィルタや何十もの層を持つ驚異的なRNNニューロニックは、あなたのためにそれを行うことはありません。


残念ながら(私だけかもしれませんが)、ここで語られていることのほとんどはニューロスタティックスのことです。そのため、予測因子の選択とフィルタリングには多くの方法があります。この方法は、前処理があるため、非常に難しいと感じています。

しかし、「記憶」と「適応的なもの」の異なるバリエーションで神経力学を見ることができる...その方がよりシンプルで自然なアプローチに思えますし、効率についてはよく分かりませんが、やり方次第です。

市場をパターンの集合として見るか、一定の法則に従って進化するシステムとして見るか、どの視点から見るかは人それぞれです。

 
マキシム・ドミトリエフスキー

しかし、「記憶」と適応的なものの異なるバリエーションで神経力学を見ることができます...それは、よりシンプルで一種の自然なアプローチに思えます。効率についてはよく分かりませんが、やり方次第です。
...
進化していく
...

研究する必要があるのは間違いない。しかし、人類はまだ適切な道具を発明していない(少なくとも公にはしていない)。

lstmニューロンは、より少ないニューロンで通常のニューロンよりも正確に時系列を 記述することができ、このスレッドにとって非常に興味深いものです。しかし、それらの問題点はオーバーフィッティングです。
通常のneuronkaを学習させることで、クロスバリデーションのためのデータを抽出し、オーバーフィードに対処することができるとします。しかし、lstm neuronkaにとっては、データの到着順序が重要であり、新しい予測はそれぞれ内部 neuronka の状態を使用し、それを変化させる。その結果、時系列全体が厳密な順序で予測され、それぞれの予測は過去に依存し、未来に影響を与える。もし、クロスバリデーションで使用するために、いくつかの例をランダムに削除すると、シーケンスが壊れてしまい、学習全体に疑問を持たれてしまいます。もし、データをトレーニング用とテスト用に順次2つに分けると、FXでは役に立たないので、またオーバーフィットになります。
私たちにできることは、lstmを最大限の精度で訓練し、希望を持つことです。しかし、FXはそんな無責任なことを許さない。

この問題が解決されれば、聖杯を作ることが可能になる。

 

MQL単体では悪くもなく良くもない。構文的にはC++に近い。一般的には、標準的な言語である。問題は、そのために必要なライブラリの入手性です。しかし、それらは欠落していたり、品質が悪かったりします。だから、Pythonを統合する必要があるんです。MQLとの連携については、すでにリンクを引用しています。もう1つあげます。ライブラリーはかなり使えるようになりました。今すぐダウンロード することができます。

 
Dr.トレーダー

これは間違いなく研究する必要があります。しかし、人類はまだ適切な道具を発明していない(少なくとも公にはしていない)。

lstmニューロンは、より少ないニューロンで通常のニューロンよりも正確に時系列を記述することができ、このスレッドでは非常に興味深いものです。しかし、それらの問題点はオーバーフィットです。
通常のneuronkaを学習させることで、クロスバリデーションのためのデータを抽出し、オーバーフィードに対処することができるとします。しかし、lstm neuronkaにとっては、データの到着順序が重要であり、新しい予測はそれぞれ内部 neuronka の状態を使用し、それを変化させる。その結果、時系列全体が厳密な順序で予測され、それぞれの予測は過去に依存し、未来に影響を与える。もし、クロスバリデーションで使用するために、いくつかの例をランダムに削除すると、シーケンスが壊れてしまい、学習全体に疑問を持たれてしまいます。もし、データをトレーニング用とテスト用に順次2つに分けると、FXでは役に立たないので、またオーバーフィットになります。
私たちにできることは、lstmを最大限の精度で訓練し、希望を持つことです。しかし、FXはそんな無責任なことを許さない。

LSTMニューロンを上書きするというテーマで何年も学問的な研究が必要ですが、この問題が解決されたとき、私たちは聖杯を作り始めることができるのです。


lstmはBPを外部エージェントとして使用しないので、ミスをしたときにおでこを蹴られます。

ゆりさんがすでに書いてくれているので、要約すると。

 
グリゴーリイ チャーニン

MQL単体では悪くもなく良くもない。構文的にはC++に近い。一般的には、標準的な言語である。問題は、そのために必要なライブラリの入手性です。しかし、それらは欠落していたり、品質が悪かったりします。だから、Pythonを統合する必要があるんです。MQLとの連携については、すでにリンクを引用しています。もう1つあげます。ライブラリーはかなり使えるようになりました。ダウンロードして ください。


お疲れ様でした!後で使わせていただきます、取っておきました。

 

眠れない-インターネットで少し読書をしてみた。私はこれが好きでした。

インクリメントが使われているのは、一般的な背景からするとそれほど悪いことではなく、ほとんどの対数価格が入力に供給され、インクリメントは一歩前進 したもので、どちらもしっくりくるのですがね」。

NSでグラ引いた人知ってるけど、あいつらコミュニケーションとかヒントすら閉ざされてるから初心者の俺には確実に無理。Velsでもなく、Metatraderでもなく、S#でもなく、C++とMatLabに、キャリダーのデータをデコードして解釈するチップを 搭載した、すべてが複雑であることだけは分かっています。

それは面白いですね。私は私の意見によって立つ - それは、NSの入力に涙、価格増のように、純粋な供給することが必要である。何事も小刻みが肝心なのです。この問題を解決するための基礎となるものです。実は、FXでは、この増分の波束(確率密度 関数)の動きという疑似定常的なプロセスを追っているのです。それ以上でもない。(この段落はすでに書きました :)))