トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 628

 
ニコライ・デムコ

いや、市場データとネットワーク性能を混同してはいけないと言いたかったのです。

つまり、ネットワークが気配値を処理し、それに以前の取引が成功したかどうかのデータを与えているのですが、それは同じデータではないので、混ぜて使うことはできません。

そして、一般的には、ネットワークがうまくいったかどうか、これは別の単位になります(以前はGAでfitness-functionと呼んでいましたが、NSではerror functionと呼びますが、考え方は同じです)。

バックプロップ方式でネットワークを学習させたところ、データの一部にエラーが発生することが判明しました。おわかりいただけたでしょうか?

はい、わかりました。まずはMT5のオプティマイザーで簡単に教えたいと思います。複雑な駆け引きなしに、トレード結果とエクイティを取得して、すぐにグリッドに返す機会を与えてくれるでしょう。

また、建築はどうかというと、設計し直すかもしれませんが、まだ試してもいないので、他の選択肢はありません。少なくとも何らかの結果が出ることは確かですが、どのような結果なのかが問題です :)

 
マキシム・ドミトリエフスキー

私はそれについてすべて知っている、クロスバリデーションはまた、適切であるが、より洗練されています。

再帰もまた繰り返され、時には学べないこともある。

ネットワークの出力を入力に送ることができないと言いながら、再帰を使えと言うなんて......。:) そして、その出力を食べるだけなのです。

再帰は、最も単純なケースでは、自分自身を食べる単純なMLPである。

クロスバリデーションについては、私も同意見ですが、より洗練された方法があります。このように、クロスバリデーションは、手法が単純であるにもかかわらず、納得のいく結果を得ることができます。

全体としてみれば、NSはフィッティングであるが。普遍的な近似値であり、データへのフィッティングではなく、NSが依存性を学習したと言えるポイントをどう見つけるか、その段階が確実に確立されていない中で、NSの開発が進んでいるのです。

これは、1変数の複雑な関数を、多変数からの単純な関数の集合で表現する問題である。

そして、この問題を解決すれば、実際にAIを構築することができます。

 
ニコライ・デムコ

クロスバリデーションについては賛成ですが、もっと洗練された方法があります。

一般的にはNSはフィッティングですが。普遍的な近似値で、NSが依存性を学んだと言える現場のポイントをどう見つけるかが確実に確立されていない、そんなNS科学の発展段階でありながら、データへの適合性はない。

これは、1変数の複雑な関数を、多変数からの単純な関数の集合で表現する問題である。

そして、この問題を解決すれば、実はAIを作ることになるのです。

同時に、しかもNSのすべての接続を想像し、そこがどのように相互作用するかを想像するには、すべてが複雑すぎるのです。

AIは必要ありませんが、せめて市場の変化に反応するような「記憶力」があればいいなと思います。

 
マキシム・ドミトリエフスキー

これは、同時に想像するにはあまりに複雑で、NSのすべての接続を想像することはおろか、物事がどのように相互に影響し合うかを想像することもできません。

AIは必要ありませんが、せめて市場の変化を「記憶」して、何らかのフィードバックがあればいいと思います。

子猫が嫌いな人は、もしかしたら調理法を知らないだけかもしれませんね ))

NSは、どんなデータでも近似し、要約することができます。

つまり、NSの種類を選択するだけでなく、そのためのデータを正しく準備することも同様に重要なのです。

このように、タスクは相互に依存しており、どのようなデータを投入するかはNSの種類に依存し、どのNSを選択するかは、そこに用意するデータに依存するのである。

しかし、この問題は閉じた解法であっても、例えばGAも同じように、最初はアルゴリズムがデータについて何も知らず、問題を徐々に分岐させることでロバストな解を導き出すのです。

だから、ここでも同じで、研究を体系化し、ログを残せば、成功するのです。

 
マキシム・ドミトリエフスキー

最初はMT5のオプティマイザーで簡単にトレーニング したいのですが、そうすれば、トレードとエクイティの結果をすぐに取得し、タンバリンなしでグリッドに戻すことができます。

また、建築はどうかというと、設計し直すかもしれませんが、まだ試してもいないので、他の選択肢はありません。少なくとも何らかの結果が出ることは確かですが、どのような結果なのかが問題です :)

マキシム まあ、MTオプティマイザーでネットワークを学習させる必要はないんですけどね。NS-trainerとoptimizerは全く異なるアルゴリズムであり、最適化の基準も全く異なる。

もし、以前に描いたそのNS構造をまだ使っているとしたら、それはあまりにも単純で、マーケットには弱すぎる。15-20-15-10-5-1の構成になって初めて成功したと既に書きました。しかも、これは1種類のトレードに限った話です。また、すべてハイキンが説明した方法で、つまり新しいことは何もせず、コツもつかまずにやりました。

よりシンプルな構造では、訓練が不十分だったのです。

 
ユーリイ・アサウレンコ

マキシム まあ、MTオプティマイザーでネットワークをトレーニングするのはやめましょう。NSトレーナーとオプティマイザーは全く別のアルゴリズムであり、最適化基準も全く異なる。

以前描いたあのNS構造をまだ使っていると、ちょっと単純な、マーケットに弱い。15-20-15-10-5-1の構成になって初めて成功したと既に書きました。しかも、これは1種類のトレードに限った話です。また、すべてハイキンが説明した方法で、つまり新しいことは何もせず、コツもつかまずにやりました。

よりシンプルな構造では、訓練が不十分だったのです。

しかし、これにもう1つ追加することを妨げるものはありません。ポイントは、グリッドの深さではなく、フィードバックで作ることです。これは今の私の空想であり、アーティストのようなもので、そうなんです。

バックプロップスでグリッドに貼り付けるのは面倒なので、シンプルにしたほうがいいですね。)

段階的に学ぶグリッドだからです...一歩を踏み出し、フィードバックを得て...というように、行動と結果の全体像がまとまるまで。

小さい履歴を取れば大丈夫だし、後から拡大することもできる。

 
マキシム・ドミトリエフスキー

と、この1枚にもう1枚を追加することを止めるものは何もないのです。ポイントは、グリッドの深さではなく、フィードバックで作ることです。今となっては私の空想であり、アーティストのようなもので、そうなんですね :) 古典はおもしろくありません

バックプロップスでグリッドに貼り付けるのは面倒なので、シンプルにしたほうがいいですね。)

ステップを踏んで、フィードバックを得て......というように、行動と結果の全体がまとめられるまで、段階的に訓練されるグリッドだからです。

そこで、NエポックごとにBPを停止してテストを実行し、さらにBPの学習を継続すると書きました。24時間のトレーニングは長いと思いますが、この会話は2ヶ月ほど前にもありました。

でも、もちろんアーティスト次第なんですけどね)。ピアニストを撃つな、彼は知っているように演奏するんだ。

ZS 実際、学習には多くのデータが必要なのではなく、多くのデータが必要なのです。サンプル数が少ないと、NSは何も得ることができません。

 
ユーリイ・アサウレンコ

そこで、NエポックごとにBPを停止してテストを実行し、さらにBPの学習を継続すると書きました。24時間のトレーニングは長いと思いますが、この会話は2ヶ月ほど前にもありました。

でも、もちろんアーティスト次第なんですけどね)。ピアニストを撃つな、彼は知っているように演奏するんだ。

2時間後にやり直しがあります))今夜やりますmb

フォアハンドでもう少し安定した、明確な結果を出す必要があるのですが、すべてうまくいっています。

 
マキシム・ドミトリエフスキー

このままでは、やり直しに2時間かかってしまいます))今夜中にやります。

必要なのは、もう少し安定した、わかりやすい結果を出すことであり、そうすればすべてがうまくいくのです。

プレ投稿を終えましたが、ページが変わったので、重複します。

トレーニングに必要なデータ量を考えているところです。サンプル数が少ないと、NSは何も得られない。

 
ニコライ・デムコ

確かに攻撃したことは謝りますが、あなたの投稿を読み直してみてください。かなり曖昧な印象です。
一般的には正しいのですが、最初のニューロネット層に関してだけです。もし、フィードバックが2層目以降、あるいは並列ネットワーク層にまで及べば、あなたの発言は無効となります。
その場合、マキシムは ネットワークを深化させ、隠れ層にフィードバックをもたらすことを考える必要があります。

については、そうですね。

このように、NSの種類によってどのようなデータを提出するかが異なり、どのNSを選択するかは用意したデータによって異なるという、相互依存的なタスクになっています。
同じことです。MLPはもう関係ない、ディープラーニングはずっと前からトレンドになっている。そして、1つのネットワークで異種データを処理することは十分に可能です。重要なのは、アーキテクチャです。
理由: