トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 362

 
Dr.トレーダー

これまでの100ページのまとめ :)

Neuronicsをはじめとするほとんどすべての普及モデルは、人工知能から非常に遠いところにあります。そのような学習精度を達成する予測値の組み合わせを見つけ、将来の予測では過去の結果を補間(あるいは外挿)して新しい予測を得るというようなことをすればよいのです。

つまり、例えばMa、Rci、Stochasticを予測変数とし、ジグザグ反転を学習目標としてニューラルネットワークを学習させると、ニューラルネットワークに対して「この3つの予測変数は反転を予測できますよ」と言うことになります。また、ニューラルネットワーク自体も、この予測変数が本当に適合しているかどうかを把握することはできないでしょう。これらのデータを許容できる精度で記憶し、取引においては、反転前にMa、Rci、ストキャスティックの同じ組み合わせが保存されることを期待することになります。でも、そうならないから失敗する。

役に立たない予測因子で学習させたモデルは、たとえgbmであっても、ニューラルネットワークであっても、回帰であっても失敗するのです。ランダムな系列を生成して予測因子として使うこともでき、ニューロニックはその中から繰り返される組み合わせを見つけ出し、記憶することができます。
予測変数の選択や学習の目的など、他のツールを使って行うのは人間のデータマイニング担当者の仕事である。そして、モデル(ニューロン)のトレーニングは、ごく小さな最終段階である。

予測器は、過去と未来の両方の学習データにおいて、ターゲットとの相関を保つ必要がある。そのため、SanSanychは、発見された依存関係が新しいデータによって消滅しないことを確認するために、異なるファイルでモデルをテストすることについて述べています。
つまり、予測因子とターゲットを綿密に調査・収集し、モデルを訓練し、テストする。そして、そのモデルに対して、全く新しいデータでテストを行います。両者の予測精度が一致しない場合、予測因子またはターゲットが適切でないと考えられます。もう一台探そうか。


私の考えでは、ニューロニクスは非定常な時系列を予測するのには適していません。価格の動きは常に変化し、時間外になるとパターンが見つからなくなり、すべてが混沌としています。そして、誰かがニューロニュークルを手に取り、数ヶ月間値段をつけ、その間に繰り返される依存関係を見つけるよう依頼するのです。しかし、依存関係が繰り返されることはなく、神経細胞が見つけて記憶できることは、100%ランダムな偶然に過ぎないでしょう。

もし、ニューロンを取れば、それに指標などの加工された価格(純粋なohlcではない)だけを与えることができます。


なんでそんなに視野が狭いんだ、みんなニンジンより甘いものを見たことがないかのようにここに書き込んでいるじゃないか ))予測変数に悩まされることなく、これらの予測変数を見つけるためにニューロンを教え、ニューロンを教えるためにニューロンを教え、実験する :) 明らかに、単純な指標を取り、それを入力に与え、ジグザグに出力することは非常に間抜けです、なぜ皆がそれを議論しているのか分かりません :)そしてもちろんこれはAIではなく、単なる分類です。ニューロンは全く必要ないのですベイズ型分類器でできること
 
マキシム・ドミトリエフスキー

なぜそんなに狭く考えるのか、ここのみんなはニンジンより甘いものを見たことがないかのように書いている ))予測因子なんてクソくらえ、これらの予測因子を見つけるために神経細胞を教え、神経細胞に教え、実験する :)
neuronkaは無駄な予測子を0に設定するべきだと思います。すべての予測因子と、最も重要な予測因子の半分との間で、計算速度に差が出るだけである。でも、これも大事なことです。
 
エリブラリウス
そうですね、ニューロニックは無駄な予測子を0にすることで、出力に影響を与えないと思います。すべての予測因子と、最も重要な予測因子の半分との計算速度が違うだけでしょう。

そうやってリソースを大量に消費するタスクのために生まれたのがニューロニックで、ただ問題は、mt5ではそれが非常に限定的であるということです。非常に複雑で、独創的で、自明でないモデルを作ることができて、初めてNSの応用の可能性が開示されるのですが、確かにここで議論されているような技術では、初心者のための基本みたいなものです :)容量が足りなければ、NSを鍛えるためのサーバーもありますし...。普通のPCで5〜30分でトレーニングできるようなものは、私の考えでは、ニューロニクスでも原始的でも全くないですね :)
 
マキシム・ドミトリエフスキー

このように、リソースを大量に消費するタスクのためにニューロンが作られたのですが、ただ問題は、mt5ではそれが非常に貧弱であることです。非常に複雑で、独創的で、自明でないモデルを作ることができて、初めてNSアプリケーションの可能性が開花するのですが、ここで説明されているようなテクニックは、初心者向けの基礎のようなものです:)

なぜかというと、純粋なMQLでニューロニクスを最適化(指標のパラメータ選択)に使い、ネットワークやクラウドで運用しようと思っているからです。20000エージェントは数えるほどです。スピードに関しては、どのRとも比較することはできません。RもAzureクラウドにタスク配信しているようですが

 
エリブラリウス

さて、なぜかというと、純粋なMQLでニューロニクスを最適化(指標のパラメータ選定)に使い、ネットワークやクラウドで運用しようと思っているのです。20000エージェントを数えることができる - Rは速度で他と比較することはできません。


mt5のニューロンは1つだけでは足りないということです :)
 
マキシム・ドミトリエフスキー

mt5のニューロンは少ない、1つだけという意味です :)
最も重要なのは、やはり入力データの質であり、それがあれば、1ニューロンでも問題を解決できる。
 
エリブラリウス
まあ、一番大事なのはやはり質的な入力データで、それがあれば1ニューロンで問題が解決できるわけです。

いいえ、そうではありません。サンプルを増やすと、神経細胞はストレスで収縮し、破裂してしまいます :)そのようなサンプルに近似することができず、永久に0.5を出力することになります。
 
マキシム・ドミトリエフスキー

いいえ、そうではありません。サンプルを増やすと、ネオンはストレスで縮んでしまい、破裂してしまいます :)このようなサンプルを近似することができず、常に0.5を出力することになる

すべての入力の倍率が1であれば、0.5は0.5となります。しかし、ネットワークが学習して、重要でない入力の倍率を0に、最も重要な入力の倍率を1に設定すれば、すべてうまくいくのです。もちろん出力は1にはなりませんが、例えば出力が>0.8であれば反応します。

しかし、残念ながら正しい出力と相関するような指標はありません。したがって、ドローダウンは必ず起こります。確率を横に曲げるだけでいい
 
エリブラリウス

0.5は、すべての入力が乗数=1である場合になります。そして、ネットワークが学習して、重要でない入力を0に、最も重要な入力を1に設定すれば、すべてがうまくいくのです。出力ではもちろん1にはなりませんが、例えば出力が>0.8であれば反応します。

しかし、残念ながら正しい出力と相関するような指標はありません。だから、ドローダウンは必ず起こるのです。確率を自分に有利になるように曲げればいいんです。

相関がないわけではなく、サンプルが増えると矛盾が生じる、そう、結局出力は常に0か1か0.5か・・・しかも1ニューロンに対して。つまり、>0.5なら売り、<0.5なら買いということです。正しい(と思う)予測値と正しい答えを設定します。つまり、psiが売られすぎで次のnバーで相場が伸びたら0を出力し、psiが買われすぎで相場が下がったら0を出力するのです。しかし、逆に鈍感になったり、信号が混ざったり、トランス状態になるケースも多いでしょう。その結果、出力は常に0.5前後になり、一方向へのずれは非常に小さくなります...これはすべてのオシレーターで起こることです。)
 
Dr.トレーダー

ですから、例えばMa、Rci、Stochasticを予測変数とし、ジグザグの反転を学習対象としてニューラルネットワークを学習させると、「この3つの予測変数は反転を予測できますよ」と伝えることができます。また、ニューラルネットワーク自体も、この予測変数が本当に適合しているかどうかを把握することはできないでしょう。これらのデータを許容できる精度で記憶し、取引においては、反転前にMa、Rci、ストキャスティックの同じ組み合わせが保存されることを期待することになります。でも、そうならないから失敗する。

IMHOでは、分類と回帰を、例えばkNN のように、あるカーネルの近傍で、N-dの 異なる種類の平均化点と考える方が良いと思います。分類では応答のみが平均化され、回帰ではフィッシュと応答が平均化されます。もちろん、この平均化によって矛盾する点が混在すれば、結果はノイズとなり、顕著にはならない。

理由: