トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 738

 

マイケルのファンデーションは大丈夫です。これから始めようと思っている方への良いお手本になります。

彼はいくつかの良い指標を持っている、私は証券取引所からでも、すでに標準的なマシュカとrsishkaよりも優れていると思います。そして、これらをただニューラルネットワークに押し込むだけでなく、様々な手段で指標を評価し、予測に最も適したものを選んでいるのです。その後、ニューロンカの学習が行われるが、単純なものではなく、オーバーフィット制御が組み込まれたものである。そして、この戦略全体をテスターでロールフォワードを使ってテストしています。

このスレッドの冒頭でSanSanychがすでにそのようなスキームを説明しており、ついに誰かがそれを使うことにしました。そうでなければ、多くのトレーダーは何も考えずにニューロニックに多くのインジケータを入れたくなるかもしれません。

vtreatやcaretで指標を前処理することもありますね。そして、kfoldでより適切なニューロンカ。そして、私はトレーニングのためにもっと多くの例を取るだろう、私は他の批判に同意する。

 

知ってるよ、兄弟!!!一度に全部話すと...。みんな教育の範囲内で踊っていますが、最終的には争いに決着がつくのです。いわば、結果論です。今のところ勝っているのは、預金が増えているからだ。私のやり方が正しいということは分かっています。

ちなみに、私はvtreatで重要な予測因子の選択+シャッフルのトリックを使用しています。

これについては、BOOについての記事で詳しく説明します。

 
ミハイル・マルキュカイツ

知ってるよ、兄弟!!!一度に全部話すと...。みんな教育の範囲内で踊っていますが、最終的には争いに決着がつくのです。いわば底力。今のところ勝っているのは、預金が増えているからだ。私のやり方が正しいということは分かっています。

ちなみに、私はvtreatで重要な予測因子の選択+シャッフルのトリックを使用しています。

BOに関する記事で詳しく説明します。

上記で、相互情報量について書かれていますが、これはどういう意味ですか?それと何の関係があるのですか?

 
サンサニッチ・フォメンコ

上に相互情報のことが書いてありましたね。それがどうしたんだ?

どの機種を選ぶか、決定的な基準となる。ディセットの準備をします。10回トレーニングするのです。学習誤差の数が全モデルで同じである学習結果(例として)を10モデル得ることができる。そして、学習部のモデル結果をバイナリではなく、デーブルで保存します。多項式計算の結果は、最初はdableで計算されます。

そして、出力に対する多項式のVIを計算する。作業モデルは、VIが出力エントロピーより高いか、単純に約0.7以上であると考えられる......。

OIが高く、0.95を超えないモデルを選択します。まだ検証はしていないものの・・・。IMHO

 

トレーニングサンプルを増やすことについてはたしかに増やすことはできますが、ネットワークの質が低下し、取引の減少につながります。ネットワークの動作時間は長くなり始めるが、「わからない」状態が増え、ネットワークの動作回数が少なくなることが判明した。この方法では、複数のモデルを学習し、並行して実行する必要がある。


ましてや、トレーニング期間はvtreat.Rに指示されるようになった。入力データを使って、異なるサンプル長さの入力セットを提供します。それが選ぶ入力変数の数が最大の学習期間を選ぶと・・・不思議なことに、20から50のサンプルで回転するんです。どうやら私の入力はそのようなものらしい。どうしたらいいんだろう...。

 

ミハイル・マルキュカイツ

...

どの機種を選ぶかの決定的な基準

...

MOに訳してみる。

分類モデルでありながら、0と1の2値だけでなく、あるクラスに属する確率(0から1までの分数)を結果として返すことができる。そのため、分類指標だけでなく、回帰指標でもモデルを推定することができる。なぜ相互情報量にしたのかわかりませんが、MOCと相関があるのでOKです。

Rでは、次のように計算されます。
ライブラリ(entropy)
mi.plugin(rbind(target,prediction))
ここでは、結果が小さいほど良い。

 
なんだかよくわからないけど

もちろん,しかし統計学では誤差(変動)は1/sqrt(N)に比例し,ここでNは観測値の数です,ここではすべてが初期の変動に依存し,それが多ければ多いほど,誤差を5%の分位数に適合させるために多くの観測値が必要とされるでしょう

「己の利を以って人を為すべし

アルトトレードはウェブデザインやその他のフランチャイズではなく、市場からの直接的な資金窃盗です。

そうですね、勝率5%、公開されているツールキットが無限にあるのはクロンダイクですね。

そして最近、カスタムのニューラルネットワークコンポーネントを作ることになったのですが、テストしたところ、TensorFlowの巧妙なDNNよりも3桁も性能が上回ったのです。

そして何より、複雑な計算や技術ではなく、シンプルでありながら独自の解法があったことです。

そんな中で、ミハイルがレシェトフのデザインにこだわったことは、私にとって全く不思議なことではありません。

 
どう だろう。

そういうことです、ただ。私のインフラで40個もサンプルを取ったら、結果も保証できませんし、4,000ポイントなんてたかが知れています。もちろん、記事戦略ではなく、戦闘戦略の話であれば話は別ですが。

私は次のような経験則を守っています。新しいデータのEAは、学習したバーの10%以上では機能しません。4000本で学習させた場合、このEAは400本以上では動作しないことを意味します。例えば、m15で1週間取引したい場合、トレーニング用に最低4800(4*24*5*10、10週)本のヒストリーが必要です。

いつかMT5はExpert Advisorをバックグラウンドで最適化できるように並列スレッドを導入し、極端に少ないバー数で面白い実験ができるようになり、もしかしたら40バーでできるようになるかもしれませんね。おそらくできないだろうが。1000サンプル以下でも、ニューロニクスの結果はトレンドに偏り、それが変化した途端に悪くなるんです。

 
ミハイル・マルキュカイツ

トレーニングサンプルを増やすことについてはたしかに増やすことはできますが、ネットワークの質が低下し、取引の減少につながります。ネットワークの動作時間は長くなり始めるが、「わからない」状態が増え、ネットワークの動作回数が少なくなることが判明した。この方法では、複数のモデルを学習し、並行して実行する必要がある。


ましてや、トレーニング期間はvtreat.Rに指示されるようになった。入力データを使って、異なるサンプル長さの入力セットを提供します。それが選ぶ入力変数の数が最大の学習期間を選ぶと・・・不思議なことに、20から50のサンプルで回転するんです。どうやら私の入力はそのようなものらしい。何ができるのか...。

ネットワークの質は落ちますが、オーバーフィットは減り、モデルはその栄光と貧しさの中に現れるでしょう。

私のレゼトフ神経細胞は、3つのスマートフィクスで1000以上のトレードを3ヶ月間選び、リアルではゼロで動作します。そして、他の神経細胞はさらにうまく最適化します。100回トレードでなんでそんな意味不明なことを言い続けるのかわからない、自己管理か、誰かに何かを証明したいのか、頭が悪いのか?
 

ふふふ、ごきげんよう!(笑)

は、「カーワフィッター」という言葉は、何か神経的なものなのでしょうか?

理由: