トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 488

 
マキシム・ドミトリエフスキー

まあ、チップとターゲットを正しく理解することが問題なのですが、掛け算の表ほど簡単なものはないように思えますが、そこにも小さな間違いはありません。

正しいとは言い切れませんが、そうでない場合、トレーニングの確認ができないため、エラーが発生するのです。

敬意を込めて。
 
アンドレイ・キセリョフ
トレーニングの正しさを確信できない、それ故にエラーが出る。 FXでは、少なくとも何らかの形で、掛け算の表に繰り返しがある、繰り返しがない。

敬意を込めて。

そうですね、RFは外挿が全くできないので、そうなりますね。

 
ヴィザード_。

よろしい


(どこにでも書いてあることですが、ドンマイとか...。)

 
ヴィザード_。

ガラガラも書いてましたね))))でも、別のものを作らせることにしたんですね。
に入れる -。
х = 1 0 1 0 1 0 1 0 1 0
target = 1 0 1 0 1 0 1 0 1 0 0 1 0 1 0 1 0 0
では-
х = 1 0 1 0 1 0 1 0 11
target = 1 0 1 0 1 0 1 0 1 0 0 1 0 1 0 1 0 0
など...
解釈しやすい例については、後述します。
accuracy, lloss, kappa...etc.お好きなように。先ほどのご指摘の通り、よくぞ言ってくれました -。
森には、見るべきものがたくさんある...。


OK、そうなら、戦略を完成させてから、何がどうなっているのか見てみよう :)

 

neuronautsの皆さん、こんにちは。グレートマインド ))

超予測ソフトを開発し、銀行を「金持ちにする」ことに貢献した神経学者についての映画です。



 
アレクサンドル・イワノフ

neuronautsの皆さん、こんにちは。グレートマインド ))

超予測エンジンを作った神経科学者が、ある銀行を「金持ちにする」のを手伝うという映画がありますね。




は、新感覚の癒し系映画「テキサス・チェーンソー・マスケイク」をご覧ください。

 

分類モデルと回帰モデルの両方に共通する問題がいくつもあるように思えてならないのです。


そのような問題の一つが多重共線性であり、通常、入力変数間には相関があると解釈されるが、これは完全には正しくない場合がある。


一般的な意味での多重共線性は、我々のモデリング努力を台無しにする非常に不愉快な結果につながる。

  • モデルパラメータが不確かになる
  • 推定値の標準誤差が無限に大きくなる。


多重共線性を入力変数(説明変数、予測変数)間の線形関係として理解すると、次のような図式になります。

  • OLSの推定値は不偏であるが、分散と共分散が大きく、正確な推定が困難である。
  • その結果、信頼区間が広くなる傾向があります。そのため、「帰無仮説」(すなわち、真のサンプルレートはゼロである)を棄却できない場合があります。
  • tの第一効果のため、1つ以上の係数の比率は統計的に有意でない傾向がある
  • 回帰係数が統計的に有意でない場合でも、R^2値が非常に高くなることがある
  • OLS 推定ツールおよびその標準誤差は、データのわずかな変化に敏感に反応することがある


多重共線性の存在を認識するためのRツールを提供する記事を 紹介します。

Multicollinearity in R
Multicollinearity in R
  • Bidyut Ghosh
  • www.r-bloggers.com
One of the assumptions of Classical Linear Regression Model is that there is no exact collinearity between the explanatory variables. If the explanatory variables are perfectly correlated, you will face with these problems: However, the case of perfect collinearity is very rare in practical cases. Imperfect or less than perfect...
 
サンサニッチ・フォメンコ

分類モデルと回帰モデルの両方に共通する問題がいくつもあるように思えてならないのです。


そのような問題の一つが多重共線性であり、通常、入力変数間には相関があると解釈されるが、これは完全には正しくない場合がある。


一般的な意味での多重共線性は、我々のモデリング努力を台無しにする非常に不愉快な結果につながる。

  • モデルパラメータが不確かになる
  • 推定値の標準誤差が無限に大きくなる。


多重共線性を入力変数(説明変数、予測変数)間の線形関係として理解すると、次のような図式になります。

  • OLSの推定値は不偏であるが、分散と共分散が大きく、正確な推定が困難である。
  • その結果、信頼区間が広くなる傾向があります。そのため、「帰無仮説」(すなわち、真のサンプルレートはゼロである)を棄却できない場合があります。
  • tの第一効果のため、1つ以上の係数の比率は統計的に有意でない傾向がある
  • 回帰係数が統計的に有意でない場合でも、R^2値が非常に高くなることがある
  • OLS 推定ツールおよびその標準誤差は、データのわずかな変化に敏感に反応することがある


多重共線性の存在を認識するためのRツールを提供する記事を 紹介します。


新しい言葉をありがとう、今日もすでに何度かツッコミを入れています :)

他にどんな問題があるのでしょうか?

 

今日、私はペルセトロンに基づく私のネットワークを確認することにしました。2016年5月~6月上旬、EURUSD、スプレッド15pipsに最適化されています。

尻尾そのもの。

この結果には、まだ戸惑っています。

 
FXMAN77 です。

今日、私はペルセトロンに基づく私のネットワークを確認することにしました。2016年5月~6月上旬、EURUSD、スプレッド15pipsに最適化されています。

尻尾そのもの。

今のところ、結果に戸惑っています。

私もちょっとしたショックでも甘えてしまいます。ランダムなサンプルで試しましたが、結果は素晴らしいものでした。TCはまだやっていません。

マキシムは、長い学習曲線だと言っています。私は23時間くらいです。でも、3ヶ月に1回やっても......なんだ、このゴミは)。

そして、3ヶ月で十分であることは確かですが、それ以上のテストはしていません。

理由: