トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 369 1...362363364365366367368369370371372373374375376...3399 新しいコメント Maxim Dmitrievsky 2017.05.21 15:24 #3681 elibrarius: ちなみに、EURUSDのM1チャートで、出口に向かって、10~60までの期間(6枚)で相関を確認しました(ジグザグはないですが、近いものがありますね)。-0.00,0.01,0.00,0.01,0.01,-0.01の相関は-0.01から0.01で、つまり全く相関がない。しかし、Expert Advisorは利益を表示しています。このルールで動く普通のEAを書く方がよっぽど簡単だと思うんです。 さて、出力では、同じ回帰の増分をある規則に従って、オフセットをつけて、あるいはいくつかの回帰(複数の出力)を与えてください...そして、相関は正常になります。そして、期間を変えてより多くの回帰を入力します。MLP は garch のようなクールな回帰 モデルを自分自身の中に構築します.)しかし一般的には、より高度なニューラルネットワーク、例えばLSTMが必要です。オプティマイザーを通すので、利益が出るのです、汚い結果ですが :) フィットは、フォワードではあまり長く使えないと言えます (まあ、期間はそうですが) Forester 2017.05.21 15:39 #3682 良い入力を見つけること以上に、正しいターゲットマークアップを見つけることが問題であるように思います。 結局のところ、チャート上では、ジグザグ(あるいは他の方法)から得られるポイントとは別に、トレードが利益を生む瞬間やバーが何十回も存在するのである。しかし、NSはこの1つの学習バリエーションだけを使って、取引を修正しようとしている。 そして、trendlinearregの例は、それをよく表しています。 Maxim Dmitrievsky 2017.05.21 15:51 #3683 エリブラリウス 良い入力を見つけること以上に、正しいターゲットマークアップを見つけることが問題であるように思います。 結局のところ、チャート上には、ジグザグ法(あるいは他の方法)から得られるポイントに加えて、トレードが利益を生むポイント/バーが何十本もある。しかし、NSはこの1つの学習バリエーションだけを使って、取引を修正しようとしている。 このことは、トレンドリニアレグの例でよくわかります。 したがって、NSはシステムの一部、フィルター、あるいは異なるNSのアンサンブルとして使用する必要がある Алёша 2017.05.21 17:14 #3684 ディミトリ すべてのMOは、入力変数と出力変数が相関していなければならないという事実に基づいている。そうでなければ、ALL MOモデルの意味がありません。 本気で勘違いしている。相関はあくまで リニア の依存性がある場合、y = kxとなり、些細なXORデータセットでも個々の特徴とターゲットの相関はゼロとなりますが、非線形分類器では容易に解くことができます。 Дмитрий 2017.05.21 17:28 #3685 Alesha: あなたは本気で勘違いしています。相関はあくまで リニア の依存性がある場合、y = kxとなり、些細なXORデータセットでも個々の特徴とターゲットの相関はゼロとなりますが、非線形分類器では容易に解くことができます。 THISを読むこと3回......このクズっぷりは理解しがたい......。それで?入力変数の1つ以上(の一部)が出力との相関が0に近い重回帰でも、モデルは高い予測精度を与えることができます。それがどうした?これらの変数を取り除くと、問題の次元が下がり、精度が上がります。それがどうした?あなたの投稿のポイントは何ですか? Дмитрий 2017.05.21 17:29 #3686 不要な」変数を捨てることで、モデルの次元を下げるという問題を解決している。DMの場合は、モデルの予測精度を高めることもできます。NSの精度については、わかりません。 Алёша 2017.05.21 18:25 #3687 ディミトリ THISを3回読む - このスクラップを難なく理解する...。それがどうした?入力変数の1つ以上(の一部)が出力変数と0に近い相関を持ちながら、モデルが高い予測精度を与えるような重回帰を取ることができるのです。それがどうした?これらの変数を取り除くと、問題の次元が下がり、精度が上がります。それがどうした?あなたの投稿のポイントは何ですか? チー、チー...おっと!まさか!・・・。チェックするのやめてよ旦那、地下室じゃないんだからさ)))チップはターゲットと相関があるはず、相関がないものは捨ててもいい、とおっしゃいましたが、そうではないということです。XORを取って調べてみてください。相関がないとチップは重要になります。関係が線形でない、それだけです。相関は関係の線形成分をキャッチしているだけです。 Дмитрий 2017.05.21 18:35 #3688 アリョーシャ なあんだおっと!まさか!・・・。チェックするのはやめてください、ここは地下室ではありません)))チップはターゲットと相関があるべきで、相関がないものは捨てられると言いましたが、それは間違いです。XORをとって確認してください。相関は線形ではないので、チップが重要です。それだけです。相関は、相関の線形成分をキャッチしているだけなのです。 線形相関が0、非線形依存性が強い例を教えてください。 Алёша 2017.05.21 18:47 #3689 ディミトリ 線形相関が0になり、非線形関係が強くなるような例を教えてください。XORデータセットと言った Дмитрий 2017.05.21 18:48 #3690 アリョーシャ XORデータセットと言った 例はありますか?受信データの行と送信データの行を表示する - 公開する 1...362363364365366367368369370371372373374375376...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
ちなみに、EURUSDのM1チャートで、出口に向かって、10~60までの期間(6枚)で相関を確認しました(ジグザグはないですが、近いものがありますね)。
-0.00,0.01,0.00,0.01,0.01,-0.01
の相関は-0.01から0.01で、つまり全く相関がない。
しかし、Expert Advisorは利益を表示しています。このルールで動く普通のEAを書く方がよっぽど簡単だと思うんです。
さて、出力では、同じ回帰の増分をある規則に従って、オフセットをつけて、あるいはいくつかの回帰(複数の出力)を与えてください...そして、相関は正常になります。そして、期間を変えてより多くの回帰を入力します。MLP は garch のようなクールな回帰 モデルを自分自身の中に構築します.)しかし一般的には、より高度なニューラルネットワーク、例えばLSTMが必要です。
オプティマイザーを通すので、利益が出るのです、汚い結果ですが :) フィットは、フォワードではあまり長く使えないと言えます (まあ、期間はそうですが)
結局のところ、チャート上では、ジグザグ(あるいは他の方法)から得られるポイントとは別に、トレードが利益を生む瞬間やバーが何十回も存在するのである。しかし、NSはこの1つの学習バリエーションだけを使って、取引を修正しようとしている。
そして、trendlinearregの例は、それをよく表しています。
良い入力を見つけること以上に、正しいターゲットマークアップを見つけることが問題であるように思います。
結局のところ、チャート上には、ジグザグ法(あるいは他の方法)から得られるポイントに加えて、トレードが利益を生むポイント/バーが何十本もある。しかし、NSはこの1つの学習バリエーションだけを使って、取引を修正しようとしている。
このことは、トレンドリニアレグの例でよくわかります。
したがって、NSはシステムの一部、フィルター、あるいは異なるNSのアンサンブルとして使用する必要がある
すべてのMOは、入力変数と出力変数が相関していなければならないという事実に基づいている。
そうでなければ、ALL MOモデルの意味がありません。
あなたは本気で勘違いしています。相関はあくまで リニア の依存性がある場合、y = kxとなり、些細なXORデータセットでも個々の特徴とターゲットの相関はゼロとなりますが、非線形分類器では容易に解くことができます。
THISを読むこと3回......このクズっぷりは理解しがたい......。
それで?
入力変数の1つ以上(の一部)が出力との相関が0に近い重回帰でも、モデルは高い予測精度を与えることができます。
それがどうした?
これらの変数を取り除くと、問題の次元が下がり、精度が上がります。
それがどうした?
あなたの投稿のポイントは何ですか?
不要な」変数を捨てることで、モデルの次元を下げるという問題を解決している。
DMの場合は、モデルの予測精度を高めることもできます。
NSの精度については、わかりません。
THISを3回読む - このスクラップを難なく理解する...。
それがどうした?
入力変数の1つ以上(の一部)が出力変数と0に近い相関を持ちながら、モデルが高い予測精度を与えるような重回帰を取ることができるのです。
それがどうした?
これらの変数を取り除くと、問題の次元が下がり、精度が上がります。
それがどうした?
あなたの投稿のポイントは何ですか?
チー、チー...おっと!まさか!・・・。
チェックするのやめてよ旦那、地下室じゃないんだからさ)))
チップはターゲットと相関があるはず、相関がないものは捨ててもいい、とおっしゃいましたが、そうではないということです。XORを取って調べてみてください。相関がないとチップは重要になります。関係が線形でない、それだけです。相関は関係の線形成分をキャッチしているだけです。
なあんだおっと!まさか!・・・。
チェックするのはやめてください、ここは地下室ではありません)))
チップはターゲットと相関があるべきで、相関がないものは捨てられると言いましたが、それは間違いです。XORをとって確認してください。相関は線形ではないので、チップが重要です。それだけです。相関は、相関の線形成分をキャッチしているだけなのです。
線形相関が0、非線形依存性が強い例を教えてください。
線形相関が0になり、非線形関係が強くなるような例を教えてください。
XORデータセットと言った
XORデータセットと言った
例はありますか?
受信データの行と送信データの行を表示する - 公開する