トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 419 1...412413414415416417418419420421422423424425426...3399 新しいコメント Mihail Marchukajtes 2017.06.23 15:52 #4181 よし、ここに情報を投下しよう。事は私が市場を予測 するために使用されるべきかのデータのアイデアを持っているということですが、残念ながら私は、誰かがコレクションの組織で助けた場合、私は彼のオプティマイザ、よく、全体としての戦略を共有するだろう、完全かつ適切な形でそれらを収集 することはできません。データはすでに十分なのですが、スーパーになるためには、何かを加えなければなりません。プログラミングに強い人、複数のサイトのオンラインデータをcsvファイルで取得できる人。 Aleksey Terentev 2017.06.23 20:03 #4182 ミハイル・マルキュカイツよし、ここに情報を載せよう。市場 予測をするためにどのようなデータを使うべきかはある程度わかっているのですが、残念ながらそれらをすべて、正しい 形で集めることはできません。 もし誰かが収集の整理を手伝ってくれたら、その人とオプティマイザーと戦略全般を共有 できたと思います。データはすでに十分なのですが、スーパーになるためには、何かを加えなければなりません。プログラミングに強く、複数のサイトのオンラインデータをcsvファイルで取得できる人は? 私のモデルは、マルチスレッドで多様化したデータに基づいています。データ解析の経験がある。ぜひ参加させてください。 Yuriy Asaulenko 2017.06.23 20:35 #4183 ニューラルネットワークのパラメータの選択については、ブログ -SELECTING NEUROSET CONFIGURATION に書きました。 少なくとも最初の段階では、そうしておいた方がいい。つまり、後で必要なら、NSを簡略化することもできるのだ。ブログでの選択の例は抽象的ですが、私がNSのパラメータを選択したのも同様の考察からです。学習成果はおおむね悪くない。やや恐ろしいのは、NSの量です。3MAの例では、すでに100ニューロン以上あり、まだTSではなく、そのテンプレートに過ぎないのです。 Maxim Dmitrievsky 2017.06.23 20:44 #4184 ユーリイ・アサウレンコニューラルネットワークのパラメータの選択については、ブログ -SELECTING NEUROSET CONFIGURATION に書きました。 少なくとも最初の段階では、そうしておいた方がいい。つまり、後で必要なら、NSを簡略化することもできるのだ。ブログでの選択の例は抽象的ですが、私がNSのパラメータを選択したのも同様の考察からです。学習成果はおおむね悪くない。NSのボリュームが少し怖いですね。3MAの例では、すでに100ニューロン以上あり、まだTSではなく、そのためのテンプレートに過ぎないのです。週末か来週に、私が興味深い予測物質をここに投じるので、それに対するあなたの意見を聞かせてください。MT5ではインジケーターの形をした予測因子のみ、4つある私はいくつかのいくつかの時間のための予測としてそれらを使用しようとすると、私は挑戦 - 誰がこれらの予測によって稼ぐためにNSを教えることができるようになりますを整理する機会を持つことになります)まだ習得していませんが、今のところ実験していません。 Yuriy Asaulenko 2017.06.23 20:57 #4185 マキシム・ドミトリエフスキー週末か来週に、私が面白い予想をここに掲載しますので、それについて意見を聞かせてください......と、こんな感じでやってみましょうか。mt5のインジケータ形式のプレディクタのみ、4本。これらの予測因子によって稼ぐためにNSを教えることができる人 - チャレンジを整理することが可能になります:)しかし、今のところ、私はMPを使って利益を上げるトレードを教えることはできません。(まあ、本格的なトレードを始めるのはまだまだ先の話ですが)。1ヶ月以上続けています。あなたのインジケータを使うなら面白いけど、私のインジケータを使うことはない。実は、ベース(2008年の初期バージョン)は、こちら -ButterworthMoving Average - indicator for MetaTrader 4 で見ることができます。もちろん、今はすべてが違ってきています。 Maxim Dmitrievsky 2017.06.23 20:59 #4186 ユーリイ・アサウレンコまあ、本格的なトレードはまだまだ先ですが(笑)。もう1ヶ月以上続けています。良いExpert Advisorがあれば、参考にさせていただきます。ただし、ベース(2008年の初期バージョン)はこちら -ButterworthMoving Average - indicator for MetaTrader 4 で確認できます。もちろん、今はすべてが変わっています。 はい、そうします。ただ、私の脳が筒抜けになることがあるので、外部の意見が必要なのです :) Алёша 2017.06.24 11:04 #4187 私は誰も怒らせたくないのですが、残念なことに、ほとんどの方はターゲットの正しい準備の仕方を知らないのです。低速キャンドル(10分以上)のチップの感動的な結果(75-80%の精度)は、実際には純粋な汗水たらしての作業です。55%の精度はSharpe Ratioを2より高くするのに十分で、遅いデータで60%の精度は伝説である、Sharpe Ratio 3-4、リアルでそのように取引する人はいない、HFT連中だけだが、彼らは取引コストのスケールが違う、SRが 少ない <2が儲けなしだ。 要するに... ターゲットが見えない!? つまり、ターゲットを計算するときに、特徴を計算するときに使うデータをHOWEVERで使ってはいけない、そうでないと結果がポカポカになる、ということです。明らかな理由で、ZZの ような「手品」は 、特徴を計算する領域から遠く離れた極値間を補間し、結果は法外で、少なくとも90%の精度は問題なく、偽物である。これが、「予報はメインではない」「やはりTSを開発すべき」などの猥談の根拠になっている。だから、実はこの「90%」は、相変わらず「愛すべき」50%なのです。 合理的であること :) СанСаныч Фоменко 2017.06.24 12:41 #4188 アリョーシャ 要するに... ターゲット(機能)を見てはいけません。 つまり、ターゲットを計算する際に、フィーチャーの計算でEVERが使用したデータは使用できず、そうでなければ、結果はスイープになってしまうのです。明らかな理由で、ZZの ような「手品」は 、特徴を計算する領域から遠く離れた極値間を補間し、結果は法外で、少なくとも90%の精度は問題なく、偽物である。これが、「予報は重要ではない」「TSを開発すべきだ」などという曖昧模糊とした議論の根底にあるのです。だから、実はこの「90%」は、相変わらず「愛すべき」50%なのです。 合理的であること :)ZZについての結論だけでなく、一般的にあなたの結論に同意することはできません。例えばRSI。ZZまたはその逆をこの特定の予測変数に補間する。一方、ZZの予測因子としてのRSIは悪くない予測能力を持つことを示すことができます。また、例えば、ウェービングにはZZに対する予測能力はなく、ZZに対しては100%ノイズとなり、予測因子としては全く役に立ちません。mashkaをベースにしたモデルは誤差10%以下で得られますが、この学習済みモデルを学習ファイルと関連付けられていない新しいファイルに対して実行すると、任意のエラーが発生します。ご指摘の、まさにこのRZが導き出されたRZの予測変数の中に予測変数があるという問題に加えて、もう一つ、対象変数から独立した根本的な問題があります。それは、予測変数が対象変数と関連していない特定の(RZも例外ではない)対象変数のノイズである、という問題です。ノイズはとても便利な予測因子です。ノイズの値の中から、予測誤差を小さくする値を必ず見つけることができる。これを理解していないと、5%前後の予測誤差がよく出てしまいます。 しかし、もし特定のターゲット変数に対するノイズから予測変数の初期セットをクリーンアップすることができれば、少なくとも私にとっては、誤差を30%以下にすることは非常に難しいことです。結論:特定のターゲット変数に対してノイズとなる予測変数は過学習を招き、ZZも例外ではありません。 Алёша 2017.06.24 13:08 #4189 SanSanych Fomenko: 私は、ZZについてのあなたの結論にも、一般的な結論にも同意することはできません。例えばRSI。ZZまたはその逆をこの特定の予測変数に補間する。一方、ZZの予測因子としてのRSIは悪くない予測能力を持つことを示すことができます。また、例えば、ウェービングにはZZに対する予測能力はなく、ZZに対しては100%ノイズとなり、予測因子としては全く役に立ちません。mashkaをベースにしたモデルは誤差10%以下で得られますが、この学習済みモデルを学習ファイルと関連付けられていない新しいファイルに対して実行すると、任意のエラーが発生します。ご指摘の、まさにこのRZが導き出されたRZの予測変数の中に予測変数があるという問題に加えて、もう一つ、対象変数から独立した根本的な問題があります。それは、予測変数が対象変数と関連していない特定の(RZも例外ではない)対象変数のノイズである、という問題です。ノイズはとても便利な予測因子です。ノイズの値の中から、予測誤差を小さくする値を必ず見つけることができる。これを理解していないと、5%前後の予測誤差がよく出てしまいます。 しかし、特定のターゲット変数に対するノイズから予測変数の初期セットをクリーンアップする方法を知っている場合、少なくとも私にとって、誤差を30%以下にすることは非常に困難です。結論:オーバートレーニングは、特定のターゲット変数に対するノイズとなる予測因子によって引き起こされ、ZZも例外ではありません。 ファイン!この極めて重要なテーマについて、議論を戦わせましょう。その真相を解明するために、一連の実験を行うことを提案します。 だから、私は主張する。 1) 正しい、特徴合成とランダムな時系列の 束から2つのクラスへの分類は、十分なサンプル(5-10kから)があれば、50%の精度(コインのように)を与えます。統計的に有意な精度の偏り(51%以上)がある場合は、特徴合成や分類の過程に誤りがあると考えられる。 2) 特徴量の算出に使用したデータを使用したターゲットを使用した場合、アプリオリに予測できないランダムなタイミングで、精度に大きな偏り(55、60、90%)が発生する(50%)。つまり、この悲しみは偽りだということだ。 СанСаныч Фоменко 2017.06.24 13:21 #4190 アリョーシャ 2) 特質計算に使用したターゲティングデータを使用すると、先験的に予測できない精度の大きな偏り(55, 60, 90%) ON RANDOM TIMES(50%)が発生する。つまり、このゲージは偽物ということだ。そして、なぜ何かを確認するのか?私にとっては当たり前のことです。RSI-ZZの例を挙げましたが、共通するものはなく、50%以下の誤差でモデルを構築することができます。別の例として、mashka-ZZは10%以下の誤差で済む。新しいファイルでテストすると、完全に任意の結果になります。 1...412413414415416417418419420421422423424425426...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
よし、ここに情報を載せよう。市場 予測をするためにどのようなデータを使うべきかはある程度わかっているのですが、残念ながらそれらをすべて、正しい 形で集めることはできません。 もし誰かが収集の整理を手伝ってくれたら、その人とオプティマイザーと戦略全般を共有 できたと思います。データはすでに十分なのですが、スーパーになるためには、何かを加えなければなりません。プログラミングに強く、複数のサイトのオンラインデータをcsvファイルで取得できる人は?
ニューラルネットワークのパラメータの選択については、ブログ -SELECTING NEUROSET CONFIGURATION に書きました。
少なくとも最初の段階では、そうしておいた方がいい。つまり、後で必要なら、NSを簡略化することもできるのだ。
ブログでの選択の例は抽象的ですが、私がNSのパラメータを選択したのも同様の考察からです。学習成果はおおむね悪くない。
やや恐ろしいのは、NSの量です。3MAの例では、すでに100ニューロン以上あり、まだTSではなく、そのテンプレートに過ぎないのです。
ニューラルネットワークのパラメータの選択については、ブログ -SELECTING NEUROSET CONFIGURATION に書きました。
少なくとも最初の段階では、そうしておいた方がいい。つまり、後で必要なら、NSを簡略化することもできるのだ。
ブログでの選択の例は抽象的ですが、私がNSのパラメータを選択したのも同様の考察からです。学習成果はおおむね悪くない。
NSのボリュームが少し怖いですね。3MAの例では、すでに100ニューロン以上あり、まだTSではなく、そのためのテンプレートに過ぎないのです。
週末か来週に、私が興味深い予測物質をここに投じるので、それに対するあなたの意見を聞かせてください。MT5ではインジケーターの形をした予測因子のみ、4つある
私はいくつかのいくつかの時間のための予測としてそれらを使用しようとすると、私は挑戦 - 誰がこれらの予測によって稼ぐためにNSを教えることができるようになりますを整理する機会を持つことになります)まだ習得していませんが、今のところ実験していません。
週末か来週に、私が面白い予想をここに掲載しますので、それについて意見を聞かせてください......と、こんな感じでやってみましょうか。mt5のインジケータ形式のプレディクタのみ、4本。
これらの予測因子によって稼ぐためにNSを教えることができる人 - チャレンジを整理することが可能になります:)しかし、今のところ、私はMPを使って利益を上げるトレードを教えることはできません。
(まあ、本格的なトレードを始めるのはまだまだ先の話ですが)。1ヶ月以上続けています。
あなたのインジケータを使うなら面白いけど、私のインジケータを使うことはない。実は、ベース(2008年の初期バージョン)は、こちら -ButterworthMoving Average - indicator for MetaTrader 4 で見ることができます。もちろん、今はすべてが違ってきています。
まあ、本格的なトレードはまだまだ先ですが(笑)。もう1ヶ月以上続けています。
良いExpert Advisorがあれば、参考にさせていただきます。ただし、ベース(2008年の初期バージョン)はこちら -ButterworthMoving Average - indicator for MetaTrader 4 で確認できます。もちろん、今はすべてが変わっています。
はい、そうします。ただ、私の脳が筒抜けになることがあるので、外部の意見が必要なのです :)
私は誰も怒らせたくないのですが、残念なことに、ほとんどの方はターゲットの正しい準備の仕方を知らないのです。低速キャンドル(10分以上)のチップの感動的な結果(75-80%の精度)は、実際には純粋な汗水たらしての作業です。55%の精度はSharpe Ratioを2より高くするのに十分で、遅いデータで60%の精度は伝説である、Sharpe Ratio 3-4、リアルでそのように取引する人はいない、HFT連中だけだが、彼らは取引コストのスケールが違う、SRが 少ない <2が儲けなしだ。
要するに...
ターゲットが見えない!?
つまり、ターゲットを計算するときに、特徴を計算するときに使うデータをHOWEVERで使ってはいけない、そうでないと結果がポカポカになる、ということです。明らかな理由で、ZZの ような「手品」は 、特徴を計算する領域から遠く離れた極値間を補間し、結果は法外で、少なくとも90%の精度は問題なく、偽物である。これが、「予報はメインではない」「やはりTSを開発すべき」などの猥談の根拠になっている。だから、実はこの「90%」は、相変わらず「愛すべき」50%なのです。
合理的であること :)
要するに...
ターゲット(機能)を見てはいけません。
つまり、ターゲットを計算する際に、フィーチャーの計算でEVERが使用したデータは使用できず、そうでなければ、結果はスイープになってしまうのです。明らかな理由で、ZZの ような「手品」は 、特徴を計算する領域から遠く離れた極値間を補間し、結果は法外で、少なくとも90%の精度は問題なく、偽物である。これが、「予報は重要ではない」「TSを開発すべきだ」などという曖昧模糊とした議論の根底にあるのです。だから、実はこの「90%」は、相変わらず「愛すべき」50%なのです。
合理的であること :)
ZZについての結論だけでなく、一般的にあなたの結論に同意することはできません。
例えばRSI。ZZまたはその逆をこの特定の予測変数に補間する。一方、ZZの予測因子としてのRSIは悪くない予測能力を持つことを示すことができます。また、例えば、ウェービングにはZZに対する予測能力はなく、ZZに対しては100%ノイズとなり、予測因子としては全く役に立ちません。mashkaをベースにしたモデルは誤差10%以下で得られますが、この学習済みモデルを学習ファイルと関連付けられていない新しいファイルに対して実行すると、任意のエラーが発生します。
ご指摘の、まさにこのRZが導き出されたRZの予測変数の中に予測変数があるという問題に加えて、もう一つ、対象変数から独立した根本的な問題があります。それは、予測変数が対象変数と関連していない特定の(RZも例外ではない)対象変数のノイズである、という問題です。ノイズはとても便利な予測因子です。ノイズの値の中から、予測誤差を小さくする値を必ず見つけることができる。これを理解していないと、5%前後の予測誤差がよく出てしまいます。
しかし、もし特定のターゲット変数に対するノイズから予測変数の初期セットをクリーンアップすることができれば、少なくとも私にとっては、誤差を30%以下にすることは非常に難しいことです。
結論:特定のターゲット変数に対してノイズとなる予測変数は過学習を招き、ZZも例外ではありません。
私は、ZZについてのあなたの結論にも、一般的な結論にも同意することはできません。
例えばRSI。ZZまたはその逆をこの特定の予測変数に補間する。一方、ZZの予測因子としてのRSIは悪くない予測能力を持つことを示すことができます。また、例えば、ウェービングにはZZに対する予測能力はなく、ZZに対しては100%ノイズとなり、予測因子としては全く役に立ちません。mashkaをベースにしたモデルは誤差10%以下で得られますが、この学習済みモデルを学習ファイルと関連付けられていない新しいファイルに対して実行すると、任意のエラーが発生します。
ご指摘の、まさにこのRZが導き出されたRZの予測変数の中に予測変数があるという問題に加えて、もう一つ、対象変数から独立した根本的な問題があります。それは、予測変数が対象変数と関連していない特定の(RZも例外ではない)対象変数のノイズである、という問題です。ノイズはとても便利な予測因子です。ノイズの値の中から、予測誤差を小さくする値を必ず見つけることができる。これを理解していないと、5%前後の予測誤差がよく出てしまいます。
しかし、特定のターゲット変数に対するノイズから予測変数の初期セットをクリーンアップする方法を知っている場合、少なくとも私にとって、誤差を30%以下にすることは非常に困難です。
結論:オーバートレーニングは、特定のターゲット変数に対するノイズとなる予測因子によって引き起こされ、ZZも例外ではありません。
ファイン!この極めて重要なテーマについて、議論を戦わせましょう。その真相を解明するために、一連の実験を行うことを提案します。
だから、私は主張する。
1) 正しい、特徴合成とランダムな時系列の 束から2つのクラスへの分類は、十分なサンプル(5-10kから)があれば、50%の精度(コインのように)を与えます。統計的に有意な精度の偏り(51%以上)がある場合は、特徴合成や分類の過程に誤りがあると考えられる。
2) 特徴量の算出に使用したデータを使用したターゲットを使用した場合、アプリオリに予測できないランダムなタイミングで、精度に大きな偏り(55、60、90%)が発生する(50%)。つまり、この悲しみは偽りだということだ。
2) 特質計算に使用したターゲティングデータを使用すると、先験的に予測できない精度の大きな偏り(55, 60, 90%) ON RANDOM TIMES(50%)が発生する。つまり、このゲージは偽物ということだ。
そして、なぜ何かを確認するのか?私にとっては当たり前のことです。
RSI-ZZの例を挙げましたが、共通するものはなく、50%以下の誤差でモデルを構築することができます。
別の例として、mashka-ZZは10%以下の誤差で済む。新しいファイルでテストすると、完全に任意の結果になります。