トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 550 1...543544545546547548549550551552553554555556557...3399 新しいコメント Alexander_K2 2018.01.05 14:37 #5491 マキシム・ドミトリエフスキー そうですね、これらは既製の計量経済学的モデルではなく、あらゆる分野に共通するツール群に過ぎません。ノンパラメトリック計量経済学は IRとファジーロジックだけですが、一般的なアプローチが練られていないためか、まだまとまったものは見当たりません。どういう仕組みかわからないけど :) マキシムさん、悪い意味で恐縮ですが、私の意見としては-ニューラルネットワークは、私が記事で読んだような方法では応用が利かないのです。価格の確率密度を扱わなければならないのに、正規化するとはいえ、価格そのものを扱っているわけです。ここに、ハイゼンベルクの不確定性原理との消えない矛盾がある。でも、口出しはしませんよ〜、やっぱり面白いですから。 Maxim Dmitrievsky 2018.01.05 14:42 #5492 Alexander_K2 です。 マキシム 何が起こるかわからないのが怖いですが、私の意見では - ニューラルネットワークは、私が記事で読んだような方法では適用できないです。価格の確率密度を扱うべきなのに、正規化しながら価格そのものを扱っている。ここに、ハイゼンベルクの不確定性原理との消えない矛盾がある。でも、口出しはしませんよ〜、やっぱり面白いですから。あなたは干渉しない、あなたが望むものを書く - それは公共のフォーラムです。そして、あなたのディストリビューションにも、「なんとも言えない」アイデアがいくつもある限り、一度にではなく、必ずたどり着きます :DPythonやRを通してLRやRFの機能の重要性を知ることができたから踊らされただけで、その後夢中になってさらに探求を始めたのですNSのボットには、市場の変化を考慮して、定期的に「良い機能」を自動で投入する必要がありますが、それ以外は問題なく動作しています...。 削除済み 2018.01.05 19:55 #5493 マキシム・ドミトリエフスキー あなたは干渉しない、あなたが望むものを書く - それは公共のフォーラムです。そして、あなたのディストリビューションにも、「何とも言えない」アイデアがいくつもある限り、一度にではなく、必ず手に入れることができます :DPythonやRを通してLRやRFの機能の重要性を知ることができたから踊らされただけで、その後夢中になってさらに探求を始めたのですNSのロボットなら、相場の変化を考慮して、定期的に自動運転の「良い兆候」を与えるべきですが、それ以外は問題なく動いています...。マキシム、Expert Advisorはどうした?テストはどこで受けられるのですか? Grigoriy Chaunin 2018.01.06 02:05 #5494 https://github.com/RandomKori/Py36MT5 MT5用Pythonライブラリのソースはこちらです。唯一の問題は、配列の場合です。配列の受け渡しや受信が正常に行われない。Visual StudioでDLLのコードをデバッグしてみました。そこではすべてがうまくいく。問題は、端末のバグかもしれないということです。ライブラリとの連携方法は書いていません。意味がないんです。アレイがなければ誰も必要としない。pythom.mqhファイルにねじ込まれているかもしれませんが、それを理解するのを助けてください。皆さんのお役に立てるはずです。 Grigoriy Chaunin 2018.01.06 02:20 #5495 実際の配列は、そのとおりに動作する。配列の長い配列は機能しない。 Grigoriy Chaunin 2018.01.06 02:36 #5496 イントのロングを交換した。これですべてがうまくいくようになりました。ライブラリーを利用することができます。使用上のコメントのみ記載されます。 Maxim Dmitrievsky 2018.01.06 05:27 #5497 geratdc: マキシム、EAはどうしたんだ?テストはどこで見ることができるのか、それともすべて機密事項なのか?だんだん良くなってきている・・・が、複雑なため徐々に Maxim Dmitrievsky 2018.01.06 08:15 #5498 市場向けモデルの構築方法に関するいくつかの見解/考察(経験から)。ニューラルネットワーク分類器の場合:クラスバランシングは必須で、2つ以上のクラスの例数をバランスさせなければならない。もしモデルがトレンドセグメントで学習されたものであれば、シグナルをミラーリングし、逆の例を追加することができます。同時に、標識は明確なターゲットと相関してはならない。ニューラルネットワークのリグレッサーの場合:特に出力価格でモデルを学習させる場合、少なくとも1つの指標はターゲットと強く 相関している必要があります。そうしないと、リグレッサが木の中で迷子になってしまい、サンプルに繰り返しの例や類似の例が含まれていても、出力価格が異なれば、価格を正しく予測することができなくなります。この目的のために,他の機能に加えて,大きなラグ(50以上)のある正規化された増分を与えることができます. 学習サンプルが大きければ大きいほど,繰り返しの変種を除外するために必要なラグが大きくなります.また、このようなシリーズを、増分を互いにずらして複数供給すれば、個々のケースをほぼ明確に解釈することができる。ランダムフォレストを 分類器とする場合:NSと同じ。ランダムフォレストをリグレッサーとする場合:NSと同じでほとんど意味がないが、出力時に価格を出すことは不可能(フォレストは外挿をしないため)、またこのような目的で増分を与えると、フォレストは重複例が多くなり、3松に混じってしまうため、注意が必要。 СанСаныч Фоменко 2018.01.06 08:26 #5499 マキシム・ドミトリエフスキー市場向けモデルの構築方法に関するいくつかの見解/考察(経験から)。ニューラルネットワーク分類器の場合:クラスバランシングは必須で、2つ以上のクラスの例数をバランスさせなければならない。もしモデルがトレンドセグメントで学習されたものであれば、シグナルをミラーリングし、逆の例を追加することができます。この場合、 信号がターゲットとなるものと相関がとれて いないはずで、それは理解できる。ただ、逆の意見もあります。リアルに作業しているところまで証拠がある。ひとつだけはっきりしているのは、コーヒーの粉と土星の輪で分類を作るのは不可能だ、NEVER-シャーマニズムだ、ということです。アウトオブサンプルモデルは、予測変数の入力セットのノイズを取り除き、ターゲット変数に関連するものだけを残せば、インサンプルとほぼ同じ結果を得ることができます。さらに、私はノイズを除去するアルゴリズムを持っており、残りの予測変数の計算結果は、この予測変数のセットに対して分類が行われる限界誤差を提供します。 Maxim Dmitrievsky 2018.01.06 08:30 #5500 サンサニッチ・フォメンコ 正反対である。実作業に近いところまで証明しています。ひとつだけはっきりしているのは、コーヒーのかすや土星の輪をもとにした分類は、絶対にシャーマニズムではありえないということです。アウトオブサンプルモデルは、予測変数の入力セットのノイズを取り除き、ターゲット変数に関連するものだけを残せば、インサンプルとほぼ同じ結果を得ることができます。さらに、ノイズを除去するアルゴリズムも持っていて、残った予測変数の計算結果は、その予測変数の集合に対する分類が行われる限界誤差を与えます。この問題は、非線形分類器を得た場合、私には明らかではありません...そこで何と何を相関させるべきなのでしょうか?そして、もしカテゴリカルな特徴があれば、回帰は全く機能しませんが、分類は機能します。が、退路のために正当化される 1...543544545546547548549550551552553554555556557...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
そうですね、これらは既製の計量経済学的モデルではなく、あらゆる分野に共通するツール群に過ぎません。
ノンパラメトリック計量経済学は IRとファジーロジックだけですが、一般的なアプローチが練られていないためか、まだまとまったものは見当たりません。どういう仕組みかわからないけど :)
マキシム 何が起こるかわからないのが怖いですが、私の意見では - ニューラルネットワークは、私が記事で読んだような方法では適用できないです。価格の確率密度を扱うべきなのに、正規化しながら価格そのものを扱っている。ここに、ハイゼンベルクの不確定性原理との消えない矛盾がある。でも、口出しはしませんよ〜、やっぱり面白いですから。
あなたは干渉しない、あなたが望むものを書く - それは公共のフォーラムです。そして、あなたのディストリビューションにも、「なんとも言えない」アイデアがいくつもある限り、一度にではなく、必ずたどり着きます :D
PythonやRを通してLRやRFの機能の重要性を知ることができたから踊らされただけで、その後夢中になってさらに探求を始めたのです
NSのボットには、市場の変化を考慮して、定期的に「良い機能」を自動で投入する必要がありますが、それ以外は問題なく動作しています...。
あなたは干渉しない、あなたが望むものを書く - それは公共のフォーラムです。そして、あなたのディストリビューションにも、「何とも言えない」アイデアがいくつもある限り、一度にではなく、必ず手に入れることができます :D
PythonやRを通してLRやRFの機能の重要性を知ることができたから踊らされただけで、その後夢中になってさらに探求を始めたのです
NSのロボットなら、相場の変化を考慮して、定期的に自動運転の「良い兆候」を与えるべきですが、それ以外は問題なく動いています...。
マキシム、Expert Advisorはどうした?テストはどこで受けられるのですか?
https://github.com/RandomKori/Py36MT5 MT5用Pythonライブラリのソースはこちらです。唯一の問題は、配列の場合です。配列の受け渡しや受信が正常に行われない。Visual StudioでDLLのコードをデバッグしてみました。そこではすべてがうまくいく。問題は、端末のバグかもしれないということです。ライブラリとの連携方法は書いていません。意味がないんです。アレイがなければ誰も必要としない。pythom.mqhファイルにねじ込まれているかもしれませんが、それを理解するのを助けてください。皆さんのお役に立てるはずです。
実際の配列は、そのとおりに動作する。配列の長い配列は機能しない。
イントのロングを交換した。これですべてがうまくいくようになりました。ライブラリーを利用することができます。使用上のコメントのみ記載されます。
マキシム、EAはどうしたんだ?テストはどこで見ることができるのか、それともすべて機密事項なのか?
だんだん良くなってきている・・・が、複雑なため徐々に
市場向けモデルの構築方法に関するいくつかの見解/考察(経験から)。
ニューラルネットワーク分類器の場合:クラスバランシングは必須で、2つ以上のクラスの例数をバランスさせなければならない。もしモデルがトレンドセグメントで学習されたものであれば、シグナルをミラーリングし、逆の例を追加することができます。同時に、標識は明確なターゲットと相関してはならない。
ニューラルネットワークのリグレッサーの場合:特に出力価格でモデルを学習させる場合、少なくとも1つの指標はターゲットと強く 相関している必要があります。そうしないと、リグレッサが木の中で迷子になってしまい、サンプルに繰り返しの例や類似の例が含まれていても、出力価格が異なれば、価格を正しく予測することができなくなります。この目的のために,他の機能に加えて,大きなラグ(50以上)のある正規化された増分を与えることができます. 学習サンプルが大きければ大きいほど,繰り返しの変種を除外するために必要なラグが大きくなります.また、このようなシリーズを、増分を互いにずらして複数供給すれば、個々のケースをほぼ明確に解釈することができる。
ランダムフォレストを 分類器とする場合:NSと同じ。
ランダムフォレストをリグレッサーとする場合:NSと同じでほとんど意味がないが、出力時に価格を出すことは不可能(フォレストは外挿をしないため)、またこのような目的で増分を与えると、フォレストは重複例が多くなり、3松に混じってしまうため、注意が必要。
市場向けモデルの構築方法に関するいくつかの見解/考察(経験から)。
ニューラルネットワーク分類器の場合:クラスバランシングは必須で、2つ以上のクラスの例数をバランスさせなければならない。もしモデルがトレンドセグメントで学習されたものであれば、シグナルをミラーリングし、逆の例を追加することができます。この場合、 信号がターゲットとなるものと相関がとれて いないはずで、それは理解できる。
ただ、逆の意見もあります。リアルに作業しているところまで証拠がある。ひとつだけはっきりしているのは、コーヒーの粉と土星の輪で分類を作るのは不可能だ、NEVER-シャーマニズムだ、ということです。アウトオブサンプルモデルは、予測変数の入力セットのノイズを取り除き、ターゲット変数に関連するものだけを残せば、インサンプルとほぼ同じ結果を得ることができます。さらに、私はノイズを除去するアルゴリズムを持っており、残りの予測変数の計算結果は、この予測変数のセットに対して分類が行われる限界誤差を提供します。
正反対である。実作業に近いところまで証明しています。ひとつだけはっきりしているのは、コーヒーのかすや土星の輪をもとにした分類は、絶対にシャーマニズムではありえないということです。アウトオブサンプルモデルは、予測変数の入力セットのノイズを取り除き、ターゲット変数に関連するものだけを残せば、インサンプルとほぼ同じ結果を得ることができます。さらに、ノイズを除去するアルゴリズムも持っていて、残った予測変数の計算結果は、その予測変数の集合に対する分類が行われる限界誤差を与えます。
この問題は、非線形分類器を得た場合、私には明らかではありません...そこで何と何を相関させるべきなのでしょうか?そして、もしカテゴリカルな特徴があれば、回帰は全く機能しませんが、分類は機能します。
が、退路のために正当化される