トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1301 1...129412951296129712981299130013011302130313041305130613071308...3399 新しいコメント Maxim Dmitrievsky 2019.02.08 09:07 #13001 アレクセイ・ヴャジミキンモデル評価は、不慣れなサンプルに適用しても、モデルの性能に影響を与えないか?何種類もモデルを作って、どれが一番効くかチェックしてるんですか? 葉っぱ」と「葉っぱの選び方」など、どんな関係があるのでしょうか? 何を書いているのか理解したいんです。 それとも一行が一枚のシートに相当するのか Aleksey Vyazmikin 2019.02.08 09:18 #13002 マキシム・ドミトリエフスキーいろいろなモデルを作って、どれが一番うまくいくかをチェックしているのですか? 葉っぱ」、「最高の葉っぱを選ぶ」など、どんな関係があるのでしょうか? 時々、書いてあることを理解しようと思って。私は、興味深いモデルを選択する方法として、既知の基準や公式を用いる方法(私が現在行っているように、各サンプルについて最後の3列を埋めて表を作り、3つのフィルター列が一致すれば、そのモデルが選択されます)と、独立サンプリングでモデルに求めるものが分かっているが、それを達成する方法が分からない場合に機械学習を用いる方法があることを説明しました。そこで、2つ目の方法として、モデルのさまざまな指標が予測因子となり、その上でモデルを学習させるのですが、このとき、すでにMOによって類似のデータから適切なモデルが選択されています。その年に同じようなトレーニングの経験があり、精度の面では良かったのですが、完成度の面ではあまり良くなかったので、サンプルの多様性が足りないと判断し、良い時期まで作業を先延ばしにしました。現在、さまざまなサンプルが生成されており、この作品に戻ることが可能です。利用可能なプールからベストを選ぶのではなく、MOであれ固定指数であれ、絶対的な基準でベストを選ぶというのが本筋である。 葉は一部のモデルで動作します。 各ラインは独立したモデルです。 Maxim Dmitrievsky 2019.02.08 09:22 #13003 アレクセイ・ヴャジミキン私は、興味深いモデルを選択する方法として、既知の基準や公式(私が現在行っているように、各サンプルについて最後の3列を埋めて表を作成し、3つのフィルター列が一致すればモデルが選択されます)、または機械学習(独立サンプルの作業でモデルに求めるものを理解しているが、それを達成する方法が分からない場合)があることを説明しました。そこで、第二の方法では、モデルの異なる指標を予測因子とし、その上でモデルを学習させ、MOを通じて類似のデータから適切なモデルを選択する。その年に同じようなトレーニングの経験があり、精度の面では良かったのですが、完成度の面ではあまり良くなかったので、サンプルの多様性が足りないと判断し、良い時期まで作業を先延ばしにしました。現在、さまざまなサンプルが生成されており、この仕事を見直すことが可能です。利用可能なプールからベストを選ぶのではなく、MOであれ固定指数であれ、絶対的な基準でベストを選ぶというのが本筋である。 葉はすでに選択されたモデルで動作しています。では、(ファイルにあるように)n個のモデルを取り、そのメトリクスをNSの予測因子として入力すると、何が出てくるのでしょうか? このような指標ではモデルが機能するが、このような指標では機能しないというような、経験からの推定があるのか? そして、このようなものを使って新機種をフィルタリングするのですか?まあ、NSが勝手にMIモデルを選択するようなもの? Aleksey Vyazmikin 2019.02.08 10:13 #13004 マキシム・ドミトリエフスキーつまり、その後、(ファイルのように)n個のモデルを取り、そのメトリクスをNSの予測因子として入力し、そして何が出てくるか? このような指標ではモデルが機能するが、このような指標では機能しないというような、経験からの推定はありますか? そして、このようなものを使って新機種をフィルタリングするのですか?まあ、NSが勝手にMIモデルを選択するようなもの?実験するときは、テストサンプルで同様の指標をとり、テスト(トレーニングとは無関係)サンプルの結果をターゲットサンプルに入れました。ターゲットとなる指標は、利益とドローダウン(買い取引と売り取引で別々)、そしてモデル自体の指標から何かを選びました - 正確には覚えていません。今はテストサンプルのデータにトレーニングサンプルのメトリクスを追加する必要があり(この時はCatbustで結果が大きく変わる可能性があることを知りませんでした)、まだターゲットの1つで実験する必要があるのです。 得られたモデルに、モデルを持つ他のサンプルの結果を与えたところ、その時の主な結果は、採算の合わないモデルをうまくフィルタリングすることができました。 Maxim Dmitrievsky 2019.02.08 10:19 #13005 アレクセイ・ヴャジミキン実験するときは、テストサンプルで同様の指標をとり、テスト(トレーニングとは無関係)サンプルの結果をターゲットサンプルに入れました。ターゲットは、利益、ドローダウン(買い取引と売り取引で別々)、そしてモデル自体からの何か、正確には覚えていません。今はテストサンプルのデータに、トレーニングサンプルのメトリクスを加えなければなりませんし(当時はCatbustで結果が大きく異なる可能性があることを知りませんでした)、ターゲットの方でももっと実験しなければなりません。それはとても不思議なオリエンテーションのソリューションですね。私はそのようなものを見たことがないので、何も言えません。 が、問題なく動作する場合 Aleksey Vyazmikin 2019.02.08 10:40 #13006 マキシム・ドミトリエフスキーこのようなものは見たことがないので、何とも言えませんが、とても奇妙な装飾が施されたソリューションです。 が、うまくいけばいいのですがこれは、モデルの構造、テストとトレーニングのサンプルでの振る舞いによって、実際の仕事での振る舞いに一定の期待を抱かせることができるというものです。 これは非常に面白い方向性ですが、時間とリソースが必要です。一方、オープンな形で予測器を共同開発し、交換することも可能です。 モデルからその将来の性能について何も言えないのであれば、それはすべて時間の無駄であり、偶然の産物である......。 Maxim Dmitrievsky 2019.02.08 10:52 #13007 アレクセイ・ヴャジミキンこれは、モデルの構造、テストとトレーニングのサンプルでの振る舞いによって、実際の仕事での振る舞いに一定の期待を抱かせることができるというものです。 これは非常に面白い方向性ですが、時間とリソースが必要です。一方、オープンな形で予測器を共同開発し、交換することも可能です。 モデルから将来のパフォーマンスについて何も語れないのであれば、すべてのMOは時間の無駄であり、偶然の産物である......。 時間が経つと結果のばらつきが大きくなるので、その点も考慮しなければならない。新規取引ですぐに壊れてしまうモデルはその時だけフィッティング、それ以外は締め付けにトライしてください。最も簡単な改善方法は、正則化(katbustの勾配ステップ)か、単に調整しないことです。 マーチンゲールのようなものを使って、人々がどのように取引しているか見てみましょう。MoDはすでに何らかのアドバンテージを与えています。 複雑なベイズ推定モデルについて書かないのは、私自身がベイズ推定モデルの扱い方を完全に理解していないためで、まだ学ぶべきことがたくさんあります。 Aleksey Vyazmikin 2019.02.08 11:03 #13008 マキシム・ドミトリエフスキー 時間が経つにつれて、結果の広がりが大きくなる、これを考慮する必要があります。新規取引ですぐにパターンが崩れるようなら微調整が必要だが、そうでなければ押し目買いをしてみてもよいだろう。 その他にも、マーチンゲールなど、人々の取引方法を観察することもできます。MOはすでにある程度のアドバンテージがある昨日、Catbustは葉っぱ(二分木)にノイズを作るので、それを除去すればモデルが改善されることを示しました。この方向でもう少し実験して、フィルタリングを増やしたところ、ある閾値を超えると、逆説的なことが起こることがわかりました。つまり、実際には、モデルは低い重みの接続でローリングすることによって(トレーニングから独立したサンプルで)動作し続けることが判明し、実際にフィッティングが行われ、重みの分布が正しくないか、モデルがオーバートレーニングでホワイトノイズ(正確にはノイズではなく、バイナリツリーのあまり重要ではない指標で)でランダムに動作するという疑問が出てくるのです。こうした関係がどこから来るのか、短い試験サンプルで意味を見出すことも可能だと思います。 Maxim Dmitrievsky 2019.02.08 11:06 #13009 アレクセイ・ヴャジミキン昨日、Catbustが葉っぱ(2分木)にノイズを発生させ、それを除去することでモデルが改善されることを示しました。この方向でもう少し実験して、フィルタリングを増やしたところ、ある閾値を超えると、逆説的なことが起こることがわかりました。つまり、実際には、重みの少ない関係では、モデルは通常通り動作し続け、実際にはフィッティングがあり、重みの分布が間違っているか、モデルが再トレーニングされて、誤ってホワイトノイズ(正確にはノイズではなく、二分木のあまり意味のない指標)に対して動作しているのではないかという疑問があることがわかりました。また、これらの関係がどこから来たのか、短い試験サンプルでその意味を確認することもできると思います。どこを掘っても、幻想的な「規則性」は、どんな現象にも見出せる 何より嬉しいのは、「予測因子」の数が多いことです。引用元はどこでしょうか?そこには9割のゴミがある。 Aleksey Vyazmikin 2019.02.08 11:17 #13010 マキシム・ドミトリエフスキー全く分からないし、木や葉っぱには手を出さないし、出すつもりもない...全てはモデルそのもののレベルで出来ることです。 どのように掘っても、どんな現象にも幻想的な「パターン」が存在する。 だから、既知の方法で仕事をすればいいのです。そして、私はハンドチューニングに触発されただけで、パッシブマジックへの信頼を失ってしまったのです。 葉の重みの正確なアルゴリズムは知りませんが、リンクそのものだけでなく、見つかったリンクのシーケンスに依存すると思います。つまり、ブースティングの新しい木がエラーを修正している場合、重みはエラー修正のデルタで与えられ、新しいリンクは修正そのものよりも価値があるかもしれないのです。理想的には、リンクとその重みを再確認し、決定に関わる二分木の数をチェックし、合計で0.5の確率を与える木が12本あれば、それは弱いリンクかもしれない...と考えるべきです。一方、ツリー自体の大きさも考慮する必要があります(今は、葉の短いルールを識別するためだけに、深さ4を使用しています)。これは単なる思いつきで、答えは必要ありません ... 1...129412951296129712981299130013011302130313041305130613071308...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
モデル評価は、不慣れなサンプルに適用しても、モデルの性能に影響を与えないか?
何種類もモデルを作って、どれが一番効くかチェックしてるんですか?
葉っぱ」と「葉っぱの選び方」など、どんな関係があるのでしょうか?
何を書いているのか理解したいんです。
それとも一行が一枚のシートに相当するのかいろいろなモデルを作って、どれが一番うまくいくかをチェックしているのですか?
葉っぱ」、「最高の葉っぱを選ぶ」など、どんな関係があるのでしょうか?
時々、書いてあることを理解しようと思って。
私は、興味深いモデルを選択する方法として、既知の基準や公式を用いる方法(私が現在行っているように、各サンプルについて最後の3列を埋めて表を作り、3つのフィルター列が一致すれば、そのモデルが選択されます)と、独立サンプリングでモデルに求めるものが分かっているが、それを達成する方法が分からない場合に機械学習を用いる方法があることを説明しました。そこで、2つ目の方法として、モデルのさまざまな指標が予測因子となり、その上でモデルを学習させるのですが、このとき、すでにMOによって類似のデータから適切なモデルが選択されています。その年に同じようなトレーニングの経験があり、精度の面では良かったのですが、完成度の面ではあまり良くなかったので、サンプルの多様性が足りないと判断し、良い時期まで作業を先延ばしにしました。現在、さまざまなサンプルが生成されており、この作品に戻ることが可能です。利用可能なプールからベストを選ぶのではなく、MOであれ固定指数であれ、絶対的な基準でベストを選ぶというのが本筋である。
葉は一部のモデルで動作します。
各ラインは独立したモデルです。私は、興味深いモデルを選択する方法として、既知の基準や公式(私が現在行っているように、各サンプルについて最後の3列を埋めて表を作成し、3つのフィルター列が一致すればモデルが選択されます)、または機械学習(独立サンプルの作業でモデルに求めるものを理解しているが、それを達成する方法が分からない場合)があることを説明しました。そこで、第二の方法では、モデルの異なる指標を予測因子とし、その上でモデルを学習させ、MOを通じて類似のデータから適切なモデルを選択する。その年に同じようなトレーニングの経験があり、精度の面では良かったのですが、完成度の面ではあまり良くなかったので、サンプルの多様性が足りないと判断し、良い時期まで作業を先延ばしにしました。現在、さまざまなサンプルが生成されており、この仕事を見直すことが可能です。利用可能なプールからベストを選ぶのではなく、MOであれ固定指数であれ、絶対的な基準でベストを選ぶというのが本筋である。
葉はすでに選択されたモデルで動作しています。
では、(ファイルにあるように)n個のモデルを取り、そのメトリクスをNSの予測因子として入力すると、何が出てくるのでしょうか?
このような指標ではモデルが機能するが、このような指標では機能しないというような、経験からの推定があるのか?
そして、このようなものを使って新機種をフィルタリングするのですか?まあ、NSが勝手にMIモデルを選択するようなもの?
つまり、その後、(ファイルのように)n個のモデルを取り、そのメトリクスをNSの予測因子として入力し、そして何が出てくるか?
このような指標ではモデルが機能するが、このような指標では機能しないというような、経験からの推定はありますか?
そして、このようなものを使って新機種をフィルタリングするのですか?まあ、NSが勝手にMIモデルを選択するようなもの?
実験するときは、テストサンプルで同様の指標をとり、テスト(トレーニングとは無関係)サンプルの結果をターゲットサンプルに入れました。ターゲットとなる指標は、利益とドローダウン(買い取引と売り取引で別々)、そしてモデル自体の指標から何かを選びました - 正確には覚えていません。今はテストサンプルのデータにトレーニングサンプルのメトリクスを追加する必要があり(この時はCatbustで結果が大きく変わる可能性があることを知りませんでした)、まだターゲットの1つで実験する必要があるのです。
得られたモデルに、モデルを持つ他のサンプルの結果を与えたところ、その時の主な結果は、採算の合わないモデルをうまくフィルタリングすることができました。実験するときは、テストサンプルで同様の指標をとり、テスト(トレーニングとは無関係)サンプルの結果をターゲットサンプルに入れました。ターゲットは、利益、ドローダウン(買い取引と売り取引で別々)、そしてモデル自体からの何か、正確には覚えていません。今はテストサンプルのデータに、トレーニングサンプルのメトリクスを加えなければなりませんし(当時はCatbustで結果が大きく異なる可能性があることを知りませんでした)、ターゲットの方でももっと実験しなければなりません。
それはとても不思議なオリエンテーションのソリューションですね。私はそのようなものを見たことがないので、何も言えません。
が、問題なく動作する場合このようなものは見たことがないので、何とも言えませんが、とても奇妙な装飾が施されたソリューションです。
が、うまくいけばいいのですがこれは、モデルの構造、テストとトレーニングのサンプルでの振る舞いによって、実際の仕事での振る舞いに一定の期待を抱かせることができるというものです。
これは非常に面白い方向性ですが、時間とリソースが必要です。一方、オープンな形で予測器を共同開発し、交換することも可能です。
モデルからその将来の性能について何も言えないのであれば、それはすべて時間の無駄であり、偶然の産物である......。
これは、モデルの構造、テストとトレーニングのサンプルでの振る舞いによって、実際の仕事での振る舞いに一定の期待を抱かせることができるというものです。
これは非常に面白い方向性ですが、時間とリソースが必要です。一方、オープンな形で予測器を共同開発し、交換することも可能です。
モデルから将来のパフォーマンスについて何も語れないのであれば、すべてのMOは時間の無駄であり、偶然の産物である......。
時間が経つと結果のばらつきが大きくなるので、その点も考慮しなければならない。新規取引ですぐに壊れてしまうモデルはその時だけフィッティング、それ以外は締め付けにトライしてください。最も簡単な改善方法は、正則化(katbustの勾配ステップ)か、単に調整しないことです。
マーチンゲールのようなものを使って、人々がどのように取引しているか見てみましょう。MoDはすでに何らかのアドバンテージを与えています。
複雑なベイズ推定モデルについて書かないのは、私自身がベイズ推定モデルの扱い方を完全に理解していないためで、まだ学ぶべきことがたくさんあります。時間が経つにつれて、結果の広がりが大きくなる、これを考慮する必要があります。新規取引ですぐにパターンが崩れるようなら微調整が必要だが、そうでなければ押し目買いをしてみてもよいだろう。
その他にも、マーチンゲールなど、人々の取引方法を観察することもできます。MOはすでにある程度のアドバンテージがある
昨日、Catbustは葉っぱ(二分木)にノイズを作るので、それを除去すればモデルが改善されることを示しました。この方向でもう少し実験して、フィルタリングを増やしたところ、ある閾値を超えると、逆説的なことが起こることがわかりました。つまり、実際には、モデルは低い重みの接続でローリングすることによって(トレーニングから独立したサンプルで)動作し続けることが判明し、実際にフィッティングが行われ、重みの分布が正しくないか、モデルがオーバートレーニングでホワイトノイズ(正確にはノイズではなく、バイナリツリーのあまり重要ではない指標で)でランダムに動作するという疑問が出てくるのです。こうした関係がどこから来るのか、短い試験サンプルで意味を見出すことも可能だと思います。
昨日、Catbustが葉っぱ(2分木)にノイズを発生させ、それを除去することでモデルが改善されることを示しました。この方向でもう少し実験して、フィルタリングを増やしたところ、ある閾値を超えると、逆説的なことが起こることがわかりました。つまり、実際には、重みの少ない関係では、モデルは通常通り動作し続け、実際にはフィッティングがあり、重みの分布が間違っているか、モデルが再トレーニングされて、誤ってホワイトノイズ(正確にはノイズではなく、二分木のあまり意味のない指標)に対して動作しているのではないかという疑問があることがわかりました。また、これらの関係がどこから来たのか、短い試験サンプルでその意味を確認することもできると思います。
どこを掘っても、幻想的な「規則性」は、どんな現象にも見出せる
何より嬉しいのは、「予測因子」の数が多いことです。引用元はどこでしょうか?そこには9割のゴミがある。
全く分からないし、木や葉っぱには手を出さないし、出すつもりもない...全てはモデルそのもののレベルで出来ることです。
どのように掘っても、どんな現象にも幻想的な「パターン」が存在する。
だから、既知の方法で仕事をすればいいのです。
そして、私はハンドチューニングに触発されただけで、パッシブマジックへの信頼を失ってしまったのです。
葉の重みの正確なアルゴリズムは知りませんが、リンクそのものだけでなく、見つかったリンクのシーケンスに依存すると思います。つまり、ブースティングの新しい木がエラーを修正している場合、重みはエラー修正のデルタで与えられ、新しいリンクは修正そのものよりも価値があるかもしれないのです。理想的には、リンクとその重みを再確認し、決定に関わる二分木の数をチェックし、合計で0.5の確率を与える木が12本あれば、それは弱いリンクかもしれない...と考えるべきです。一方、ツリー自体の大きさも考慮する必要があります(今は、葉の短いルールを識別するためだけに、深さ4を使用しています)。これは単なる思いつきで、答えは必要ありません ...