トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3023 1...301630173018301930203021302230233024302530263027302830293030...3399 新しいコメント СанСаныч Фоменко 2023.04.12 08:36 #30221 Maxim Dmitrievsky #:これは簡単に自動化でき、人間の介入なしに機能する同様のアルゴリズムは前回の記事で紹介した。要するに、モデル・エラーをフィルタリングし、「取引しない」という別のクラスに分類するのである。そして、穀物だけが最初のモデルに残る。これはツリー・ルールと同じだが、横から見た場合だ。しかし、ルールは略奪され、互いに比較されるべきであり、出力にはすでに洗練されたTSがある。 私は上で、モデルのエラーは捨てられないと正当化した。 私は自分の意見を変えたい。 しかし、この目的のためには必要なのだ。 トレーニング選択範囲とその外での初期モデルの評価 トレーニング・セレクションの外側で、前の2つのモデルとは一致しない "クリーニングされた "モデルの評価 可能か? Maxim Dmitrievsky 2023.04.12 08:38 #30222 СанСаныч Фоменко #:モデルの誤差を否定することはできないことは前述の通りだ。生憎のりましてむな。、生半可なりません。トレーニング選択時および選択解除時の初期モデルの評価トレーニング・セレクションの外側で、前の2つのモデルとは一致しない "クリーニングされた "モデルの推定可能か?上にいくつかの画面を追加しましたこの方法で穀物と籾殻を分けるアルゴリズムは様々である。点線の左はOOSで、トレーニングには一切参加しない。ークレメントなどのーク 黄色の曲線は、相場表そのものである。しかし、どのような状況でモデルがより良く/より悪く機能するかを理解するために使用することができます。 Maxim Dmitrievsky 2023.04.12 08:48 #30223 一度にたくさんのエラーを捨てると、教師は退化する(エラーがたくさん残って粒がゼロになる可能性がある)ので、反復ごとに少しずつ捨てていくOOSの誤差は徐々に減少し、この場合r^2は増加するIteration: 0, R^2: 0.10170503363002426 Iteration: 1, R^2: 0.3786110827222656 Iteration: 2, R^2: 0.36326063198923375 Iteration: 3, R^2: 0.4316690005974817 Iteration: 4, R^2: 0.71390099630815 Iteration: 5, R^2: 0.8178962191209952 要するに、これはfxsaberのbestintervalのアナログであるが、ここではTSが一度に準備されるだけである。 Rorschach 2023.04.12 09:08 #30224 Aleksey Vyazmikin #: 全部載っていると思います。Kaggleとframevoc fast.aiの創設者であるジェレミー・ハワードの本です。 Fast.ai。 原書 ロシア語の本 無料版 СанСаныч Фоменко 2023.04.12 09:14 #30225 Maxim Dmitrievsky #:一度にたくさんのエラーを捨てると、教師は退化する(エラーがたくさん残って粒がゼロになる可能性がある)ので、反復ごとに少しずつ捨てていくOOSエラーは徐々に減少し、この場合r^2は増加する。 要するに、fxsaberのbestintervalのアナログですが、ここではTSが一度に準備されます。 私には、この引用に過剰なフィッティングがある。 Out of sample "はどこですか? Maxim Dmitrievsky 2023.04.12 09:20 #30226 そうやって木をいじってからルールを抜けば、もっと良くなるかもしれない。 Maxim Dmitrievsky 2023.04.12 09:20 #30227 СанСаныч Фоменко #:私には、この言葉がとてもしっくりくる。アウト・オブ・サンプル』はどこだ? もう笑えない。 Maxim Dmitrievsky 2023.04.12 09:51 #30228 Aleksey Vyazmikin #: 私はこの帽子を、葉を選択できるパイソンのツリーで作ることを提案する。 もし、どちらが良いか悪いか、ベストなものだけを選ぶルールや、フィルターを通して選ぶルールなど、何かアイデアがあれば提案してほしい。 つのデータセットを両方のアプローチにかけた上で比較したい。そうすれば、何が何なのか理解できるだろう :) Aleksey Vyazmikin 2023.04.12 11:01 #30229 Maxim Dmitrievsky #:これは簡単に自動化でき、人間の介入なしに機能する同様のアルゴリズムは前回の記事で紹介した。要するに、モデル・エラーをフィルタリングし、「取引しない」という別のクラスに分類するのである。そして、穀物だけが最初のモデルに残る。これはツリー・ルールと同じだが、横から見た場合だ。しかし、ルールは略奪され、互いに比較されるべきであり、出力にはすでに洗練されたTSがある。例えば、籾殻から穀物を選択する最初の反復(縦の点線の左 - OOS):そしてこれが10回目: そう、ポイントは同じで、予測因子をよりよく記述するデータで最終的に作業することである。 どのようにこれを最も効率的に行うかはまだ未解決の問題で、それぞれの方法には長所と短所があります。 Aleksey Vyazmikin 2023.04.12 11:07 #30230 Rorschach #:ー全部載っているとーKaggleとframevoc fast.aiの創設者であるジェレミー・ハワードの本です。ー Fast.ai.ー原書ロシア語の本無料版 ありがとう!ロシア語の無料版を探さないといけないね。翻訳者が時々真珠を作ってくれたり、食塩水について教えてくれたりするから、役に立つよ :) 1...301630173018301930203021302230233024302530263027302830293030...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
これは簡単に自動化でき、人間の介入なしに機能する
同様のアルゴリズムは前回の記事で紹介した。
要するに、モデル・エラーをフィルタリングし、「取引しない」という別のクラスに分類するのである。
そして、穀物だけが最初のモデルに残る。
これはツリー・ルールと同じだが、横から見た場合だ。しかし、ルールは略奪され、互いに比較されるべきであり、出力にはすでに洗練されたTSがある。
私は上で、モデルのエラーは捨てられないと正当化した。
私は自分の意見を変えたい。
しかし、この目的のためには必要なのだ。
トレーニング選択範囲とその外での初期モデルの評価
トレーニング・セレクションの外側で、前の2つのモデルとは一致しない "クリーニングされた "モデルの評価
可能か?
モデルの誤差を否定することはできないことは前述の通りだ。
生憎のりましてむな。
、生半可なりません。
トレーニング選択時および選択解除時の初期モデルの評価
トレーニング・セレクションの外側で、前の2つのモデルとは一致しない "クリーニングされた "モデルの推定
可能か?
上にいくつかの画面を追加しました
この方法で穀物と籾殻を分けるアルゴリズムは様々である。
点線の左はOOSで、トレーニングには一切参加しない。
ークレメントなどのーク
黄色の曲線は、相場表そのものである。しかし、どのような状況でモデルがより良く/より悪く機能するかを理解するために使用することができます。一度にたくさんのエラーを捨てると、教師は退化する(エラーがたくさん残って粒がゼロになる可能性がある)ので、反復ごとに少しずつ捨てていく
OOSの誤差は徐々に減少し、この場合r^2は増加する
要するに、これはfxsaberのbestintervalのアナログであるが、ここではTSが一度に準備されるだけである。全部載っていると思います。Kaggleとframevoc fast.aiの創設者であるジェレミー・ハワードの本です。
Fast.ai。
原書
ロシア語の本
無料版
一度にたくさんのエラーを捨てると、教師は退化する(エラーがたくさん残って粒がゼロになる可能性がある)ので、反復ごとに少しずつ捨てていく
OOSエラーは徐々に減少し、この場合r^2は増加する。
要するに、fxsaberのbestintervalのアナログですが、ここではTSが一度に準備されます。私には、この引用に過剰なフィッティングがある。
Out of sample "はどこですか?
私には、この言葉がとてもしっくりくる。
アウト・オブ・サンプル』はどこだ?
もう笑えない。
私はこの帽子を、葉を選択できるパイソンのツリーで作ることを提案する。
もし、どちらが良いか悪いか、ベストなものだけを選ぶルールや、フィルターを通して選ぶルールなど、何かアイデアがあれば提案してほしい。
つのデータセットを両方のアプローチにかけた上で比較したい。そうすれば、何が何なのか理解できるだろう :)
これは簡単に自動化でき、人間の介入なしに機能する
同様のアルゴリズムは前回の記事で紹介した。
要するに、モデル・エラーをフィルタリングし、「取引しない」という別のクラスに分類するのである。
そして、穀物だけが最初のモデルに残る。
これはツリー・ルールと同じだが、横から見た場合だ。しかし、ルールは略奪され、互いに比較されるべきであり、出力にはすでに洗練されたTSがある。
例えば、籾殻から穀物を選択する最初の反復(縦の点線の左 - OOS):
そしてこれが10回目:
そう、ポイントは同じで、予測因子をよりよく記述するデータで最終的に作業することである。
どのようにこれを最も効率的に行うかはまだ未解決の問題で、それぞれの方法には長所と短所があります。
ー全部載っているとーKaggleとframevoc fast.aiの創設者であるジェレミー・ハワードの本です。
ー Fast.ai.
ー原書
ロシア語の本
無料版
ありがとう!ロシア語の無料版を探さないといけないね。翻訳者が時々真珠を作ってくれたり、食塩水について教えてくれたりするから、役に立つよ :)