トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1439 1...143214331434143514361437143814391440144114421443144414451446...3399 新しいコメント Forester 2019.04.14 13:59 #14381 マキシム・ドミトリエフスキー 現実的に考えて、catbustでTSを全部書き換えてみるのは...手間もかかるしね。しかし、実際には、小さなデータセットでの学習はforestはよく汎化し、例えば、2-5kサンプルで、同じデータで、2回だけ増やして、完全再学習して動作します。これは事実です。短いデータセットで試したところ、30%の誤差が出る週もあれば、次の週は60~70%の誤差が出る週もありました。つまり、平均50%ということになります。 Maxim Dmitrievsky 2019.04.14 14:00 #14382 エリブラリウス短いデータセットを試したところ、ある週は30%の誤差、次の週は60~70%の誤差ということもありました。平均すると50%になります。例えば、1ヶ月間トレーニングしたら、新しいデータで1年間ほぼ同じように使えるんです。2-3ヶ月トレーニングする→効かなくなる...なんてデタラメもある。 であり、モデル誤差は同じ Forester 2019.04.14 14:02 #14383 マキシム・ドミトリエフスキー例えば、1ヶ月間トレーニングしたら、新しいデータで1年間ほぼ同じように使えるんです。2~3ヶ月のトレーニング→もう効かない...あるあるネタ この結果は自己学習システム上ですか? Maxim Dmitrievsky 2019.04.14 14:05 #14384 エリブラリウス それは自己学習システムでこれらの結果を出しているのですか?そう、その上で、いくつかのトリックを駆使して。一つは、モデルに中間試料を追加することです。例えば、買い取引を開始するシグナルがあったとして、それが開いている限り、それぞれの新しいバーで、チップの新しい読みで、同じ買いマークで別のサンプルを追加します。これにより、誤差を大幅に減らすことができます。ある種のサンプルの複製。 機種によっては誤差が少なくならないかもしれませんが、私の場合はそうなっています。 Forester 2019.04.14 14:08 #14385 マキシム・ドミトリエフスキーそう、その上で、いくつかのトリックを駆使して。一つは、モデルに中間試料を追加することです。例えば、買い取引を開始するシグナルがあったとして、それが開いている限り、それぞれの新しいバーで、チップの新しい読みで、同じ買いマークで別のサンプルを追加します。これにより、誤差を大幅に減らすことができます。何らかのサンプルの重複がある まあ、1本目でターゲットを選ぶようなものですね。残りのサイクルは、基本的に1本目から先生と一緒に学習していくだけです。 この仕掛けで、より多くのバリエーションをテストすることができるのです。 Maxim Dmitrievsky 2019.04.14 14:13 #14386 エリブラリウス まあ、1本目のターゲットマッチングみたいなものですね。残りのサイクルは、基本的に1本目から先生と一緒に学習していくだけです。 このトリックを使えば、より多くのバリエーションをテストすることができます。よくわからないんですけどね。むしろ、サンプルの重複がある。通常は、売買シグナルを出すだけで、その間に相場がどう動くかは気にしない。もし、中間的なサンプルを追加すれば、モデルは自動的により良い分類を行うことができます。 例えば、実際に1000個のサンプル信号があるとすると、中間補強を合わせると5k個以上になります。 Maxim Dmitrievsky 2019.04.14 14:40 #14387 アレクセイ・ヴャジミキン剪定は、少なくとも0.5~1%のサンプルカバー率になるようにカットするなど、完全性をコントロールする必要があります。経験的に適切な深さに切り落とせばいいんです。 Aleksey Vyazmikin 2019.04.14 15:12 #14388 マキシム・ドミトリエフスキー何の完成形か? 経験的に適切な深さに切り取るだけです。リストはサンプルから少なくとも所定の割合の例を含む必要があり、少ない場合は分割を切り捨てます。事例が多ければ多いほど、規則性の確率が高くなる。ここではすべてがシンプルだ。 Aleksey Vyazmikin 2019.04.14 15:16 #14389 マキシム・ドミトリエフスキーそう、その上で、いくつかのトリックを駆使して。一つは、モデルに中間試料を追加することです。例えば、買い取引を開始するシグナルがあったとして、それが開いている限り、それぞれの新しいバーで、チップの新しい読みで、同じ買いマークで別のサンプルを追加します。これにより、誤差を大幅に減らすことができます。ある種のサンプルの複製。 モデルによっては誤差が減らないかもしれませんが、私の場合は強く減りました。私はこのアプローチで始めたのですが、逆にエントリーポイントからエグジットポイントまでの正しい分類曲線の滑らかさを求めようとしたのですが、このアプローチには多くの計算能力が必要で、断念せざるを得ませんでした。逆もある、面白い、カウンタートレンドの可能性もある......。MOのような、自分のシグナルに効くものをどうやって実装しようかと考えているところです。トレーニングの方法はわかりませんが、明らかにそこに可能性があると思います。 Ivan Negreshniy 2019.04.14 15:35 #14390 マキシム・ドミトリエフスキーよくわからないんですけどね。むしろ、サンプルの重複がある。通常は、売買シグナルを出すだけで、その間に相場がどう動くかは気にしない。中間的な支持サンプルを追加すると、モデルはより良く分類されます。 例えば、1000サンプルのシグナルがあれば、中間サポートと合わせて5k以上となります。私も気づいて応用したのですが、私の理解では、データがくだらないからうまくいくのであって、このようなトリックは、異常値の範囲で訓練するのに役立ちます。そうしないと、あるブローカーにモデルがフィットしたり、同じターミナルで何度かデータをリロードして更新した後に動作しなくなることもあります。 1...143214331434143514361437143814391440144114421443144414451446...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
現実的に考えて、catbustでTSを全部書き換えてみるのは...手間もかかるしね。しかし、実際には、小さなデータセットでの学習はforestはよく汎化し、例えば、2-5kサンプルで、同じデータで、2回だけ増やして、完全再学習して動作します。これは事実です。短いデータセットで試したところ、30%の誤差が出る週もあれば、次の週は60~70%の誤差が出る週もありました。つまり、平均50%ということになります。
短いデータセットを試したところ、ある週は30%の誤差、次の週は60~70%の誤差ということもありました。平均すると50%になります。
例えば、1ヶ月間トレーニングしたら、新しいデータで1年間ほぼ同じように使えるんです。2-3ヶ月トレーニングする→効かなくなる...なんてデタラメもある。
であり、モデル誤差は同じ例えば、1ヶ月間トレーニングしたら、新しいデータで1年間ほぼ同じように使えるんです。2~3ヶ月のトレーニング→もう効かない...あるあるネタ
それは自己学習システムでこれらの結果を出しているのですか?
そう、その上で、いくつかのトリックを駆使して。一つは、モデルに中間試料を追加することです。例えば、買い取引を開始するシグナルがあったとして、それが開いている限り、それぞれの新しいバーで、チップの新しい読みで、同じ買いマークで別のサンプルを追加します。これにより、誤差を大幅に減らすことができます。ある種のサンプルの複製。
機種によっては誤差が少なくならないかもしれませんが、私の場合はそうなっています。そう、その上で、いくつかのトリックを駆使して。一つは、モデルに中間試料を追加することです。例えば、買い取引を開始するシグナルがあったとして、それが開いている限り、それぞれの新しいバーで、チップの新しい読みで、同じ買いマークで別のサンプルを追加します。これにより、誤差を大幅に減らすことができます。何らかのサンプルの重複がある
この仕掛けで、より多くのバリエーションをテストすることができるのです。
まあ、1本目のターゲットマッチングみたいなものですね。残りのサイクルは、基本的に1本目から先生と一緒に学習していくだけです。
このトリックを使えば、より多くのバリエーションをテストすることができます。
よくわからないんですけどね。むしろ、サンプルの重複がある。通常は、売買シグナルを出すだけで、その間に相場がどう動くかは気にしない。もし、中間的なサンプルを追加すれば、モデルは自動的により良い分類を行うことができます。
例えば、実際に1000個のサンプル信号があるとすると、中間補強を合わせると5k個以上になります。剪定は、少なくとも0.5~1%のサンプルカバー率になるようにカットするなど、完全性をコントロールする必要があります。
経験的に適切な深さに切り落とせばいいんです。
何の完成形か? 経験的に適切な深さに切り取るだけです。
リストはサンプルから少なくとも所定の割合の例を含む必要があり、少ない場合は分割を切り捨てます。事例が多ければ多いほど、規則性の確率が高くなる。ここではすべてがシンプルだ。
そう、その上で、いくつかのトリックを駆使して。一つは、モデルに中間試料を追加することです。例えば、買い取引を開始するシグナルがあったとして、それが開いている限り、それぞれの新しいバーで、チップの新しい読みで、同じ買いマークで別のサンプルを追加します。これにより、誤差を大幅に減らすことができます。ある種のサンプルの複製。
モデルによっては誤差が減らないかもしれませんが、私の場合は強く減りました。私はこのアプローチで始めたのですが、逆にエントリーポイントからエグジットポイントまでの正しい分類曲線の滑らかさを求めようとしたのですが、このアプローチには多くの計算能力が必要で、断念せざるを得ませんでした。逆もある、面白い、カウンタートレンドの可能性もある......。MOのような、自分のシグナルに効くものをどうやって実装しようかと考えているところです。トレーニングの方法はわかりませんが、明らかにそこに可能性があると思います。
よくわからないんですけどね。むしろ、サンプルの重複がある。通常は、売買シグナルを出すだけで、その間に相場がどう動くかは気にしない。中間的な支持サンプルを追加すると、モデルはより良く分類されます。
例えば、1000サンプルのシグナルがあれば、中間サポートと合わせて5k以上となります。私も気づいて応用したのですが、私の理解では、データがくだらないからうまくいくのであって、このようなトリックは、異常値の範囲で訓練するのに役立ちます。そうしないと、あるブローカーにモデルがフィットしたり、同じターミナルで何度かデータをリロードして更新した後に動作しなくなることもあります。