トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1839 1...183218331834183518361837183818391840184118421843184418451846...3399 新しいコメント Mihail Marchukajtes 2020.06.21 17:26 #18381 mytarmailS: アハハハ ))))笑)。 ビッチはトリックスターの言葉通りです。ハレからプロギアライズ!!!!焦って待っている...。 Forester 2020.06.22 16:43 #18382 皆さんのアドバイスをお願いします。 Darchのパッケージには、モデル評価のオプションとして次のようなものがありました。 トラックとOOBセクションでの誤差を計算します。 そして、総誤差は err = oob_error * comb_err_tr + train_err * (1 - comb_err_tr) のように計算されます。 ここで、comb_err_tr = 0.62です。trainセクションとoobセクションからの誤差の寄与を制御する乗算器です。0 に設定すると、列車のみによる推定となる。1に設定すると、推定はoobのみとなります。 0.62は、oobの誤差がモデル全体の推定値でもう少し重みを持つことを意味する。 一時期、この処方を使用していましたが、今は疑問を持っています。 oobの誤差は通常限界があり、オーバートレーニングが続くとtrainでは0にもなる。 約このような感じ。(緑は式による推定誤差) この式によると、trnの誤差が減少することにより、誤差は減少し続けることになります。そして、trnの減少が止まって初めて下げ止まりとなる。同時に、オーバートレーニングが始まると、oobの誤差が大きくなり始める。 私の考えでは、err by formulaが成長し始めた時点で学習を止めるのは遅すぎると思います。 oobの誤差が最小になる時点でも最適とは言えません。幸運なランダム化により、偶然にもoobによる最小値を見つけることができましたが、oobに手を加えているのかもしれません。 oobの最小誤差を、trainの誤差の限界値としてカウントすればいいのでは?つまり、trnの誤差がoobの最適な誤差と等しくなったとき(縦線を 引いたところ)、モデルの学習を停止するのでしょうか?oobのエラーは悪化するが、電車にもoobにも合わないだろう。 Valeriy Yastremskiy 2020.06.22 19:16 #18383 elibrarius: 皆さんのアドバイスをお願いします。 Darchのパッケージには、モデル評価のオプションとして次のようなものがありました。 トラックとOOBセクションでの誤差を計算します。 そして、総誤差は err = oob_error * comb_err_tr + train_err * (1 - comb_err_tr) のように計算されます。 ここで、comb_err_tr = 0.62です。trainセクションとoobセクションからの誤差の寄与を制御する乗算器です。0 に設定すると、列車のみによる推定となる。1に設定すると、推定はoobのみとなります。0.62は、oobの誤差がモデル全体の推定値で少し重みを持つことを意味する。 一時期、この処方を使用していましたが、今は疑問を持っています。oobの誤差は通常限界があり、オーバートレーニングが続くとtrainでは0にもなる。 約このような感じ。(緑は式による推定誤差) この式によると、trnの誤差が減少することにより、誤差は減少し続けることになります。そして、trnの減少が止まって初めて下げ止まりとなる。同時に、オーバートレーニングが始まると、oobの誤差が大きくなり始める。 私の考えでは、err by formulaが成長し始めた時点で学習を止めるのは遅すぎると思います。 oobの誤差が最小になる時点でも最適とは言えません。幸運なランダム化により、偶然にもoobによる最小値を見つけることができましたが、oobに手を加えているのかもしれません。 oobの最小誤差を、trainの誤差の限界値としてカウントすればいいのでは?つまり、trnの誤差がoobの最適な誤差と等しくなったとき(縦線を 引いたところ)、モデルの学習を停止するのでしょうか?oobの誤差が酷くなるが、電車でもoobでも合わないだろう。 これには論理がある。誤差は確率モデルによって決定され、合理的なサンプルサイズと再トレーニングの回数はともに、ある最適なサイズを持ち、それを増やしても結果は改善されない Maxim Dmitrievsky 2020.06.23 05:17 #18384 mytarmailS: アルゴトレーダーの目から見たトレーディングシステムR「お前はただのアプエンだ!:) デジタルフィルターや レベルについてはどうでしょうか?:D mytarmailS 2020.06.23 08:24 #18385 マキシム・ドミトリエフスキー: では、デジタルフィルターや レベルでは、何か面白いものが見えてくるのでしょうか?:D 最後にパターンの重ね合わせを探したところ・・・。 レベルがある - 価格がそれを越えたら、このパターンを修正し、トレーニングサンプルとして固定する。 パターンが異なる場合があります その瞬間に生まれたパターンや、何かを解決するための明確なセットを探します。 この方法は、通常の方法とは異なり、各訓練例が任意の数の要素を含むことができ、特徴の順序性を考慮しないため、私にとっては良い方法です。 ターゲット - 10 ポイント増加する極値を見つけること。 x[i]==min(x[(i-1):(i+10)]) ベストソリューションではありませんが、それは私が書いていることです、今のところ唯一の買い手 arules" パッケージに含まれる "apriori" マイニングアルゴリズム 発見されたルールはこのようになります。 inspect(head(rules.sorted,20)) lhs rhs support confidence lift count [1] {(28)(28)(-1);1,(44)(45)(-1)} => {BUY} 0.001017018 0.5769231 3.046559 15 [2] {(25)(23)(-1);1,(5)(3)(-1)} => {BUY} 0.001084819 0.5517241 2.913491 16 [3] {(31)(33)(-1),(8)(6)(-1)} => {BUY} 0.001084819 0.5000000 2.640351 16 [4] {(49)(45)(-1),(54)(52)(-1)} => {BUY} 0.001017018 0.5000000 2.640351 15 [5] {(25)(23)(-1),(82)(84)(-1)} => {BUY} 0.001017018 0.4838710 2.555178 15 [6] {(46)(48)(-1),(56)(56)(-1)} => {BUY} 0.001017018 0.4838710 2.555178 15 [7] {(25)(23)(-1);1,(40)(41)(-1)} => {BUY} 0.001017018 0.4838710 2.555178 15 [8] {(29)(30)(-1),(37)(39)(-1)} => {BUY} 0.001017018 0.4838710 2.555178 15 [9] {(34)(32)(-1),(76)(74)(-1)} => {BUY} 0.001898434 0.4745763 2.506096 28 [10] {(25)(22)(-1),(7)(6)(-1);3} => {BUY} 0.001152621 0.4722222 2.493665 17 [11] {(17)(16)(-1);1,(49)(45)(-1)} => {BUY} 0.001017018 0.4687500 2.475329 15 [12] {(46)(48)(-1),(62)(60)(-1)} => {BUY} 0.001017018 0.4687500 2.475329 15 [13] {(20)(21)(-1),(45)(46)(-1)} => {BUY} 0.001017018 0.4687500 2.475329 15 [14] {(19)(18)(-1);1,(60)(57)(-1)} => {BUY} 0.001220422 0.4615385 2.437247 18 [15] {(25)(23)(-1);1,(47)(45)(-1)} => {BUY} 0.001152621 0.4594595 2.426268 17 [16] {(40)(41)(-1),(71)(71)(-1)} => {BUY} 0.001152621 0.4594595 2.426268 17 [17] {(2)(1)(-1);4,(6)(6)(-1)} => {BUY} 0.001084819 0.4571429 2.414035 16 新しいデータでルール「1」(ベスト1)を実行する。 手を加えることなく、そのままの順番で...。 面白いかどうかは自分で判断してください。 ぞくへん そして、これらの入力にAMOを「上乗せ」するような形で追加し、 入出力の フィルタリングを行うことが可能です。 パターンの量と質を高めるには、無限の可能性がある もしかしたら、かっこいいものが出てくるかもしれませんが、気力も導火線もなく、創作酒に走ってしまいました(( レベルはTSを作る上で最も有力なツールだと思うのですが...。 私の理解では、価格水準はビル・ウィリアムズの愚かなフラクタルではなく、特定の価格での出来事、最も可能性が高いのは「多くの動き」です。 Maxim Dmitrievsky 2020.06.23 09:53 #18386 mytarmailS: そして、これらの入力にAMOを「上」のように追加して、 入力する/しない をフィルタリングすることができます。パターンの量と質を高めるための無限の可能性があるもしかしたら、かっこいいものが出てくるかもしれませんが、気力も体力もなく、創作飲み会中です(( 体力に余裕のあるときに、読もうと思っています)。 mytarmailS 2020.06.23 10:00 #18387 マキシム・ドミトリエフスキー: コツをつかんだら読んでみます(笑)。 googleの短いもの、あまり読むものがない。 mytarmailS 2020.06.23 16:07 #18388 ああ、なんてこったい...。の人は飲まない、絶対飲まない、絶対飲まない...。 Mihail Marchukajtes 2020.06.23 16:11 #18389 mytarmailS: ああ、なんというフザけた...。人は酒を飲まない、決して酒を飲まない、決して酒を飲まない・・・。 言いたいことはわかるんです。自分も2日目にしてリバウンド中です :-) Uladzimir Izerski 2020.06.23 19:52 #18390 パターンを見つけようとしているんですね。10円玉のように簡単です)それは波動理論です。しかし、現時点では公開されていない。 あなたが結婚して22年になると想像してください。今日、明日、離婚する可能性はどの程度ですか?機械学習にこの理解を教えて、初めて金融市場というシンプルな問題に進む。 このテーマに取り組むのは難しいことだと実感しています。 ユセフの言葉を尊重する。歴史の連続性と今この瞬間の連続性については、常に正しい判断をしてきた。そして、未来への重要性。 1...183218331834183518361837183818391840184118421843184418451846...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
アハハハ ))))笑)。
皆さんのアドバイスをお願いします。
Darchのパッケージには、モデル評価のオプションとして次のようなものがありました。
トラックとOOBセクションでの誤差を計算します。
そして、総誤差は
err = oob_error * comb_err_tr + train_err * (1 - comb_err_tr) のように計算されます。
ここで、comb_err_tr = 0.62です。trainセクションとoobセクションからの誤差の寄与を制御する乗算器です。0 に設定すると、列車のみによる推定となる。1に設定すると、推定はoobのみとなります。
0.62は、oobの誤差がモデル全体の推定値でもう少し重みを持つことを意味する。
一時期、この処方を使用していましたが、今は疑問を持っています。
oobの誤差は通常限界があり、オーバートレーニングが続くとtrainでは0にもなる。
約このような感じ。(緑は式による推定誤差)
この式によると、trnの誤差が減少することにより、誤差は減少し続けることになります。そして、trnの減少が止まって初めて下げ止まりとなる。同時に、オーバートレーニングが始まると、oobの誤差が大きくなり始める。
私の考えでは、err by formulaが成長し始めた時点で学習を止めるのは遅すぎると思います。
oobの誤差が最小になる時点でも最適とは言えません。幸運なランダム化により、偶然にもoobによる最小値を見つけることができましたが、oobに手を加えているのかもしれません。
oobの最小誤差を、trainの誤差の限界値としてカウントすればいいのでは?つまり、trnの誤差がoobの最適な誤差と等しくなったとき(縦線を 引いたところ)、モデルの学習を停止するのでしょうか?oobのエラーは悪化するが、電車にもoobにも合わないだろう。
皆さんのアドバイスをお願いします。
Darchのパッケージには、モデル評価のオプションとして次のようなものがありました。
トラックとOOBセクションでの誤差を計算します。
そして、総誤差は
err = oob_error * comb_err_tr + train_err * (1 - comb_err_tr) のように計算されます。
ここで、comb_err_tr = 0.62です。trainセクションとoobセクションからの誤差の寄与を制御する乗算器です。0 に設定すると、列車のみによる推定となる。1に設定すると、推定はoobのみとなります。
0.62は、oobの誤差がモデル全体の推定値で少し重みを持つことを意味する。
一時期、この処方を使用していましたが、今は疑問を持っています。
oobの誤差は通常限界があり、オーバートレーニングが続くとtrainでは0にもなる。
約このような感じ。(緑は式による推定誤差)
この式によると、trnの誤差が減少することにより、誤差は減少し続けることになります。そして、trnの減少が止まって初めて下げ止まりとなる。同時に、オーバートレーニングが始まると、oobの誤差が大きくなり始める。
私の考えでは、err by formulaが成長し始めた時点で学習を止めるのは遅すぎると思います。
oobの誤差が最小になる時点でも最適とは言えません。幸運なランダム化により、偶然にもoobによる最小値を見つけることができましたが、oobに手を加えているのかもしれません。
oobの最小誤差を、trainの誤差の限界値としてカウントすればいいのでは?つまり、trnの誤差がoobの最適な誤差と等しくなったとき(縦線を 引いたところ)、モデルの学習を停止するのでしょうか?oobの誤差が酷くなるが、電車でもoobでも合わないだろう。
アルゴトレーダーの目から見たトレーディングシステム
R「お前はただのアプエンだ!:)
デジタルフィルターや レベルについてはどうでしょうか?:D
では、デジタルフィルターや レベルでは、何か面白いものが見えてくるのでしょうか?:D
最後にパターンの重ね合わせを探したところ・・・。
レベルがある - 価格がそれを越えたら、このパターンを修正し、トレーニングサンプルとして固定する。
パターンが異なる場合があります
その瞬間に生まれたパターンや、何かを解決するための明確なセットを探します。
この方法は、通常の方法とは異なり、各訓練例が任意の数の要素を含むことができ、特徴の順序性を考慮しないため、私にとっては良い方法です。
ターゲット - 10 ポイント増加する極値を見つけること。
ベストソリューションではありませんが、それは私が書いていることです、今のところ唯一の買い手
arules" パッケージに含まれる "apriori" マイニングアルゴリズム
発見されたルールはこのようになります。
新しいデータでルール「1」(ベスト1)を実行する。
手を加えることなく、そのままの順番で...。
面白いかどうかは自分で判断してください。
ぞくへん
そして、これらの入力にAMOを「上乗せ」するような形で追加し、 入出力の フィルタリングを行うことが可能です。
パターンの量と質を高めるには、無限の可能性がある
もしかしたら、かっこいいものが出てくるかもしれませんが、気力も導火線もなく、創作酒に走ってしまいました((
レベルはTSを作る上で最も有力なツールだと思うのですが...。
私の理解では、価格水準はビル・ウィリアムズの愚かなフラクタルではなく、特定の価格での出来事、最も可能性が高いのは「多くの動き」です。
そして、これらの入力にAMOを「上」のように追加して、 入力する/しない をフィルタリングすることができます。
パターンの量と質を高めるための無限の可能性がある
もしかしたら、かっこいいものが出てくるかもしれませんが、気力も体力もなく、創作飲み会中です((
体力に余裕のあるときに、読もうと思っています)。
コツをつかんだら読んでみます(笑)。
googleの短いもの、あまり読むものがない。
ああ、なんというフザけた...。人は酒を飲まない、決して酒を飲まない、決して酒を飲まない・・・。
パターンを見つけようとしているんですね。10円玉のように簡単です)それは波動理論です。しかし、現時点では公開されていない。
あなたが結婚して22年になると想像してください。今日、明日、離婚する可能性はどの程度ですか?機械学習にこの理解を教えて、初めて金融市場というシンプルな問題に進む。
このテーマに取り組むのは難しいことだと実感しています。
ユセフの言葉を尊重する。歴史の連続性と今この瞬間の連続性については、常に正しい判断をしてきた。そして、未来への重要性。