トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1963 1...195619571958195919601961196219631964196519661967196819691970...3399 新しいコメント Valeriy Yastremskiy 2020.08.09 15:21 #19621 マキシム・ドミトリエフスキー: 複数のD-ニューロン(グリッドタイプ)エラー、% = 45.10948905109489グッドバイ) グリッドの作者には、カットと憤りをメールで送った。 何を判断したのですか?紙幣の真贋は? Maxim Dmitrievsky 2020.08.09 15:22 #19622 Valeriy Yastremskiy: 何を判断したのでしょうか?紙幣の真贋は? はい Valeriy Yastremskiy 2020.08.09 15:27 #19623 マキシム・ドミトリエフスキー: は 欠陥のある論理。 Maxim Dmitrievsky 2020.08.09 15:29 #19624 Valeriy Yastremskiy: 欠陥のある論理。 落とし穴があるかもしれません。例えば、マイクロテストでは2値化したものを使うので、属性に負の値を使うことはできません。スカスカの説明文には何も書かれていない、エラーも表示されない。 Valeriy Yastremskiy 2020.08.09 15:44 #19625 マキシム・ドミトリエフスキー: 落とし穴があるかもしれません。例えば、マイクロテストでは2値化されたものを使うので、属性に負の値を入れることはできません。乏しい説明では何もない、エラーも表示されない。 その腐敗は、しばしば明示的でない症状に基づいて発生します。そして、一見正しいように見えるロジックの中で、それを見抜くことが問題なのです。 Valeriy Yastremskiy 2020.08.09 16:01 #19626 片や重さ、片や二値性。それが、私たちの原点です。 Rorschach 2020.08.10 06:35 #19627 協調フィルタリングの ための興味深いNSアプローチ 人物やフィルムIDの代わりに取引ツールやストラテジーを、成績の代わりに何らかの指標(期待値など)を取ることができます。次に、商品とストラテジーの隠れ変数を計算します。そして、あなたが望むすべてを。システムを楽器に合わせたり、必要な特性でその場で生成したり、システムのための合成物を作ったり......。 mytarmailS 2020.08.10 07:28 #19628 Maxim Dmitrievsky: 私はグリッドの作者にカットと私の憤りをメールしました。 どんな返事を書いたのだろう。 Maxim Dmitrievsky 2020.08.10 13:41 #19629 mytarmailS: 何を書き落としたのだろう。 今のところ何もありません。サンプルに規則性がなければならない、それがポイントです。アプローチが違うんです。オンレギュラーセットとオンは教えるべきだと思う。つまり、行のエントロピーが低いほど良い結果が得られ、そのデータセットではサンプルはランダムにシャッフルされています。大坊主的に言えば、重要なのはパターンではなく、シークエンスなのです Aleksey Vyazmikin 2020.08.11 20:26 #19630 elibrarius: 私たちは、最もクリーンなスプリットと、そうでないものを混ぜています。つまり、トレイの上に置くと結果が悪くなるので、原則的には重要ではありません。しかし、それがテストでの結果、すなわち一般性を向上させるかどうかはわからない。誰かやってくれないかな...。個人的には、足場の場合よりも一般化は進まないと思っています。 深さを制限して、最後の分割を行わず、前の分割で止めておくと、かなり楽になります。余計な分割をした場合よりも、同じようにクリアなシートが少なくなってしまうのです。あなたのオプションは、スプリットをするかしないかの中間を与えるものです。I.e.例えば、あなたのメソッドで深さ7レベルのシートを平均化します。第6深度レベルシートより若干きれいになります。一般化してもあまり変わらないと思いますし、検証するのも大変ですからね。また、深度レベル6と7の木をいくつか平均化することもできます。あなたの方法論とほぼ同じものが得られるでしょう。 先ほど、小さいサンプルでは少なくとも1%、大きいサンプルでは100%の指標が残っているはずだということを明確にしなかったかもしれませんので、当然、どのクラスでもシートに誤差が生じない程度に分割されることはないでしょう。 このサンプルでは,異なる予測因子による分割によって結果が向上することを観察し,例えば部分空間の情報を得ることができます。 A>x1の場合、ターゲット1の正解率は40%であり、サブサンプルの60%に相当する B>x2であれば、ターゲット1は55%で正しく識別され、これはサブサンプルの45%に相当する。 A<=x1の場合、ターゲット1は70%で正しく定義され、これはサブサンプルの50%にあたる これらの分割にはそれぞれ有意差係数があり(計算方法はまだ決めていない)、最後の分割にも有意差係数がある。 といった具合に、例えば5~10個の予測変数まで適用し、最後の分岐まで到達したら係数を合計し(あるいはもっと複雑な方法で合計し)、係数の合計が閾値を超えたらそのシートを1に分類し、そうでなければ0に分類します。 これを実現する簡単な方法は,penultimate splitまで強制的にforestを構築し,既に選択されている予測因子をサンプルから除外し,新たな予測因子を選択することである.あるいは、単純に、ツリーを構築した後、リーフによってサンプルをフィルタリングし、各予測子を単体で調べ、完全性と精度の基準を満たす最適な分割を探します。 そして、もう一つのクラス "0 "が何もしないことを意味し、逆の入力がなければ、学習サンプルに対する結果は改善され、そうでなければ、改善と悪化の両方があり得ます。 1...195619571958195919601961196219631964196519661967196819691970...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
複数のD-ニューロン(グリッドタイプ)
エラー、% = 45.10948905109489
グッドバイ)
グリッドの作者には、カットと憤りをメールで送った。何を判断したのでしょうか?紙幣の真贋は?
はい
は
欠陥のある論理。
落とし穴があるかもしれません。例えば、マイクロテストでは2値化したものを使うので、属性に負の値を使うことはできません。スカスカの説明文には何も書かれていない、エラーも表示されない。
落とし穴があるかもしれません。例えば、マイクロテストでは2値化されたものを使うので、属性に負の値を入れることはできません。乏しい説明では何もない、エラーも表示されない。
協調フィルタリングの ための興味深いNSアプローチ
人物やフィルムIDの代わりに取引ツールやストラテジーを、成績の代わりに何らかの指標(期待値など)を取ることができます。次に、商品とストラテジーの隠れ変数を計算します。そして、あなたが望むすべてを。システムを楽器に合わせたり、必要な特性でその場で生成したり、システムのための合成物を作ったり......。
私はグリッドの作者にカットと私の憤りをメールしました。
どんな返事を書いたのだろう。
何を書き落としたのだろう。
私たちは、最もクリーンなスプリットと、そうでないものを混ぜています。つまり、トレイの上に置くと結果が悪くなるので、原則的には重要ではありません。しかし、それがテストでの結果、すなわち一般性を向上させるかどうかはわからない。誰かやってくれないかな...。個人的には、足場の場合よりも一般化は進まないと思っています。
深さを制限して、最後の分割を行わず、前の分割で止めておくと、かなり楽になります。余計な分割をした場合よりも、同じようにクリアなシートが少なくなってしまうのです。あなたのオプションは、スプリットをするかしないかの中間を与えるものです。I.e.例えば、あなたのメソッドで深さ7レベルのシートを平均化します。第6深度レベルシートより若干きれいになります。一般化してもあまり変わらないと思いますし、検証するのも大変ですからね。また、深度レベル6と7の木をいくつか平均化することもできます。あなたの方法論とほぼ同じものが得られるでしょう。
先ほど、小さいサンプルでは少なくとも1%、大きいサンプルでは100%の指標が残っているはずだということを明確にしなかったかもしれませんので、当然、どのクラスでもシートに誤差が生じない程度に分割されることはないでしょう。
このサンプルでは,異なる予測因子による分割によって結果が向上することを観察し,例えば部分空間の情報を得ることができます。
A>x1の場合、ターゲット1の正解率は40%であり、サブサンプルの60%に相当する
B>x2であれば、ターゲット1は55%で正しく識別され、これはサブサンプルの45%に相当する。
A<=x1の場合、ターゲット1は70%で正しく定義され、これはサブサンプルの50%にあたる
これらの分割にはそれぞれ有意差係数があり(計算方法はまだ決めていない)、最後の分割にも有意差係数がある。
といった具合に、例えば5~10個の予測変数まで適用し、最後の分岐まで到達したら係数を合計し(あるいはもっと複雑な方法で合計し)、係数の合計が閾値を超えたらそのシートを1に分類し、そうでなければ0に分類します。
これを実現する簡単な方法は,penultimate splitまで強制的にforestを構築し,既に選択されている予測因子をサンプルから除外し,新たな予測因子を選択することである.あるいは、単純に、ツリーを構築した後、リーフによってサンプルをフィルタリングし、各予測子を単体で調べ、完全性と精度の基準を満たす最適な分割を探します。
そして、もう一つのクラス "0 "が何もしないことを意味し、逆の入力がなければ、学習サンプルに対する結果は改善され、そうでなければ、改善と悪化の両方があり得ます。