トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3166

 
СанСаныч Фоменко #:

うるさいだけだよ、教祖!私は知らないが、あなたは知っている!

自分を取り巻く世界に対する痛烈な認識とパッケージに対する聖なる信仰以外に何か残っているのか、それとも貯金箱は使い果たしたのか?)

毎日、何も知らないパッケージの記事を読んでいる。

それともグラウンドホッグ・デイ?
 
Forester #:

ランダムなデータからパターンを見つけようとするこの壮大な試みは、そろそろ終わりにしよう。

そうだ。

あるいは、惰性で考えるのをやめて、結果を冷静に見る時だ。

 
Forester #:

コルセットによる学習の結果は悪くないことが多い。

10年から21年まで、コルセットは30%の割合で発見された(このサイトからのランダムな履歴の30%が学習に参加した)。

ー端末では


 

年俸の年俸の年俸年俸年俸年俸年俸年俸年俸年俸年俸年俸年俸年俸年俸年俸、ー以下は、ー最もー最もー最もー最もーーーーー最もーーーーーーーーーーーーーーー

  • ランダムサブセット: 元のデータセットからランダムに点のサブセットを選択 する 。これはコアセットを得る最も簡単な方法であるが、常に最高の品質を提供するとは限らない。
  • 参照点: 元のデータセットから、機械学習アルゴリズムの予測に大きな影響を与える点を 選択 する。これはランダム・サブセットよりも効率的なコアセットの取得方法であるが、より複雑になる可能性がある。
  • クラスタリング:ー 元のー 元のー データセットからー のー 点のー をー 点のー類似性にーに基づいてーー各グループからーからーからーからーからーからーーー各グループからー点からー1ー点。これは元のデータセットをよく表すコアセットを得る効率的な方法だが、より複雑になる可能性がある。
  • ヘモメトリック・カーネル: ヘモメトリック・カーネルを使用して、ソース・データセットからポイントを 選択 する。これは、機械学習アルゴリズムの品質を向上させるために使用できる、コアセットを得るための強力な手法である。
  • 拡張ランダム・サブセット: この 手法は、元のデータセットからランダムにポイントを選択するが、機械学習アルゴリズムの予測に高い影響を与えるポイントをより高い確率で選択する。これは、良質で様々な機械学習タスクに使用できるコアセットを得るための効率的な方法である。

すべての機械学習タスクに適したコアセットを得る普遍的な方法は存在しないことに注意することが重要である。コアセットを得る方法の選択は、特定のタスクと利用可能な計算資源に 依存する。

*バード

 
Maxim Dmitrievsky #:

むいてったな。

10年から21年まで、コルセットは30%の割合で発見された(このサイトからのランダムな履歴の30%が学習に参加した)。

端末では次のように表示される。


ー半年から年続くドローダウンのー。その準備はできていますか?ー特にー、ー特にーのーーーー

 
Forester #:

まあ、半年から1年続くドローダウンの期間もある。その準備はできていますか?特に、実際に始めたらすぐにドローダウンが始まる場合は?

通常は分散投資する。

これらのプロットは、他の金融商品でも利益を上げることができます。そして、それらのすべての一般的な傾向が提示されたチャートと同じになる場合は、投資の安定性が保証されています。

あなたはただ、最大の回復要因を作成する楽器のポートフォリオを作成する必要があります。
 
Forester #:

まあ、半年から1年続くドローダウンの期間もある。、ーそのー。特に、実際に始めたらすぐにドローダウンが始まる場合は?

私は20年に賭ける準備はできていない。

トレーニングは10年でも構わない-OOSは1年でも構わない。

しかし、ノイズが多く、モデルがほとんどすべてのサンプルを無駄なものとして捨ててしまうこともあります。

また、正常に予測されない履歴もあります。

全体として、あまりやりがいのある活動ではない。

古い受信機を回して、偶然ノイズのある波に当たったようなものだ。

 

改めて、予測にはモデルが必要だと確信した。

モデルは不必要なもの(ノイズ)を取り除き、必要なもの(シグナル)を残し、可能であれば必要なもの(シグナル)を増幅する。

例として

ハイローミヌトカ価格。


さらに、我々は価格の最も単純化を構築する(モデルを作成する)。

次に、次元削減 のための簡単な既知のアルゴリズムの助けを借りて、余分なものを取り除く(モデルを改良する)。

そして最後に、おそらく装飾的なタッチ。


このようなデータでMOはどのようにトレーニングされるのだろうか?

これはテストサンプルだ。

Confusion Matrix and Statistics

          Reference
Prediction    -1     1
        -1 24130  2780
        1   4478 23613
                                          
               Accuracy : 0.868           
                 95% CI : (0.8652, 0.8709)
    No Information Rate : 0.5201          
    P-Value [Acc > NIR] : < 2.2e-16       
                                          
                  Kappa : 0.7363          
                                          
 Mcnemar's Test P-Value : < 2.2e-16       
                                          
            Sensitivity : 0.8435          
            Specificity : 0.8947          
         Pos Pred Value : 0.8967          
         Neg Pred Value : 0.8406          
             Prevalence : 0.5201          
         Detection Rate : 0.4387          
   Detection Prevalence : 0.4893          
      Balanced Accuracy : 0.8691          
                                          
       'Positive' Class : -1  

こんな数字を見たことがあるだろうか?




 
СанСаныч Фоменко #:

正確な名前は?それとも自家製ですか?

長年さまざまな "木製 "のモデルを使ってきましたが、このようなものは見たことがありません。

自家製とはどういう意味ですか?理論的な正当性がある。RLTv3.2.6というパッケージがある。バージョンに注意してください。

Pythonの木製モデル用ONNXについて。skl2onnx パッケージを参照。

サポートされるscikit-learnモデル 最後にサポートされるオプションのセットは15です。

幸運を祈る。

skl2onnx
  • 2023.05.09
  • pypi.org
Convert scikit-learn models to ONNX
 
そして、自作自演の主犯格はブレイマンで、彼はRで書かなかったからだ。彼はそんなハッカーだ。
理由: