トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 632

 
マキシム・ドミトリエフスキー

私はリ・インフォメーション・ラーニングが気になっていたので、この興味深い記事を見つけ、購入して、もしかしたらbotに追加しようとしているところです

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

ただ、彼は最後に何らかの理由で買うことを学ぶだけで、ある種の薬を持っています。

私も同じ状況で、NSクラシファイアは1つのクラスで詰まることが多いんです。クラスの足並みを揃える必要がある。しかし、私は一方のクラスが95%、もう一方のクラスが5%です。*20行のボリュームは好ましくない。
これはその記事とほぼ同じで、なるほどと思いました。

回帰・予測に切り替えて実験してみようかな、どうなるかな...。

 
マキシム・ドミトリエフスキー

リ・インフォメーション・ラーニングが気になっていたので、面白い記事を見つけたので、購入して、botに追加してみようかと思っているところです

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

botを買おうとしているのですが、彼はドジで、なぜか最後だけ買うことを覚えます。

まあ、彼自身はそこで「明確な強気トレンドがあるから大丈夫」と説明したのですが。また、同地のあるコメンテーターは、代理人はロングポジションを持ちたがっているという。はい、そして作者自身も小出しにしていることを語っています。また、コードの中で彼は、時間の経過とともに賞の価値を調整するためにガンマを使用しませんでした。

そして、一般的には、コードの中で2つの良いライブラリのリファレンスを示しているので、この記事は有用である。
1つは各種市場データを読み込むためのもので、もう1つはデータ上に各種指標を適用するためのものです。自分のために取った。


https://www.quandl.com/tools/python
https://mrjbq7.github.io/ta-lib/

 
エリブラリウス

私も同じ状況で、NSクラシファイアは同じクラスに入ることが多いですね。クラスの足並みを揃える必要がある。しかし、私は一方のクラスが95%、もう一方のクラスが5%です。*20行のボリュームは好ましくない。
これはその記事とほぼ同じで、得した気分です。

回帰・予測に切り替えて実験して見ようかと思うのですが...。

私もこの状況に直面しています。
特徴選択、正則化、脱落を多くすることで、より安定したモデルになります。すべてアライメントなし、純粋な時系列フロー。

なんだかんだでよくクラスをいじってますね。私の場合(ml-assistant)、シグナルのパーシスタンスは1つの数値[-1,1]です。つまり、理論的にはすぐに回帰を組み立てることができるのですが(これもかなりうまくいきます)、そこでは予測が「読みにくく」なってしまうのです。
分類するためには、クラスに分ける必要がありますが、そのクラスの和を1.0に等しくするのがソフトマックスの考え方です。しかし、最終的には、0に相対して割るのが最も正しいことが判明しました。モデル自体は、ターゲティングに関係なく、クラスの合計を1に正規化するのです。

でも、3つ目のパスクラスを追加すると、なぜかオーバートレーニングの連続になるんです。もしかしたら、私の仕込みが悪いのかもしれません。=)

 
エリブラリウス

私も同じ状況です。NSクラシファイアは1つのクラスに入ることが多いです。クラスの均等化が必要だ。しかし、私は一方のクラスが95%、もう一方のクラスが5%です。*20行のボリュームは好ましくない。
これはその記事とほぼ同じで、得した気分です。

リグレッション/フォアキャストに変えてみようかなと思っています。

1万~1万2千のサンプルのうち、~800がクラス1、残りがクラス0。それが現実です)。

トレーニングの順序におけるクラスの量的比率は現実に近いものであるべきだと、気の利いた本で読んだことがあります。

 
ユーリイ・アサウレンコ

10~12,000人のサンプルのうち、~800人がクラス1、残りはクラス0。これが現実です)。

トレーニングの順序におけるクラスの量的比率は現実に近いものであるべきだと、気の利いた本で読んだことがあります。

や他のスマートな本には、クラスのバランス・組み合わせが必要だと書いてあります。

すなわち、FXでは、母集団について何もわからないのだから、クラスの要素数がほぼ等しくなるのは当然である。

 
みなさん、こんにちは!!!負のエントロピーの意味を明確に説明できる人はいますか?わかりやすく言うと......。
 

頭のいい人がランダム性について語った興味深いビデオです。


 
Mihail Marchukajtes:
みなさん、こんにちは!!!!どなたか負のエントロピーの意味を説明してください。わかりやすく言うと......。

賢い人の書き込みはこうだ。

"非エントロピー "θは、ある「構造的」な値に対応する。これは、過去の記憶の特徴的な量によって決まる。θが大きいと広い範囲の複雑な階層構造が現れ、θが小さいと狭い範囲の構造が現れ、θ→0、つまり過去に関する情報がないとマルコフ過程への限界的な移行が見られる。"

実は、これがプロセスの非マルコビアンを特徴づける値なのである。私は確率分布を 扱う仕事をしているので、このことが分布の「テール」のようなものを担っていることがわかりました。
 
Mihail Marchukajtes:
みなさん、こんにちは!!!!どなたか負のエントロピーの意味を説明してください。わかりやすく言うと......。

エントロピーは無秩序やカオスの尺度であり、非エントロピー(負のエントロピー)は良識や自己組織化の度合いを示す尺度である。ビーカーの中で溶けていない砂糖はエントロピーが最小、完全に溶けるとエントロピーが最大になる系です。システムを初期状態に戻すには、エントロピーを外から輸入して、結晶化条件を整える必要がある。NSの場合、常に外から新しい情報を吸収し、不要な情報を排除していかなければ、エントロピーの増大によりシステムが死んでしまう。

 
ユスフホジャ・スルトノフ

エントロピーは無秩序やカオスの尺度であり、非エントロピー(負のエントロピー)は秩序性や自己組織化の度合いを示す尺度である。ビーカー内の未溶解の砂糖はエントロピーが最小で、完全に溶解した後はエントロピーが最大になる系です。システムを初期状態に戻すには、エントロピーを外から輸入して、結晶化条件を整える必要がある。NSの場合、常に外から新しい情報を吸収し、不要な情報を排除していかなければ、エントロピーが増大し、システムは死に至る。

素晴らしいコメントです。まさにその通りです。

理由: