トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2626

 
Maxim Dmitrievsky #:
できたかどうかだけ見せてください、メソッドに関する私の結果を見せます、時間がなくて完成できませんでした。
まだ開発中で、コードの最適化を行いながら、コンピュータリソースの面で非常に高価なプロセスです
 
 

ムービングウィンドウにおけるサインの重要性(指標と価格)

ある瞬間には10%、別の瞬間には0.05%の重要性を持つ、それが人生の真理である)

それですべてが解決すると思っているのなら、胸を張っていいと思います。


フィッシャーのアイリスの4つのサインは、そういうことなのです。


あるいは、スライドウィンドウを拡大した場合。


 
mytarmailS #:

ムービングウィンドウにおけるサインの重要性(指標と価格)

ある瞬間には10%、別の瞬間には0.05%の重要性を持つ、それが人生の真理である)

それですべてが解決すると思っているのなら、胸を張っていいと思います。


フィッシャーのアイリスの4つのサインは、そういうことなのです。


あるいは、スライドウィンドウを拡大した場合。


アヤメ(と類似の問題)には、安定したパターンがあることがわかります。実験している人はみんな、引用すると何でも「浮く」ことをもうわかっているんですよ。

チャートのポイントごとに指標の意味が違うのはどうなんだろう。すべてのトレーニングラインで構築されたモデル全体に対して一度に決定されます。それとも5000モデルもあるのでしょうか?
そして、一般的には、グラフの内容や作り方を説明することです。


 
elibrarius #:

アヤメ(とそれに類する問題)が安定したパターンを持っていることは、すでに明らかです。そして、引用したものがすべて「浮く」という事実も、実験した人なら誰でもわかることです。

チャートのポイントごとに指標の意味が違うのはどうなんだろう。すべてのトレーニングラインで構築されたモデル全体に対して一度に決定されます。それとも5000モデルもあるのでしょうか?
そして、一般的には、グラフの内容や作り方を説明することです。


特徴の情報量を調べる方法はたくさんあり、モデルを学習させなくてもいいものもあります。 私はfselectorを使いました。https://www.r-bloggers.com/2016/06/venn-diagram-comparison-of-boruta-fselectorrcpp-and-glmnet-algorithms/
特徴量のエントロピーをカウントする...

なぜ、それぞれのポイントで重要度が違うのでしょうか?そう、上に書いたように特徴の情報量はスライディングウインドウで計算されているからです。
 
mytarmailS #:
trait informativenessを調べる方法はたくさんあり、モデルを学習する必要がないものもあります。 私はfselectorを使いました。https://www.r-bloggers.com/2016/06/venn-diagram-comparison-of-boruta-fselectorrcpp-and-glmnet-algorithms/
彼は、特徴のエントロピーを数え...

なぜ、それぞれのポイントで重要度が違うのでしょうか?そう、上に書いたように特徴の情報量はスライディングウインドウでカウントされていたからです。
だから、重要度が跳ね上がらない時期を探せば、2つのモデルを使うことができる。そうでなければ、混乱します。

オンラインのウィンドウズトレーニングをやったのですが、時間によるフィルタリングをせずに全部まとめてやると、パフォーマンスが悪くなるんです。当時はフィルタリングでやろうとは思いませんでした。エントロピーの記事で、このようなボットの例があります。

重要度のジャンプは、エントロピーの変化によるものである可能性が高い。もし、リターンのような符号が
しかし、フォアゲートゲートの熟練者は皆、実践に基づかない独自の現実を持っています。
 
Maxim Dmitrievsky #:

しかし、フォアゲートのあらゆる種類の熟練者は、実践に基づかない独自の現実を持っています。
それは何ですか?


パターンを探してモデルを作る必要があると思います。
 
mytarmailS #:
それは何ですか?


パターンを探して、それに対するモデルを構築する必要があると思います。多くの場合、理解できるパターンであっても、MOはモデルを構築することができず、すべて手作業で行わなければなりません

まあ、いろんな再発防止ネットワークがあるんですが、ここにあったのは

を直進し、挙動がパターン化されているものを探す :)

簡単に言うと、トレーニングする、テストで確認する、流していた期間と働いていた期間を特定する、結論を出す/フィルタリングしてみる、パターンを特定する、ということです。

MOから統計を切り離してはいけない、モデルには統計を使うべき、ランダムに学習される

パターンを知っていれば、MOは必要ないようなものです。
 
Maxim Dmitrievsky #:
そのままモデルになって、まるで模様のような挙動をするところを探すといい :)

非常にシンプルな場合:教える、テストでテストする、注いでいた期間と働いていた期間を特定する、結論を出す/フィルタリングしてみる、パターンを特定する

はい、原理的には可能です。さらに良いことに、この順番で機械上で行うことができます。

Maxim Dmitrievsky#:


非常に単純な場合:教える、テストする、注水して動作していた期間を特定する、結論を出す/フィルタリングを試みる、パターンを検出する

注ぐか注がないか)

Maxim Dmitrievsky#:


MOから統計を切り離してはいけない、モデルには統計を使うべき、ランダムに学習される

私としては、複雑なモデルを作る必要はなく、シンプルなルールで十分であり、そうでなければパターンとは呼べないのです。

Maxim Dmitrievsky#:


SZY パターンがわかっていれば、MOは不要という感じですね。

いつももっとうまくやりたいと思っています)))

 
mytarmailS #:
特徴の情報量を調べる方法はたくさんあり、モデルを学習させる必要のないものもあります。 私はfselectorを使いました。https://www.r-bloggers.com/2016/06/venn-diagram-comparison-of-boruta-fselectorrcpp-and-glmnet-algorithms/
彼は、特徴のエントロピーを数え...

なぜ、それぞれのポイントで重要度が違うのでしょうか?そう、上に書いたように、特徴の情報量はスライディングウインドウでカウントされているからです
属性の重要度を見積もる方法をいくつか比較して いたのです。最もリソースを消費するものをベンチマークとして、特徴を一つずつ削除してモデルを学習させました。
高速な方法は、ベンチマークと一致しない。お互いにマッチしているわけでもない。fselectorはさらに高速です、これも何かにマッチするとは思えません。
Сравнение разных методов оценки важности предикторов.
Сравнение разных методов оценки важности предикторов.
  • www.mql5.com
Провел сравнение разных методов оценки важности предикторов. Тесты проводил на данных титаника (36 фичей и 891 строки) при помощи случайного леса из 100 деревьев. Распечатка с результатами ниже. За
理由: