トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3386

 


mytarmailS#:

ハバロフスクから試してみます。


どんなモデルも、あるパターンの総和であり、大げさに言えば、パターンはTSとしてラベル付けできる。


あるモデルが100のTSから構成されているとしよう。


モデル#1では、100人のTCが1つの取引を行った。

モデル#2では、1人のTSが100件の取引を行い、他の99人は取引を行わなかった。


各TSの統計量を計算 するには ?

ルール上のモデルであれば、簡単かつ明確に計算できる。

モデルがニューラルなら

問題はモデルの使用回数ではない。

問題は、同じデータに対して同じモデル(ツリー?)が、ある場合にはあるラベルを予測し、別の場合には別のラベルを予測することである。これが分類誤差と呼ばれるものだ。少なくとも私たちには、値を厳密にクラスに分類できる予測変数は存在しない。そして、葉や木やその他もろもろの問題は、予測変数の値から派生する。

 
Maxim Dmitrievsky #:
もし誤差がすでに小さくなっていたり、ゼロに等しかったりしたら、残りの例を何らかの近さの尺度によってパターンに分けることができる :)例えばクラスタリング。そしていくつ残っているかを数える。そして、各パターン/クラスターについて平均化された条件(クラスターの中心を取る)を書いても、出力にルールが得られます。
それは可能だが、その分割がニューロンの内部分割に従って正しく行われたという保証はどこにあるのだろうか?

クラスタリングのために選択された近接性尺度が正しく選択されているという保証はどこにあるのか?

などなど...。

木製のモデルをパーティショニングする方が単純で、フランクリンシュタインを作る必要はないのでは?

 
mytarmailS #:
それは可能だが、ニューロニクスの内部分割に従った分割が正しいという保証はどこにあるのだろうか?
クラスタリングのために選択された近接指標が正しく選択されているという保証はどこにあるのだろうか?
それは哲学的な質問だ。
 
これは、もし例ではなく、ニューロニクスの最後の層がクラスター化されるべき場所である
 
mytarmailS #:
クラスター化するなら、それは例ではなく、神経細胞の最後の層だ。
違う。神経細胞の最後の層でルールを構築することはできない。
 
Maxim Dmitrievsky #:
いや、ただの例だ。神経細胞の最終層からルールを構築することはできない。
私がサンプルデータを作成し、みんなが自分の方法論を適用して、それを見てみよう。
 
mytarmailS #:
私がサンプルデータを作成し、みんながそれぞれの手法を適用して、それを見てみよう。
私はこの方法を試していない。どんなモデルからもルールを引き出す方法について声を大にして考えているだけだ。この方法は後で試してみよう。
 
Maxim Dmitrievsky #:
私はこの方法を試したことはない。ただ、どんなモデルからもルールを引き出す方法について、声を大にして考えているだけだ。後で遊んでみればいい。
私も試したことがないので、あなたの理論に対する私の理論です
 

記事が翻訳されなくなったか、時間がないようです。英語のセクションはすでにpythonの記事とonnxでいっぱいです :))そしてRの記事が1つ出てきました。

一般的に、記事はTC的には役に立たない。Mediumとほぼ同じで、書くために書いている。

 
mytarmailS #:

次に、線形に関連するすべてのルールを特定し、冗長なルールとして削除する。

この線形結合はどのように定義されるのですか?詳しく教えてください。

非常に似ているルールを削除するだけです。類似性は活性化ポイントによって決定されます。

理由: