トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2814

 
Maxim Dmitrievsky #:
よく考えてみると
mytarmailS#:
違うから無理だよ...。

Hmmは あなたが どのクラスタにいるかを 予測し、クラスタリングは あなたが どのクラスタに いたかを 示します。
簡単に言えば

考えて、試して、実験して、コードを書いて...。

 
mytarmailS #:

考えた、試した、実験した、コードを書いた...。

クラスタリングは新しいデータでは機能しないと?それはナンセンスだ)

そして、もしhmmがクラスタリングアルゴリズムと考えられるとしたら。
 
Maxim Dmitrievsky #:
クラスタリングは新しいデータでは機能しないと?ナンセンスだ)

あなたはわかってない...

クラスタ/状態がある。

クラスターには始まりがあり、終わりがある。


klsterisationによって、あなたは5本目のローソク足でこのクラスターの番号を知ることができます(クラスターの原型が現在の状態と比較されるとき)。

hmmを使えば、1本目のローソク足でのクラスタ/状態の数がわかる(というか確率がわかる)。

 
mytarmailS #:

あなたはそれを理解していない。

クラスター/州がある

それは始まりがあり、終わりがある。


klsterisationによって、5本目のローソク足(クラスタの原型と現在の状態を比較したとき)の時点で、このクラスタの数を知ることができます。

hmmによって、1本目のローソク足でのクラスタ/状態の番号がわかる(というか確率がわかる)。

どちらの場合も、現在のデータ上のクラスタ数をラグなしで知ることができます。

hmmはシーケンスと同じクラスタリング・アルゴリズムです。傑出したものはない。
 
Maxim Dmitrievsky #:
どちらの場合も、現在のデータでクラスタ番号を知ることができ、ラグもない

いいえ。

クラスタリングは認識です。

うーん、今どんな状態かを予測することだ。


例えば、頭でっかちな状態とそうでない状態があるとする。


それをプロトタイプのクラスタと比較することで、クラスタリングは機能するんだ。


つまり、プロトタイプとの比較が行われた後で、クラスターの状態を知るのだ。

=================

そしてHMMは、私たちがGPの状態にある確率を教えてくれる。


 
mytarmailS #:

いや。

クラスタリングは認識だ。

うーん、あなたが今どんな状態にあるかを予測することだ。

やめろよ(笑)。
 
Maxim Dmitrievsky #:
やめてくれ )

お前もか...。

HMMのビタビアルゴリズムでクラスタリング111222444111111......みたいなのができるんだとしたら、それはクラスタリングとは言わない。

と書いている人がいますが、クラスタリングとは言いません。

 
mytarmailS #:

あなたもね。

HMMのビタビアルゴリズムがクラスタ111222444111111のようなものを生成できるのであれば......。

クラスタとして使えると書いている人がいますが、クラスタリングしているわけではありません。

隠れ状態をいくつ設定しても、その数だけクラスタができる。それと同じことだ。オーケー、オーケー、私はこれを咀嚼するのは好きではない。

気になるのは、原理がどうであれ、異なるモデルをトレーニングするための分離だ。いずれにせよ、増分値の平均はクラスタ数に影響します。
 
Maxim Dmitrievsky #:
設定した隠し状態の数だけクラスターができる。それと同じことだ。

それがどう関係するんだ?

最後にもう一度。

クラスタリングでは、クラスタが終了したときにクラスタ番号を得る。

SMMでは、クラスタの開始時にクラスタ番号を得る。

 
mytarmailS #:

それがどうしたんだ?

最後にもう一度。

クラスタリングでは、クラスタ終了時にクラスタ番号を取得する。

SMMの場合は、クラスタの開始時にクラスタ番号を取得する。

いや、妄想だ。