トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1967

 
mytarmailS:

どうだろう...4回読んでもわからない、もしかして先生は予備なのか?

+層からさらに投票が行われている。

そうですね、 LQVでは LQVニューロンの最後の出力という 形で記憶していますが、私の理解では、記憶は一歩下がるだけです...。

やかんとコーヒーの例えが素晴らしいですね。


何も言われなかったんですか?

こんなのどこで教えてるんだろう。 サイバネティックスとかロボット工学とか...。

データシンシアンは技術研究所の物理学者に過ぎない)


==============================================================

ダイナミックLVQ - - dlvqもあります。

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

詳細

dlvq : DLVQを使用するためには、入力データを正規化する必要があります。

DLVQ学習:各クラスについて平均ベクトル(プロトタイプ)を計算し、(新たに作成した)隠れモジュールに格納する。 その後、ネットワークは最も近いプロトタイプを用いて各パターンを分類する。 もしパターンがクラスxではなくクラスyと誤って分類された場合、プロトタイプクラスyをパターンから遠ざけ、プロトタイプクラスxをパターンの方に移動させる。この手順を分類に変化がなくなるまで繰り返し、各クラスごとに新しいプロトタイプを新しい隠れ単位としてネットワークに導入し、そのクラスにおける誤分類テンプレートの平均ベクトルで初期化する。

ネットワークアーキテクチャ:ネットワークはプロトタイプごとに1つのユニットを含む1つの隠れ層のみを持つ。 プロトタイプ/隠れユニットはコードブックベクトルとも呼ばれる。 SNNSはユニットを自動的に生成し、ユニット数の事前指定を必要としないため、SNNSの手順は 動的 LVQと呼ばれる。

学習関数の3つのパラメータは、2つの学習率(正しく分類されたケースとそうでないケース)および平均ベクトルを計算する前にネットワークの学習を行うサイクル数を定義します。

参考文献

古今東西(1988)、自己組織化と連想記憶、Vol.8, Springer-Verlag.



=========================================================


男 このLVQを読むと、まるでコホーネン(SOM)のようですが、先生が います。

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm, those%20instances%20should%20look%20like.

LVQではなく、VQなんです。

ノーレスポンス

おそらく、接続がまばらなため、なぜかすべてのニューロンが常に活動しているわけではないので、記憶を保持するのに時間がかかるのだろう...。それとは別に、連想記憶(どの特徴のセットがどのクラスタに属するか)がある。コードブックとは、そう呼ばれるものです。

制御理論に基づくもので、大学でも教えているはずです。元記事は、一部の中国人の2015年のものです。アクセスできないんです。こちらはもう焼き直しでしょう。

 
マキシム・ドミトリエフスキー

LVQではなく、VQなんです。

が反応しない。

おそらく、接続がまばらなため、なぜかすべてのニューロンが常に活動しているわけではないので、記憶を保持するのに時間がかかるのだろう......。それとは別に、連想記憶(どの特徴のセットがどのクラスタに属するか)がある。コードブックとは、そう呼ばれるものです。

制御理論に基づくもので、大学でも教えているはずです。元記事は、一部の中国人の2015年のものです。アクセスできないんです。これはもう作り直しというのがほとんどでしょう。

ベクトル量子化は、まず素のデータで行い、その後に結果を加味して行うことで、より精度の高い結果が得られることがわかりました。少なくとも、ネガティブな結果に対するフィルタが表示されます。異なるクラスタに対する特徴量のセット、それは行を異なる安定したセグメントに分割するようなものです。

 
Valeriy Yastremskiy:

ベクトルの定量化は、まず生データに対して行い、次に結果に対して行うことで、より精度の高い結果が得られることがわかりました。少なくとも、ネガティブな結果に対するフィルターが表示される。異なるクラスタに機能をセットすることは、列を異なる安定したセクションに分割するようなものです。

どこからがロングメモリーなのか、想像もつかない。例えば、前回の反復で最後のニューロンが0を生成した場合、次の反復で最初のニューロンの入力ベクトルにそれを追加する。イテレーションです。つまり、新しい空間に特徴を入れ、前の行動に依存する、より複雑な条件状態を得ることができる。最初のニューロンが働き、最後のニューロンへ単位ベクトルを送った。後者は最初のものに対して0または1を返した。仮にクラスタが2つしかないとします。1ステップバックより深い記憶はどこにあるのでしょうか?

さらに+1値をとる第3のニューロンがあるとする。さらに複雑な条件設定状態。そして、昇順に記憶が蓄積されていく...。そうていしがたい)

 
マキシム・ドミトリエフスキー

........................ メモリが格納されているそうぞうしにくい)

いっそのこと)

====


れんそうネットワーク

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


これはクラスタリングと同じですね。 そして、連想画像はクラスタの原型です。

 
mytarmailS:

いっそのこと)

レイヤー2では、再帰リンクという形でメモリを追加することもできますが、それがなくても動作します。結局、メモリはレイヤー1にあるんですね。

 
mytarmailS:

私はもっと大変です )

====


れんそうネットワーク

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


クラスタリングと同じですね。 そして、連想画像はプロトタイプのクラスタです

そうですね、でもエージェントの以前の行動を記憶していない、それは違いますね

もう一度バインダーを読んでから、コードをいじってみるよ。

 
マキシム・ドミトリエフスキー

そうですね、でもエージェントの以前の行動の記憶はありませんから、それは違いますね

もう一度バインダーを読んでから、コードをつっこんでみる。

えーと、考えよう )

エージェントアクションは、画像、パターン(クラスタ)です。

アクションのシーケンス(クラスタ)は、メモリ


エージェントのアクションや何かをクラスターのシーケンスとして表現することができます。

が、"コーヒーを注ぐ "のようなパターンしかし、「コーヒーはすでに淹れてあるに違いない」。


は、遷移のパターンとして表すことができる


 
mytarmailS:

を見てみよう、考えてみよう)

エージェントアクションは、画像、パターン(クラスタ)です。

一連の動作(クラスタ)が記憶される

エージェントのアクションなどは、クラスタのシーケンスとして表現することができます。

そうとは言い切れません。エージェントの以前の行動+環境状態(特徴の集合)がパターン(条件状態)である。これまでのアクションもフィーチャーも1つのベクトルに押し込んでいます。

しかし、神経細胞では、出力信号を保存することによってのみ、渡されるパターンのシーケンスに関する明示的な情報はありません。そして、そこでは1つの(現在の)パターンしか処理されていない。つまり、より複雑な条件状態は、何らかの方法でニューロン群によって符号化される。

 

マキシム・ドミトリエフスキー

これまでのアクションもフィッシュも1ベクターに押し込んでいます。

しかし、神経細胞では、出力信号を保存することによってのみ、配列に関する明示的な情報が存在しないのです。そして、そこで処理されたのは1パターンだけでした。

さて、これも同じumapによって、1つのベクターに還元することができます。2kのチップを圧縮することができました。)

 
mytarmailS:

まあそれは同じumapによって、1つのベクトルに統合することができます。そうやって2kチップを圧縮したんだ)

というのが、このレイヤーの役割です。

理由: