補間、近似など (alglibパッケージ) - ページ 14

 
Maxim Dmitrievsky :

しかし、グラムマトリックスをどのように扱えばよいのか、今ひとつわからない。ただ、これは新しい変換機能ではなく、古い機能のスカラー積の ITS行列に過ぎないので

まあ、この場合、最終的なスカラー表現を1回微分してベクトルを求める必要があると思うのですが。つまり、最終的なカーネル関数の傾きを計算するだけでいいんです。

MQL5には、関数の一次導関数や傾きを計算するライブラリが内蔵されているはずです。

この場合、傾きがプラスであれば買いシグナル、マイナスであれば売りシグナルとなるはずです。

 
FxTrader562:

まあ、この場合、最終的なスカラー表現を1回微分してベクトルを求める必要があると思うのですが。つまり、最終的なカーネル関数の傾きを計算するだけでいいんです。

MQL5には、関数の一次導関数や傾きを計算するライブラリが内蔵されているはずです。

この場合、傾きがプラスであれば買いシグナル、マイナスであれば売りシグナルとなるはずです。

) ノノ...RDFフィッティングのための新しい特徴点として、同じ2またはn個のベクトルでも新しい点が必要だと思う。

まず、カーネルで 変換し、別のデータポイントで特徴量に戻す必要があります。

あるいは行列式グラミアン -このポイント

 
Maxim Dmitrievsky:

)) ノノ...RDFフィッティングのための新しい特徴点として、同じ2またはn個のベクトルでも新しい点が必要だと思う。

まず、カーネルで 変換し、別のデータポイントで特徴量に戻す必要があります。

あるいは行列式グラミアン -このポイント

私はここで完全に混乱しています:))

カーネル関数は、分類処理を高速に実行するための分類手法ですね。

なぜ、カーネル関数のバックから特徴点を抽出する必要があるのか。スプラインから得られた特徴点をニューラルネットワークに与え、RDFとカーネル関数を用いて分類を行うだけである。だろう?

私の理解では、特徴量の変換はスプライン関数で行われるはずです。だろう?

どこに混乱があるのか?私が混乱しているのか、それともあなたがそうなのか:))

 
FxTrader562:

私はここで完全に混乱しています:))

カーネル関数は、分類処理を高速に実行するための分類手法ですね。

なぜ、カーネル関数のバックから特徴点を抽出する必要があるのか。スプラインから得られた特徴点をニューラルネットワークに与え、RDFとカーネル関数を用いて分類を行うだけである。だろう?

私の理解では、特徴量の変換はスプライン関数で行われるはずです。だろう?

どこに混乱があるのか?私が混乱しているのか、それともあなたがそうなのか:))

いや、我々はktricksを使って特徴を別の次元空間に投影し、その投影点の新しい座標を新しいデータ点として 必要とし、そしてRDFを学習しているのである。

テンソルやベクトルの代数ですが、私はここでnoobですが、私はすぐに学びます )

ベクトル代数を知っている人がいたら、ぜひ誘ってください。

または、enフォーラム版でトピックを追加することができます。
 
Maxim Dmitrievsky:

いや、我々はktricksを使って特徴を別の次元空間に投影し、その投影点の新しい座標を新しいデータ点として必要とし、そしてRDFを学習しているのである。

テンソルやベクトルの代数ですが、私はここでnoobですが、私はすぐに学びます )

ベクトル代数を知っている人がいたら、ぜひ誘ってください。

基本的には、低次元の入力ベクトルに対する高次元の座標ということですね?

近いうちにベクトル代数について調べてみようと思います。GoogleやYoutubeで簡単に手に入るものばかりだと思います。もし見つかったら、リンクを貼ります。

ベクトル代数は大学でずいぶん前に勉強したので、すぐに目を通した。

 
FxTrader562:

基本的には、低次元の入力ベクトルに対する高次元の座標ということですね?

近いうちにベクトル代数について調べてみようと思います。GoogleやYoutubeで簡単に手に入るものばかりだと思います。もし見つかったら、リンクを貼ります。

ベクトル代数は昔、大学で勉強したことがあり、それゆえ、すぐに目を通した。

そう、このビデオのようなものが必要なのです。


例えば、2次元の特徴空間があり、それを線形に分離できない場合、3次元の特徴を追加し、超平面によって分離できるようにします。

しかし、カーネルは 3次元の特徴を追加せずに点の射影を行うことができるので、3つの特徴ではなく2つの特徴があれば、同じように分離することができます。

でも...別の次元で直線的に分離された2次元の特徴量をどのように変換して得るか。新しい次元、すなわち別のベクトル空間からの新しい点の2次元投影が必要である

魔法だと思うのですが、どうなんでしょう?)

 
Maxim Dmitrievsky:

そう、このビデオのようなものが必要なのです。


例えば、2次元の特徴空間があり、それを線形に分離できない場合、3次元の特徴を追加し、超平面によって分離できるようにします。

しかし、カーネルは 3次元の特徴を追加せずに点の射影を行うことができるので、3つの特徴ではなく2つの特徴があれば、同じように分離することができます。

でも...別の次元で直線的に分離された2次元の特徴量をどのように変換して得るか。新しい次元、すなわち別のベクトル空間からの新しい点の2次元投影が必要である

まあ、ベクトル代数を昔勉強したと言ったように、基本的な理解はすでにできているのですが。でも、この場合はちょっと難しいですね。

それは、ドットプロダクトとクロスプロダクトのことです。

内積はA.BCos(AとBのなす角)で決まる大きさです。これは内積と呼ばれます

クロスプロダクトとは、AとBのベクトルの掛け算後のベクトルで、その大きさはA.B.Sin(AとBのなす角)となります。これを外積という。だから、私はこのコードの行を理解しましたし、あなたもこれを理解すると思います。

P = cvxopt.matrix(np.outer(y,y) * K)

これは、まさにクロスプロダクトだと思います。

カーネルマッピングの関連動画です。

https://www.youtube.com/watch?v=7_T9AdeWY3k

 
FxTrader562:

まあ、ベクトル代数を昔勉強したと言ったように、基本的な理解はすでにできているのですが。でも、この場合はちょっと難しいですね。

それは、ドットプロダクトとクロスプロダクトのことです。

内積はA.BCos(AとBのなす角)で決まる大きさです。これは内積と呼ばれます

クロスプロダクトとは、AとBのベクトルの掛け算後のベクトルで、その大きさはA.B.Sin(AとBのなす角)となります。これを外積という。だから、私はこのコードの行を理解しましたし、あなたもこれを理解すると思います。

これは、まさにクロスプロダクトだと思います。

カーネルマッピングの関連動画です。

https://www.youtube.com/watch?v=7_T9AdeWY3k

はい、ここからですhttp://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

しかし、カーネルとSVMをソースコードから分離することができない

 
Maxim Dmitrievsky:

はい、ここからですhttp://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

しかし、カーネルとSVMをソースコードから分離することができない

私が理解する限り、高次元空間での座標は、2つの入力ベクトルと共にカーネル関数の値でなければなりません。2つの入力ベクトルがあり、3番目のベクトルが必要で、それが3番目の座標に追加されることを意味します。

例えば、2つのベクトルxとyを与えて3次元空間に写像すると、カーネル値K(x,y)が得られます。

そして、3次元空間における最終ベクトルの座標は、(x,y,k(x,y))

次に、4次元空間にマッピングしてカーネル値k1(x,y,k(x,y))を求めると。

そうすると、4次元空間での座標は、(x,y,k(x,y),k1(x,y,k(x,y)))となるはずですが......。

既存のソースコードとリンクしていますか?

あるいは、マッピング座標を基準にしてテンソルの角度を求め、その角度の余弦をとり、テンソルの大きさを掛ける方法もある。
 

それだ!いい人に巡り会えた!説明も丁寧だし、一気に覚えた。