Enterpolasyon, yaklaşıklık ve diğerleri (paket alglib) - sayfa 14

 
Maxim Dmitrievsky :

Anlamadım Ama şimdi Gram matrix ile nasıl çalışılır! Sadece, Bu nedenle yeni bir Dönüştürülmüş özellikler değil, sadece eski özelliklerin skaler çarpımı ile ITS matrisi

Bu durumda, vektörü elde etmek için son skaler temsilin ilk türevini almanız gerektiğini düşünüyorum. Demek istediğim, sadece son çekirdek fonksiyonunun eğimini hesaplamam gerekiyor.

Herhangi bir fonksiyonun ilk türevini veya eğimini hesaplamak için yerleşik MQL5 kitaplığı olması gerektiğini varsayıyorum.

Bu durumda eğim pozitif ise AL sinyali, eğim negatif ise SAT sinyali olmalıdır.

 
FxTrader562 :

Bu durumda, vektörü elde etmek için son skaler temsilin ilk türevini almanız gerektiğini düşünüyorum. Demek istediğim, sadece son çekirdek fonksiyonunun eğimini hesaplamam gerekiyor.

Herhangi bir fonksiyonun ilk türevini veya eğimini hesaplamak için yerleşik MQL5 kitaplığı olması gerektiğini varsayıyorum.

Bu durumda eğim pozitif ise AL sinyali, eğim negatif ise SAT sinyali olmalıdır.

)) nono.. RDF uydurma için yeni bir özellik noktası olarak ihtiyacımız var, aynı 2 veya n vektörleri ama yeni noktalarla düşünüyorum

Sadece hayal edemiyorum :D Önce onu çekirdekle dönüştürmemiz ve sonra başka bir veri noktasıyla özelliklere geri dönüştürmemiz gerekiyor.

ya da belki matris determinantı Gramian -bu noktalar

 
Maxim Dmitrievsky :

)) nono.. RDF uydurma için yeni bir özellik noktası olarak ihtiyacımız var, aynı 2 veya n vektörleri ama yeni noktalarla düşünüyorum

Sadece hayal edemiyorum :D Önce onu çekirdekle dönüştürmemiz ve sonra başka bir veri noktasıyla özelliklere geri dönüştürmemiz gerekiyor.

ya da belki matris determinantı Gramian -bu noktalar

Burada tamamen kafam karıştı :))

Çekirdek işlevi, sınıflandırma işlemini daha hızlı çalıştırmak için bir sınıflandırma tekniğidir. değil mi?

Neden öznitelik noktalarını çekirdek işlevinden geri almamız gerekiyor. Sadece sinir ağına spline'dan elde edilen özellik noktalarını beslememiz ve RDF ve çekirdek fonksiyonlarını kullanarak sınıflandırmayı yapmamız gerekiyor. Sağ?

Anladığım kadarıyla, özellik dönüşümü spline işleviyle yapılmalıdır. Sağ?

Karışıklık nerede? Ben mi karıştırıyorum yoksa sen mi :))

 
FxTrader562 :

Burada tamamen kafam karıştı :))

Çekirdek işlevi, sınıflandırma işlemini daha hızlı çalıştırmak için bir sınıflandırma tekniğidir. değil mi?

Neden öznitelik noktalarını çekirdek işlevinden geri almamız gerekiyor. Sadece sinir ağına spline'dan elde edilen özellik noktalarını beslememiz ve RDF ve çekirdek fonksiyonlarını kullanarak sınıflandırmayı yapmamız gerekiyor. Sağ?

Anladığım kadarıyla, özellik dönüşümü spline işleviyle yapılmalıdır. Sağ?

Karışıklık nerede? Ben mi karıştırıyorum yoksa sen mi :))

Hayır, özellikleri başka bir boyut uzayına yansıtmak için ktrick kullanıyoruz ve bu projeksiyonların yeni koordinatlarına yeni bir veri noktası olarak ihtiyacımız var, sonra RDF'yi öğreniyoruz

Bu bir tensör ve vektör cebiri, ama ben burada acemiyim ama hızlı öğreniyorum)

Vektör cebiri bilen birini tanıyorsanız - lütfen davet edin

veya konuyu forum versiyonuna ekleyelim
 
Maxim Dmitrievsky :

Hayır, özellikleri başka bir boyut uzayına yansıtmak için hileler kullanıyoruz ve bu projeksiyonların yeni koordinatlarına yeni bir veri noktası olarak ihtiyacımız var, sonra RDF'yi öğreniyoruz

Bu bir tensör ve vektör cebiri, ama ben burada acemiyim ama hızlı öğreniyorum)

Vektör cebiri bilen birini tanıyorsanız - lütfen davet edin

Ne aradığınızı anlamakta daha da yaklaşıyorum... temel olarak, alt boyutumuzun girdi vektörü için yüksek boyutun koordinatları. değil mi?

Yakında vektör cebirine bakacağım. Sanırım google ve youtube'dan kolayca alabildiğimiz her şey. Bulursam birkaç link paylaşırım.

Uzun zaman önce kolejimde vektör cebiri çalıştım ve bu nedenle hızlıca baktım.

 
FxTrader562 :

Ne aradığınızı anlamakta daha da yaklaşıyorum... temel olarak, alt boyutumuzun girdi vektörü için yüksek boyutun koordinatları. değil mi?

Yakında vektör cebirine bakacağım. Sanırım google ve youtube'dan kolayca alabildiğimiz her şey. Bulursam birkaç link paylaşırım.

Uzun zaman önce kolejimde vektör cebiri çalıştım ve bu nedenle hızlıca baktım.

evet bu videodaki gibi ihtiyacımız var


örneğin 2 boyutlu özellik uzayımız var ve onu doğrusal olarak ayıramıyoruz, sonra 3 boyutlu özellik ekliyoruz ve şimdi onu hiper düzlemle ayırabiliriz

ancak çekirdek 3 boyutlu özellik eklemeden noktaların projeksiyonunu yapmamıza izin veriyor, böylece 3 yerine 2 özelliğimiz varsa aynı şekilde ayırabiliriz.

ama.. başka bir boyutta lineer olarak ayrılmış 2 boyutlu özellikleri nasıl dönüştürebiliriz. Yeni boyutun 2 boyutlu bir projeksiyonuna ihtiyacımız var, yani başka bir vektör uzayından yeni noktalar

Bunun bir sihir olduğunu düşünüyorum, ama neyse)

 
Maxim Dmitrievsky :

evet bu videodaki gibi ihtiyacımız var


örneğin 2 boyutlu özellik uzayımız var ve onu doğrusal olarak ayıramıyoruz, sonra 3 boyutlu özellik ekliyoruz ve şimdi onu hiper düzlemle ayırabiliriz

ancak çekirdek 3 boyutlu özellik eklemeden noktaların projeksiyonunu yapmamıza izin veriyor, böylece 3 yerine 2 özelliğimiz varsa aynı şekilde ayırabiliriz.

ama.. başka bir boyutta lineer olarak ayrılmış 2 boyutlu özellikleri nasıl dönüştürebiliriz. Yeni boyutun 2 boyutlu bir projeksiyonuna ihtiyacımız var, yani başka bir vektör uzayından yeni noktalar

Dediğim gibi, vektör cebirini uzun zaman önce çalıştım ve bu nedenle, zaten temel anlayışa sahibim. Ama bu durumda, biraz zor buluyorum.

Her şey nokta çarpım ve çapraz çarpımla ilgili.

Nokta çarpım, A.BCos (A ile B arasındaki açı) tarafından belirlenen büyüklüktür. Buna iç çarpım denir

Çapraz çarpım, A ve B vektörünün çarpımından sonraki vektördür ve büyüklükleri ABSin'dir(A ile B arasındaki açı). Buna dış ürün denir. Bu yüzden bu kod satırını anladım ve sanırım şunu da anlayacaksınız:

 P = cvxopt.matrix(np.outer(y,y) * K)

Bu sadece bir çapraz ürün sanırım.

Bu, çekirdek eşlemeyle ilgili bir videodur:

https://www.youtube.com/watch?v=7_T9AdeWY3k

 
FxTrader562 :

Dediğim gibi, vektör cebirini uzun zaman önce çalıştım ve bu nedenle, zaten temel anlayışa sahibim. Ama bu durumda, biraz zor buluyorum.

Her şey nokta çarpım ve çapraz çarpımla ilgili.

Nokta çarpım, A.BCos (A ile B arasındaki açı) tarafından belirlenen büyüklüktür. Buna iç çarpım denir

Çapraz çarpım, A ve B vektörünün çarpımından sonraki vektördür ve büyüklükleri ABSin'dir(A ile B arasındaki açı). Buna dış ürün denir. Bu yüzden bu kod satırını anladım ve sanırım şunu da anlayacaksınız:

Bu sadece bir çapraz ürün sanırım.

Bu, çekirdek eşlemeyle ilgili bir videodur:

https://www.youtube.com/watch?v=7_T9AdeWY3k

Evet, buradan http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

ancak çekirdekleri ve SVM'leri kaynak koddan ayıramıyorum

 
Maxim Dmitrievsky :

Evet, buradan http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

ancak çekirdekleri ve SVM'leri kaynak koddan ayıramıyorum

Anlayabildiğim kadarıyla, daha yüksek boyutlu uzayda koordinat, 2 giriş vektörü ile birlikte çekirdek fonksiyon değeri olmalıdır. Bu, 2 girdi vektörümüz olduğu ve 3. vektöre ihtiyacımız olduğu ve 3. koordinata eklendiği anlamına gelir.

Örneğin, 2 vektör x ve y beslerseniz ve onu 3 d uzayına eşlerseniz, K(x,y) çekirdek değerini alın,

O halde, 3 boyutlu uzaydaki son vektörün koordinatı (x,y,k(x,y)) olmalıdır.

Sonra, onu 4B uzaya eşlerseniz ve k1(x,y,k(x,y)) çekirdek değerini alırsanız,

O halde, 4B uzayda koordinat (x,y,k(x,y),k1(x,y,k(x,y))) olmalıdır ve böyle devam eder....

Mevcut kaynak kodunuzla herhangi bir bağlantı oluşturmak mantıklı mı veya herhangi bir bağlantı oluşturuyor mu?

VEYA başka bir yol, eşleme koordinatına göre tensörün açısını elde etmek, ardından bu açının kosinüsünü alıp tensörün büyüklüğü ile çarpmaktır.
 

Her şey, normal bir çocuk buldum, her şeyi iyi açıklıyor, hemen her şeyi hatırladım.