Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Anlamadım Ama şimdi Gram matrix ile nasıl çalışılır! Sadece, Bu nedenle yeni bir Dönüştürülmüş özellikler değil, sadece eski özelliklerin skaler çarpımı ile ITS matrisi
Bu durumda, vektörü elde etmek için son skaler temsilin ilk türevini almanız gerektiğini düşünüyorum. Demek istediğim, sadece son çekirdek fonksiyonunun eğimini hesaplamam gerekiyor.
Herhangi bir fonksiyonun ilk türevini veya eğimini hesaplamak için yerleşik MQL5 kitaplığı olması gerektiğini varsayıyorum.
Bu durumda eğim pozitif ise AL sinyali, eğim negatif ise SAT sinyali olmalıdır.
Bu durumda, vektörü elde etmek için son skaler temsilin ilk türevini almanız gerektiğini düşünüyorum. Demek istediğim, sadece son çekirdek fonksiyonunun eğimini hesaplamam gerekiyor.
Herhangi bir fonksiyonun ilk türevini veya eğimini hesaplamak için yerleşik MQL5 kitaplığı olması gerektiğini varsayıyorum.
Bu durumda eğim pozitif ise AL sinyali, eğim negatif ise SAT sinyali olmalıdır.
)) nono.. RDF uydurma için yeni bir özellik noktası olarak ihtiyacımız var, aynı 2 veya n vektörleri ama yeni noktalarla düşünüyorum
Sadece hayal edemiyorum :D Önce onu çekirdekle dönüştürmemiz ve sonra başka bir veri noktasıyla özelliklere geri dönüştürmemiz gerekiyor.
ya da belki matris determinantı Gramian -bu noktalar
)) nono.. RDF uydurma için yeni bir özellik noktası olarak ihtiyacımız var, aynı 2 veya n vektörleri ama yeni noktalarla düşünüyorum
Sadece hayal edemiyorum :D Önce onu çekirdekle dönüştürmemiz ve sonra başka bir veri noktasıyla özelliklere geri dönüştürmemiz gerekiyor.
ya da belki matris determinantı Gramian -bu noktalar
Burada tamamen kafam karıştı :))
Çekirdek işlevi, sınıflandırma işlemini daha hızlı çalıştırmak için bir sınıflandırma tekniğidir. değil mi?
Neden öznitelik noktalarını çekirdek işlevinden geri almamız gerekiyor. Sadece sinir ağına spline'dan elde edilen özellik noktalarını beslememiz ve RDF ve çekirdek fonksiyonlarını kullanarak sınıflandırmayı yapmamız gerekiyor. Sağ?
Anladığım kadarıyla, özellik dönüşümü spline işleviyle yapılmalıdır. Sağ?
Karışıklık nerede? Ben mi karıştırıyorum yoksa sen mi :))
Burada tamamen kafam karıştı :))
Çekirdek işlevi, sınıflandırma işlemini daha hızlı çalıştırmak için bir sınıflandırma tekniğidir. değil mi?
Neden öznitelik noktalarını çekirdek işlevinden geri almamız gerekiyor. Sadece sinir ağına spline'dan elde edilen özellik noktalarını beslememiz ve RDF ve çekirdek fonksiyonlarını kullanarak sınıflandırmayı yapmamız gerekiyor. Sağ?
Anladığım kadarıyla, özellik dönüşümü spline işleviyle yapılmalıdır. Sağ?
Karışıklık nerede? Ben mi karıştırıyorum yoksa sen mi :))
Hayır, özellikleri başka bir boyut uzayına yansıtmak için ktrick kullanıyoruz ve bu projeksiyonların yeni koordinatlarına yeni bir veri noktası olarak ihtiyacımız var, sonra RDF'yi öğreniyoruz
Bu bir tensör ve vektör cebiri, ama ben burada acemiyim ama hızlı öğreniyorum)
Vektör cebiri bilen birini tanıyorsanız - lütfen davet edin
veya konuyu forum versiyonuna ekleyelimHayır, özellikleri başka bir boyut uzayına yansıtmak için hileler kullanıyoruz ve bu projeksiyonların yeni koordinatlarına yeni bir veri noktası olarak ihtiyacımız var, sonra RDF'yi öğreniyoruz
Bu bir tensör ve vektör cebiri, ama ben burada acemiyim ama hızlı öğreniyorum)
Vektör cebiri bilen birini tanıyorsanız - lütfen davet edin
Ne aradığınızı anlamakta daha da yaklaşıyorum... temel olarak, alt boyutumuzun girdi vektörü için yüksek boyutun koordinatları. değil mi?
Yakında vektör cebirine bakacağım. Sanırım google ve youtube'dan kolayca alabildiğimiz her şey. Bulursam birkaç link paylaşırım.
Uzun zaman önce kolejimde vektör cebiri çalıştım ve bu nedenle hızlıca baktım.
Ne aradığınızı anlamakta daha da yaklaşıyorum... temel olarak, alt boyutumuzun girdi vektörü için yüksek boyutun koordinatları. değil mi?
Yakında vektör cebirine bakacağım. Sanırım google ve youtube'dan kolayca alabildiğimiz her şey. Bulursam birkaç link paylaşırım.
Uzun zaman önce kolejimde vektör cebiri çalıştım ve bu nedenle hızlıca baktım.
evet bu videodaki gibi ihtiyacımız var
örneğin 2 boyutlu özellik uzayımız var ve onu doğrusal olarak ayıramıyoruz, sonra 3 boyutlu özellik ekliyoruz ve şimdi onu hiper düzlemle ayırabiliriz
ancak çekirdek 3 boyutlu özellik eklemeden noktaların projeksiyonunu yapmamıza izin veriyor, böylece 3 yerine 2 özelliğimiz varsa aynı şekilde ayırabiliriz.
ama.. başka bir boyutta lineer olarak ayrılmış 2 boyutlu özellikleri nasıl dönüştürebiliriz. Yeni boyutun 2 boyutlu bir projeksiyonuna ihtiyacımız var, yani başka bir vektör uzayından yeni noktalar
Bunun bir sihir olduğunu düşünüyorum, ama neyse)
evet bu videodaki gibi ihtiyacımız var
örneğin 2 boyutlu özellik uzayımız var ve onu doğrusal olarak ayıramıyoruz, sonra 3 boyutlu özellik ekliyoruz ve şimdi onu hiper düzlemle ayırabiliriz
ancak çekirdek 3 boyutlu özellik eklemeden noktaların projeksiyonunu yapmamıza izin veriyor, böylece 3 yerine 2 özelliğimiz varsa aynı şekilde ayırabiliriz.
ama.. başka bir boyutta lineer olarak ayrılmış 2 boyutlu özellikleri nasıl dönüştürebiliriz. Yeni boyutun 2 boyutlu bir projeksiyonuna ihtiyacımız var, yani başka bir vektör uzayından yeni noktalarDediğim gibi, vektör cebirini uzun zaman önce çalıştım ve bu nedenle, zaten temel anlayışa sahibim. Ama bu durumda, biraz zor buluyorum.
Her şey nokta çarpım ve çapraz çarpımla ilgili.
Nokta çarpım, A.BCos (A ile B arasındaki açı) tarafından belirlenen büyüklüktür. Buna iç çarpım denir
Çapraz çarpım, A ve B vektörünün çarpımından sonraki vektördür ve büyüklükleri ABSin'dir(A ile B arasındaki açı). Buna dış ürün denir. Bu yüzden bu kod satırını anladım ve sanırım şunu da anlayacaksınız:
P = cvxopt.matrix(np.outer(y,y) * K)
Bu sadece bir çapraz ürün sanırım.
Bu, çekirdek eşlemeyle ilgili bir videodur:
https://www.youtube.com/watch?v=7_T9AdeWY3k
Dediğim gibi, vektör cebirini uzun zaman önce çalıştım ve bu nedenle, zaten temel anlayışa sahibim. Ama bu durumda, biraz zor buluyorum.
Her şey nokta çarpım ve çapraz çarpımla ilgili.
Nokta çarpım, A.BCos (A ile B arasındaki açı) tarafından belirlenen büyüklüktür. Buna iç çarpım denir
Çapraz çarpım, A ve B vektörünün çarpımından sonraki vektördür ve büyüklükleri ABSin'dir(A ile B arasındaki açı). Buna dış ürün denir. Bu yüzden bu kod satırını anladım ve sanırım şunu da anlayacaksınız:
Bu sadece bir çapraz ürün sanırım.
Bu, çekirdek eşlemeyle ilgili bir videodur:
https://www.youtube.com/watch?v=7_T9AdeWY3k
Evet, buradan http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log
ancak çekirdekleri ve SVM'leri kaynak koddan ayıramıyorum
Evet, buradan http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log
ancak çekirdekleri ve SVM'leri kaynak koddan ayıramıyorum
Anlayabildiğim kadarıyla, daha yüksek boyutlu uzayda koordinat, 2 giriş vektörü ile birlikte çekirdek fonksiyon değeri olmalıdır. Bu, 2 girdi vektörümüz olduğu ve 3. vektöre ihtiyacımız olduğu ve 3. koordinata eklendiği anlamına gelir.
Örneğin, 2 vektör x ve y beslerseniz ve onu 3 d uzayına eşlerseniz, K(x,y) çekirdek değerini alın,
O halde, 3 boyutlu uzaydaki son vektörün koordinatı (x,y,k(x,y)) olmalıdır.
Sonra, onu 4B uzaya eşlerseniz ve k1(x,y,k(x,y)) çekirdek değerini alırsanız,
O halde, 4B uzayda koordinat (x,y,k(x,y),k1(x,y,k(x,y))) olmalıdır ve böyle devam eder....
Mevcut kaynak kodunuzla herhangi bir bağlantı oluşturmak mantıklı mı veya herhangi bir bağlantı oluşturuyor mu?
VEYA başka bir yol, eşleme koordinatına göre tensörün açısını elde etmek, ardından bu açının kosinüsünü alıp tensörün büyüklüğü ile çarpmaktır.Her şey, normal bir çocuk buldum, her şeyi iyi açıklıyor, hemen her şeyi hatırladım.