Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1966
![MQL5 - MetaTrader 5 müşteri terminalinde yerleşik ticaret stratejileri dili](https://c.mql5.com/i/registerlandings/logo-2.png)
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
python'a geçin, size örnekler vereceğim, kullanabilirsiniz
Forumda tartışmak için bir neden göremiyorum, tk. RL teması giriş seviyesinden uzak
Kitabı okumayı bitirdiğimde soracağım)))) Görünüşe göre anlaşmadan önce bir şey hatırlıyor, ayın haftasının gününe göre zaman , artış gecikiyor. Klasiklerde önceki işlemlerin analizine dayalı stratejiler vardır.
python'a geçin, size örnekler vereceğim, kullanabilirsiniz
Forumda tartışmak için bir neden göremiyorum, tk. RL teması giriş seviyesinden uzak
bana e-posta gönderebilir misin?
eugen420@gmail.com
bana e-posta gönderebilir misin?
sadece ona, gerisi para için
python'a geçin, size örnekler vereceğim, kullanabilirsiniz
Forumda tartışmak için bir neden göremiyorum, tk. RL teması giriş seviyesinden uzak
Deneyeceğim..
Deneyeceğim..
Tanıtım videoları için YouTube'a bakın.
evet öyle yapıyorum))
evet öyle yapıyorum))
Kılavuz hatasız yazılmış olsaydı, anlama daha hızlı gelirdi:
Küme katmanı, bir Kohonen vektör niceleme ( LVQ ) sinir ağıdır. Küme katmanı, dendritlerin sonuçlarını standart LVQ algoritmasına göre gruplandırır. LQV'nin denetimsiz öğrenmeyi çevrimiçi olarak uyguladığını hatırlayın.
İlk olarak kısaltmalardaki harfler karıştırılmış (doğru LVQ), ikincisi bu ÖĞRETMENLİ bir öğretim yöntemidir.
ve öğretmensiz yönteme VQ (vektör niceleme) denir, o zaman büyük olasılıkla LVQ değil nörondadır.
LQV alt ağının, LQV nöronlarının son çıktılarının bir hafızası şeklinde önceki girdilerin hafızasını tuttuğunu belirtmek önemlidir. Bu nedenle, sinir ağına doğrudan girdisine verilenden daha fazla bilgi mevcuttu.
Henüz anlamıyorum. Büyük olasılıkla, alt ağın çıktılarının nöronlara geri giden bu bağlantıları kastedilmektedir. Sadece geçmiş eylemler hakkında bilgi tutarlar
Onlar. bellek, LQV alt ağını kaydeder.
Kılavuz hatasız yazılmış olsaydı, anlayış daha hızlı gelirdi:
Küme katmanı, bir Kohonen vektör niceleme ( LVQ ) sinir ağıdır. Küme katmanı, dendritlerin sonuçlarını standart LVQ algoritmasına göre gruplandırır. LQV'nin çevrimiçi olarak denetimsiz öğrenme uyguladığını hatırlayın.
İlk olarak kısaltmalardaki harfler karıştırılmış (doğru LVQ), ikincisi bu ÖĞRETMENLİ bir öğretim yöntemidir.
ve öğretmensiz yönteme VQ (vektör niceleme) denir, o zaman büyük olasılıkla LVQ değil nörondadır.
xs .. 4 kere okudum anlamadım, hoca vardır belki takviyeler?
+ katmanlardan hala bir oy var
LQV alt ağının, LQV nöronlarının son çıktılarının bir hafızası şeklinde önceki girdilerin hafızasını tuttuğunu belirtmek önemlidir. Bu nedenle, sinir ağına doğrudan girdisine verilenden daha fazla bilgi mevcuttu.
Henüz anlamıyorum. Büyük olasılıkla, alt ağın çıktılarının nöronlara geri giden bu bağlantıları kastedilmektedir. Sadece geçmiş eylemler hakkında bilgi tutarlar
Onlar. bellek, LQV alt ağını kaydeder.
Eh, evet, LQV'deki bellek, LQV nöronlarının son çıktıları şeklindedir, ancak bu şekilde anlıyorum, hafıza sadece bir adım geridir..
Peki ya bir çaydanlık ve kahve ile bu harika benzetme? Bütün huy bu..
Sana böyle mesaj atmadı mı?
Kahretsin, bunu öğrettikleri yerde ilginç, zaten yol boyunca sibernetik, robotik, AI ...
DataScientists bu Teknoloji Enstitüsünde sadece fiziksel öğretmenlerdir)))
================================================= ===========
ayrıca dinamik bir LVQ var - - dlvq
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq
Detaylar
dlvq : DLVQ kullanmak için giriş normalleştirilmelidir.
DLVQ'da eğitim: Her sınıf için ortalama bir vektör (prototip) hesaplanır ve (yeni oluşturulan) bir gizli modülde saklanır. Ağ daha sonra en yakın prototipi kullanarak her bir modeli sınıflandırmak için kullanılır. Şablon yanlışlıkla x sınıfı yerine y sınıfı olarak sınıflandırılırsa, y sınıfının prototipi şablondan uzaklaştırılır ve x sınıfının prototipi şablona doğru hareket ettirilir. Bu prosedür, sınıflandırmada daha fazla değişiklik kalmayana kadar iteratif olarak tekrarlanır. Yeni prototipler daha sonra her sınıf için yeni gizli birimler olarak ağa enjekte edilir ve o sınıftaki yanlış sınıflandırılmış şablonların ortalama vektörü ile başlatılır.
Ağ mimarisi: Ağ, her prototip için bir birim içeren yalnızca bir gizli katmana sahiptir. Prototipler/gizli bloklar aynı zamanda kod çizelgesi vektörleri olarak da adlandırılır. SNNS birimleri otomatik olarak oluşturduğundan ve önceden birim sayısını belirtmenizi gerektirmediğinden, SNNS'deki prosedüre dinamik LVQ adı verilir.
Varsayılan başlatma, öğrenme ve güncelleme işlevleri bu ağ türü için uygun olanlardır. Öğrenme fonksiyonunun üç parametresi, iki öğrenme oranını (doğru/yanlış sınıflandırılmış durumlar için) ve ortalama vektörleri hesaplamadan önce ağın eğittiği döngü sayısını belirler.
Bağlantılar
Kohonen, T. (1988), Self-organization and associative memory , Cilt. 8, Springer-Verlag.
================================================= ======
Kahretsin, bu LVQ hakkında okuyorum, sadece bir öğretmenle pratik olarak aynı Kohonen (SOM)
https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,o%20instances%20should%20look%20like.
Dijital serileri hedefe göre niceleme sorununu kim çözdü? Benim durumumda, bu tekdüze olmayan "niceleme" - aralıktaki minimum basamak sayısı veya sayısal olarak pencerenin kendisi üzerinde bir sınırla hedefe otomatik ayarlama süreci - henüz kararlaştırılmadı.
CatBoost ile yapılan deneyler, nicelemenin büyük ölçüde (bazı durumlarda %15'e kadar akurasi) sonucu etkilediğini göstermektedir.
Dijital serileri hedefe göre niceleme sorununu kim çözdü? Benim durumumda, bu tekdüze olmayan "niceleme" - aralıktaki minimum basamak sayısı veya sayısal olarak pencerenin kendisi üzerinde bir sınırla hedefe otomatik ayarlama süreci - henüz kararlaştırılmadı.
CatBoost ile yapılan deneyler, nicelemenin büyük ölçüde (bazı durumlarda %15'e kadar akurasi) sonucu etkilediğini göstermektedir.
https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html
hedefi dikkate alarak ayrıklaştırma (niceleme) paketi