Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1966

 
Maksim Dmitrievski :

python'a geçin, size örnekler vereceğim, kullanabilirsiniz

Forumda tartışmak için bir neden göremiyorum, tk. RL teması giriş seviyesinden uzak

Kitabı okumayı bitirdiğimde soracağım)))) Görünüşe göre anlaşmadan önce bir şey hatırlıyor, ayın haftasının gününe göre zaman , artış gecikiyor. Klasiklerde önceki işlemlerin analizine dayalı stratejiler vardır.

 
Maksim Dmitrievski :

python'a geçin, size örnekler vereceğim, kullanabilirsiniz

Forumda tartışmak için bir neden göremiyorum, tk. RL teması giriş seviyesinden uzak


bana e-posta gönderebilir misin?

eugen420@gmail.com

 
Evgeni Gavrilovi :


bana e-posta gönderebilir misin?

sadece ona, gerisi para için

 
Maksim Dmitrievski :

python'a geçin, size örnekler vereceğim, kullanabilirsiniz

Forumda tartışmak için bir neden göremiyorum, tk. RL teması giriş seviyesinden uzak

Deneyeceğim..

 
mytarmailS :

Deneyeceğim..

Tanıtım videoları için YouTube'a bakın. R ile aynı, sadece kendi özellikleriyle. Geçiş ile ilgili herhangi bir sorun olmamalıdır. Ancak MT5'ten bir fiyat teklifi alabilir ve fırsatlar açabilirsiniz.
 
Maksim Dmitrievski :
Tanıtım videoları için YouTube'a bakın.

evet öyle yapıyorum))

 
mytarmailS :

evet öyle yapıyorum))

Kılavuz hatasız yazılmış olsaydı, anlama daha hızlı gelirdi:

Küme katmanı, bir Kohonen vektör niceleme ( LVQ ) sinir ağıdır. Küme katmanı, dendritlerin sonuçlarını standart LVQ algoritmasına göre gruplandırır. LQV'nin denetimsiz öğrenmeyi çevrimiçi olarak uyguladığını hatırlayın.

İlk olarak kısaltmalardaki harfler karıştırılmış (doğru LVQ), ikincisi bu ÖĞRETMENLİ bir öğretim yöntemidir.

ve öğretmensiz yönteme VQ (vektör niceleme) denir, o zaman büyük olasılıkla LVQ değil nörondadır.


LQV alt ağının, LQV nöronlarının son çıktılarının bir hafızası şeklinde önceki girdilerin hafızasını tuttuğunu belirtmek önemlidir. Bu nedenle, sinir ağına doğrudan girdisine verilenden daha fazla bilgi mevcuttu.

Henüz anlamıyorum. Büyük olasılıkla, alt ağın çıktılarının nöronlara geri giden bu bağlantıları kastedilmektedir. Sadece geçmiş eylemler hakkında bilgi tutarlar

Onlar. bellek, LQV alt ağını kaydeder.


 
Maksim Dmitrievski :

Kılavuz hatasız yazılmış olsaydı, anlayış daha hızlı gelirdi:

Küme katmanı, bir Kohonen vektör niceleme ( LVQ ) sinir ağıdır. Küme katmanı, dendritlerin sonuçlarını standart LVQ algoritmasına göre gruplandırır. LQV'nin çevrimiçi olarak denetimsiz öğrenme uyguladığını hatırlayın.

İlk olarak kısaltmalardaki harfler karıştırılmış (doğru LVQ), ikincisi bu ÖĞRETMENLİ bir öğretim yöntemidir.

ve öğretmensiz yönteme VQ (vektör niceleme) denir, o zaman büyük olasılıkla LVQ değil nörondadır.

xs .. 4 kere okudum anlamadım, hoca vardır belki takviyeler?

+ katmanlardan hala bir oy var

Maksim Dmitrievski :

LQV alt ağının, LQV nöronlarının son çıktılarının bir hafızası şeklinde önceki girdilerin hafızasını tuttuğunu belirtmek önemlidir. Bu nedenle, sinir ağına doğrudan girdisine verilenden daha fazla bilgi mevcuttu.

Henüz anlamıyorum. Büyük olasılıkla, alt ağın çıktılarının nöronlara geri giden bu bağlantıları kastedilmektedir. Sadece geçmiş eylemler hakkında bilgi tutarlar

Onlar. bellek, LQV alt ağını kaydeder.

Eh, evet, LQV'deki bellek, LQV nöronlarının son çıktıları şeklindedir, ancak bu şekilde anlıyorum, hafıza sadece bir adım geridir..

Peki ya bir çaydanlık ve kahve ile bu harika benzetme? Bütün huy bu..


Sana böyle mesaj atmadı mı?

Kahretsin, bunu öğrettikleri yerde ilginç, zaten yol boyunca sibernetik, robotik, AI ...

DataScientists bu Teknoloji Enstitüsünde sadece fiziksel öğretmenlerdir)))


================================================= ===========

ayrıca dinamik bir LVQ var - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Detaylar

dlvq : DLVQ kullanmak için giriş normalleştirilmelidir.

DLVQ'da eğitim: Her sınıf için ortalama bir vektör (prototip) hesaplanır ve (yeni oluşturulan) bir gizli modülde saklanır. Ağ daha sonra en yakın prototipi kullanarak her bir modeli sınıflandırmak için kullanılır. Şablon yanlışlıkla x sınıfı yerine y sınıfı olarak sınıflandırılırsa, y sınıfının prototipi şablondan uzaklaştırılır ve x sınıfının prototipi şablona doğru hareket ettirilir. Bu prosedür, sınıflandırmada daha fazla değişiklik kalmayana kadar iteratif olarak tekrarlanır. Yeni prototipler daha sonra her sınıf için yeni gizli birimler olarak ağa enjekte edilir ve o sınıftaki yanlış sınıflandırılmış şablonların ortalama vektörü ile başlatılır.

Ağ mimarisi: Ağ, her prototip için bir birim içeren yalnızca bir gizli katmana sahiptir. Prototipler/gizli bloklar aynı zamanda kod çizelgesi vektörleri olarak da adlandırılır. SNNS birimleri otomatik olarak oluşturduğundan ve önceden birim sayısını belirtmenizi gerektirmediğinden, SNNS'deki prosedüre dinamik LVQ adı verilir.

Varsayılan başlatma, öğrenme ve güncelleme işlevleri bu ağ türü için uygun olanlardır. Öğrenme fonksiyonunun üç parametresi, iki öğrenme oranını (doğru/yanlış sınıflandırılmış durumlar için) ve ortalama vektörleri hesaplamadan önce ağın eğittiği döngü sayısını belirler.

Bağlantılar

Kohonen, T. (1988), Self-organization and associative memory , Cilt.   8, Springer-Verlag.



================================================= ======


Kahretsin, bu LVQ hakkında okuyorum, sadece bir öğretmenle pratik olarak aynı Kohonen (SOM)

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,o%20instances%20should%20look%20like.

 

Dijital serileri hedefe göre niceleme sorununu kim çözdü? Benim durumumda, bu tekdüze olmayan "niceleme" - aralıktaki minimum basamak sayısı veya sayısal olarak pencerenin kendisi üzerinde bir sınırla hedefe otomatik ayarlama süreci - henüz kararlaştırılmadı.

CatBoost ile yapılan deneyler, nicelemenin büyük ölçüde (bazı durumlarda %15'e kadar akurasi) sonucu etkilediğini göstermektedir.

 
Alexey Vyazmikin :

Dijital serileri hedefe göre niceleme sorununu kim çözdü? Benim durumumda, bu tekdüze olmayan "niceleme" - aralıktaki minimum basamak sayısı veya sayısal olarak pencerenin kendisi üzerinde bir sınırla hedefe otomatik ayarlama süreci - henüz kararlaştırılmadı.

CatBoost ile yapılan deneyler, nicelemenin büyük ölçüde (bazı durumlarda %15'e kadar akurasi) sonucu etkilediğini göstermektedir.

https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html

hedefi dikkate alarak ayrıklaştırma (niceleme) paketi