Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 521

 
Grigory Chaunin :

Nöronların aktivasyon işlevleri hakkında bilgi edinin. İstediğiniz değeri çıktı alabilirsiniz ancak yanlış bir aktivasyon fonksiyonu negatif değerler üretecektir. Genellikle bu hiperbolik tanjanttır. Softmax kayıp işlevi onunla düzgün çalışmayacaktır. Her ne kadar çok şey kütüphaneye ve kayıp fonksiyonunun uygulanmasına bağlı olsa da. Örneğin, Tensorflow'ta softmax kayıp işlevi için çıkış nöronları herhangi bir etkinleştirme işlevine sahip olmamalıdır. Ve eğitimli ağın doğru kullanımı için softmax aktivasyonu eklemeniz gerekir. ALGLIB ile çalışmadım, belki yanlış bir şey yaptılar. Her durumda, eğitilmiş bir softmax ağı negatif değerler üretmemelidir.

Softmax bir kayıp fonksiyonu değildir. Bir şeyi karıştırıyorsun. Softmach - sınıflandırma problemleri için çıktı katmanının aktivasyon fonksiyonu. Kişiyi karıştırmayın, kafası karışacaktır.

Alglib'i riski size ait olmak üzere kullanırsınız. Sadece Rstudio'da her şeyi yapın.

İyi şanlar

 
Dr. tüccar :

Bu, eğitim örneklerinde sınıflarından birinin diğer sınıflara kıyasla sayıca büyük ölçüde üstün olması durumunda gerçekleşir. Örneğin, satın almak için 2000 ve satış için yalnızca 1000 eğitim örneği. Neuronka her zaman "Satın Al" verebilir ve vakaların %66'sında haklı olacaktır. Her sınıfın eğitim örneklerinin sayısını eşit yapmak daha iyidir.

NA Sınıfı - sık ticarette %50'den nadir ticarette %99'a kadar geçerli olacaktır. Ama ben 3. sınıfa geçtim ve Millet Meclisi 1. sınıfa geçti.

Merak ediyorum, makalelerde neden hiçbir şey yapılması gerekmeyen anlar için eğitim örnekleri kullanılmıyor? Sonuçta, doğru anlarda hiçbir şey yapmamak da önemlidir, genellikle bu anlar ticaret kaybına yol açtığında olur.
Ulusal Meclis, nasıl duraklatılacağını öğrenmeden ticarete başlayabilir ve mevduatı boşaltabilir.

 
Vladimir Perervenko :

Softmax bir kayıp fonksiyonu değildir. Bir şeyi karıştırıyorsun. Softmach - sınıflandırma problemleri için çıktı katmanının aktivasyon fonksiyonu. Kişiyi karıştırmayın, kafası karışacaktır.

Alglib'i riski size ait olmak üzere kullanırsınız. Sadece her şeyi Rstudio'da yapın.

İyi şanlar


Kesin olmak gerekirse, kayıp fonksiyonu softmax crossentropy olarak adlandırılır. Evet, kendimi net ifade edemedim.

 
Vladimir Perervenko :

Softmax bir kayıp fonksiyonu değildir. Bir şeyi karıştırıyorsun. Softmach - sınıflandırma problemleri için çıktı katmanının aktivasyon fonksiyonu. Kişiyi karıştırmayın, kafası karışacaktır.

Alglib'i riski size ait olmak üzere kullanırsınız. Sadece Rstudio'da her şeyi yapın.

İyi şanlar

Büyük olasılıkla, bir sonraki makalenizden sonra (terminal ile bir bağlantı olacak), benzetme yoluyla kendime R ile bir bağlantı ekleyeceğim.
 

Bu arada, ilginçtir ki yukarıdaki örnekten

Satın Al Sat NA
0.10302356, 0.01091621, 0.88606040
0.09705416, 0.01083526, 0.89211080
0.08283979, 0.12548789, 0.79167247
1.02522414 ,-0.00119697,-0.02403573
0.09498582, 0.01529507, 0.88971917
1.01878489 ,-0.00111341,-0.01767998
0.07906346, 0.05960769, 0.86132762
0.00201949, 0.00497863, 0.99300189

Her satırın toplamı 1'dir (İlk 4 işaretli). Onlar. Toplam (yani olasılık) da = 1 olduğunda softmax ile bazı benzerlikler. Ancak bu, NN - doğrusal çıktılı regresyon ile yapıldı.

 
elibrarius :

NA Sınıfı - sık ticarette %50'den nadir ticarette %99'a kadar geçerli olacaktır.

Öğretmen sınıfları oluşturmak için bir tür gösterge almak ve ardından bazı değerleri NA ile değiştirmek gibi, sınıfları rastgele bir öğretmene dağıtmak çok tehlikelidir.

Eğitim için iyi tahminciler ve iyi sınıflar olsa ve model yeni veriler üzerinde iyi bir sonuç alsa bile, o zaman sınıfların değerlerini değiştirmeye yönelik herhangi bir girişim modeli tamamen bozabilir. Tahminciler için göstergeler ve yeni veriler üzerinde modeli karlı tutacak sınıflar için bir gösterge bulmak büyük bir başarıdır.

İki basit sınıfla başlamanızı tavsiye ederim - bir sonraki çubuğun rengi (yani al/sat). En az 10.000 eğitim örneği (geçmiş çubuğu) alın, modeli eğitin ve geçmişteki sonraki 10.000 çubukta (eğitim sırasında model tarafından bilinmeyen) sonucu değerlendirin. Modelin doğruluğunun hem eski hem de yeni verilerde yaklaşık olarak aynı kalacağı tahmin edicileri seçmek mümkün olduğunda, öğretmen sınıfları için bir tür gösterge seçmeye başlayabilirsiniz. Ve sadece ilk mevcut göstergeyi alarak modelin artık yeni verilerde doğruluğunu korumayacağı ortaya çıktı. Neden bazı göstergeler öğretmene hizmet edebilir ve bazıları yapamaz - bilmiyorum, bu bir tür şans ve tasavvuf.

 
elibrarius :

NS'nin SOFTMAX sürümüyle ALGLIB'de bir sorun var. Tüm cevaplar ilk çıkışa doğru eğildi (Aldım).
Aynı veriler üzerinde, NN - 3 çıkışlı (doğrusal aktivasyonlu) regresyon daha güvenilir sonuçlar verir:

Satın Al Sat NA
0.10302356, 0.01091621, 0.88606040
0.09705416, 0.01083526, 0.89211080
0.08283979, 0.12548789, 0.79167247
1.02522414 ,-0.00119697,-0.02403573
0.09498582, 0.01529507, 0.88971917
1.01878489 ,-0.00111341,-0.01767998
0.07906346, 0.05960769, 0.86132762
0.00201949, 0.00497863, 0.99300189

>0.5'ten sonra makul cevaplar verecektir.

Bu arada ormanlar da 1. çıkışa doğru eğildi.


2 çıkışın toplamını bire ayarladınız mı? Bilmiyorum, her şey benim için bozulma olmadan sorunsuz çalıştı. Softmax'ı beğendim.

ve evet, hatırladığım kadarıyla softmax için 0 ile 1 aralığında girişleri normalleştirdim

Genel olarak ormanlar her zaman regresyon ve sınıflandırma için iyi çalışır. Sadece satın almak veya satmak için verdikleri durumlar var, ama sonra eğitim örneğini çıkardım ve evet, örneklerde ezici bir önyargı vardı, bu yüzden şaşılacak bir şey yok (çünkü kendileri belirli aralıklarla yeniden eğitiliyorlar ve ben yapmıyorum) Numuneye neyin düşeceğini önceden bilemezsiniz). Ormanların tahmin edemeyeceğini unutmayın. Bilinen tüm değerleri gelecekte öğretmek gerekiyor.

 

Bu arada, normalleşmeye bile gerek yok gibi görünüyor:

Veri ön işleme

Yakınsama hızını ve elde edilen çözümlerin kalitesini artırmak için ALGLIB, veri ön işlemesini (eğitim setinin standardizasyonu) uygular. Ön işleme, kullanıcı için dolaylı olarak gerçekleştirilir - veriler sinir ağına aktarılmadan önce otomatik olarak ön işleme tabi tutulur, ağın sonucu ters dönüşüme tabi tutulur.

 

Burada çarpım tablosunda bir NS kontrolü var

Aynısını iskele için de yaptım, her şey yolunda gidiyor

Библиотеки: ALGLIB - библиотека численного анализа
Библиотеки: ALGLIB - библиотека численного анализа
  • 2012.10.12
  • www.mql5.com
Статьи и техническая библиотека по автоматическому трейдингу: Библиотеки: ALGLIB - библиотека численного анализа
 
Maksim Dmitrievski :

2 çıkışın toplamını bire ayarladınız mı? Bilmiyorum, her şey benim için bozulma olmadan sorunsuz çalıştı. Softmax'ı beğendim.

ve evet, hatırladığım kadarıyla softmax için 0 ile 1 aralığında girişleri normalleştirdim

Genel olarak ormanlar her zaman regresyon ve sınıflandırma için iyi çalışır. Sadece satın almak veya satmak için verdikleri durumlar var, ama sonra eğitim örneğini çıkardım ve evet, örneklerde ezici bir önyargı vardı, bu yüzden şaşırtıcı değil (çünkü kendileri belirli aralıklarla yeniden eğitiliyorlar ve ben yapmıyorum) Numuneye neyin düşeceğini önceden bilin). Ormanların tahmin edemeyeceğini unutmayın. Bilinen tüm değerleri gelecekte öğretmek gerekiyor.

3 çıktının toplamı = 1 var veya daha doğrusu toplam yok, ancak çıktıların yalnızca 1'i = 1, geri kalanı = 0.
Girişleri normalleştirmedim, aşağıda bunun gerekli olmadığını onayladınız. Çarpım tablosunu kontrol ettim (ama bu softmax değil).
Softmax işinize yaradıysa, tekrar çevirmeye çalışacağım, belki işe yarayabilir (kesinlikle aynı verilerde olmasına rağmen, lin. çıktılarıyla gerileme olması gerektiği gibi çalışır).