Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 245

 
Andrey Dik :
Diyorum ki - basitleştirmek, genelleştirmek ve siz - karmaşıklaştırmak, detaylandırmak gerekiyor.

Bu şekilde çok sık yapılır. Akaika gibi bilgi kriterleri kullanılır.

Anlamı şu.

Modelin karmaşıklığı cezalandırılır. Optimizasyon sonucunda , en doğru olmayan, ancak daha basit olan bir model seçilir.

Ve şimdi bir örnek için.

H1'de 5.000'den fazla EURUSD çubuğu örneği alıyoruz. Rastgele bir orman inşa ediyoruz. Maksimum ağaç sayısını 500 olarak belirledik. Ağaç sayısına göre uydurma hatası grafiğine bakıyoruz. 100 ağaçtan sonra uydurma hatasının çok az değiştiği ortaya çıktı. Ayrıca numunenin arttırılması ağaç sayısında da bir artışa yol açmamaktadır. Ve ağaçlar istenen desenlerdir. Onlar. H1'deki EURUSD çifti yaklaşık 100 model içerir. Ancak neredeyse her zaman model yeniden eğitilir.

Modeli kabalaştırırsanız, maksimum ağaç sayısını alın ve kökten azaltın, örneğin 10, aşırı uyumla mücadelede yardımcı olabilir.

 
San Sanych Fomenko :


Modeli kabalaştırırsanız, maksimum ağaç sayısını alın ve kökten azaltın, örneğin 10, aşırı uyumla mücadelede yardımcı olabilir.

Bir ormanda, yeniden eğitim ağaç sayısından değil, sınırsız derinliklerinden (model karmaşıklığı) kaynaklanır, sayı varyansı azaltır ve yeniden eğitim bir baes'dir.
 
toksik :
Bir ormanda, yeniden eğitim ağaç sayısından değil, sınırsız derinliklerinden (model karmaşıklığı) kaynaklanır, sayı varyansı azaltır ve yeniden eğitim bir baes'dir.
tüm bunlar yine 50-50 arası bir madeni paraya dönüşüyor ... zaman kaybı.
 

Bunu merak ediyorum -

1. Algoritmik ticarette bir sinir ağını eğitmek nedir?

2. Eğitimde piyasa dinamiklerinin hangi parametreleri kullanılıyor?

3. Ağ, geçmişteki kalıpları tanımaya ek olarak, mevcut anda parametre değerindeki değişikliğin özel doğasını "öğrenebilir" ve buna tepki verebilir mi?

(örneğin, keskin dalgalı bir çıkış veya yumuşak bir iniş).

 

Parametrenin değerindeki mevcut değişikliğin doğasının ağ tarafından tanınmadığını düşünüyorum ... Zor.

Ve tahmin için umut verici görünüyor. Sonuçta, daha sonra tahmin edebilmek için bu değişikliklerin geçişlerini hatırlamak yeterli olacaktır.

 
Öğe :
tüm bunlar yine 50'den 50'ye bir madeni paraya düşüyor ... zaman kaybı.

Hayır, küçük bir yaş var. Basitçe söylemek gerekirse: MO'nun yardımıyla, “sezgi” de dahil olmak üzere diğer herhangi bir yoldan çok daha fazlasını elde edebilirsiniz , piyasada kalıplar vardır, MO yardımıyla onları çıkarmak en verimli yöntemdir.

 
Sihirbaz_ :

Dün yarı yarıya kederle 0,69 (0,68999) deldi. Hepsi yeterince oynadı.


Güzel!

Ancak kabul etmelisiniz ki 0.69 ancak standart yollarla çizilebilen bir duvardır, bana öyle geliyor ki sinir ağının derinliği veya ormandaki ağaç sayısı değil, 0,6'nın altında olanların bazı hileleri var. bilmediğimiz ve bu aslında çok motive edici çörekleri gevşetme))

 
toksik :

Güzel!

Ancak, katılıyorum 0.69

Ve bu sayı nedir? Nerede görebilirsin?
 
San Sanych Fomenko :
Ve bu sayı nedir? Nerede görebilirsin?
numer.ai'deki logolar
 

MO ile çok dolaylı bir ilişkisi olan biri olarak, tartışmaya karışmam, ancak kendi fikrimi "çan kulemden" ifade etme izni vereceğim.

Sıradan bir çok katmanlı sinir ağı nöronlardan oluşur. Bir nöronun aktivasyon fonksiyonu, -1'den 1'e (veya 0'dan 1'e, her neyse) büyüyen monotonik bir fonksiyondur. Girişteki minimum değer ile bu fonksiyon, maksimum değer - maksimum ile minimum sonucu üretir.

N boyutlu uzayda bazı alanlarda (giriş veri bulutu) N girdili bir sinir ağı eğitiyoruz. Sinir ağının, bu bulutun dışında kalan verilerle ne yapacağı hakkında hiçbir fikri yoktur. Ama biz bu verileri onun girdisine veriyoruz ve ondan bir sonuç bekliyoruz.


Peter Konow'un fotoğrafı.

3. Ağ, geçmişteki kalıpları tanımaya ek olarak, mevcut anda parametre değerindeki değişikliğin özel doğasını "öğrenebilir" ve buna tepki verebilir mi?

(örneğin, keskin dalgalı bir çıkış veya yumuşak bir iniş).

Parametrenin değerindeki mevcut değişikliğin doğasının ağ tarafından tanınmadığını düşünüyorum ... Zor.

Ve tahmin için umut verici görünüyor. Sonuçta, daha sonra tahmin edebilmek için bu değişikliklerin geçişlerini hatırlamak yeterli olacaktır.

Diyelim ki piyasada acil bir durum oldu ve fiyatlarda keskin bir sıçrama oldu. Veya insan yüzleri üzerinde eğitilmiş bir sinir ağı, girdi olarak çok renkli gözlüklerin bir görüntüsünü alır. Nöronlar aşırı uyarılır ve çıkış sinyalleri sigmoidin sol veya sağ dalına kadar gider. Ve bu, Ulusal Meclis'in çıkışında bir tür öngörülemeyen, ancak çok güçlü sinyal aldığımız anlamına geliyor.

Eğitim örneğinde bu tür aykırı değerler varsa (örneğin, tüm verilerin %1'i), o zaman backprop algoritması tüm ağırlıkları "sallar", sinir ağının hiçbir şey "öğrenmek" için zamanı olmaz, ancak performansı kötüleşir. "Normal" verilerin %99'u.

NN'yi gerçekçi olmayan gereksinimler çerçevesine "sürmek" değil, kendisini "anormal" girdi verilerinden nasıl koruyacağını öğretmek çok daha iyi olurdu. Ve burada, IMHO, eylem için iki seçeneğimiz var.

1. Aktivasyon fonksiyonu sigmoid yerine Gauss eğrisi şeklinde olan bir veya daha fazla nöron katmanı girin. Böyle bir nöron, sınırlı bir girdi değerleri aralığında 1'e yakın ve sayı ekseninin geri kalanında 0'a yakın bir sonuç üretecektir.

2. NN çıkışlarının yorumunu değiştirin. Olağan ikili yorumlama yerine (0 - alım satım sinyali yok, 1 - alım satım sinyali), aşağıdakiler önerilmektedir: 0 - sinyal yok, 0,5 - sinyal, 1,0 - sinyal yok. Öngörülemeyen fiyat hareketleri durumunda, Millet Meclisinin çıktısı uç değerlerden - 0 veya 1'e yakın olacak ve herhangi bir yanlış sinyal vermeyecektir.

Sevgili uzmanlar, MO ile ilgili literatürde bu tür şeylerden bahsediliyor mu ve bunu faydalı buluyor musunuz? Yorumlara açığız.