Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2208
![MQL5 - MetaTrader 5 müşteri terminalinde yerleşik ticaret stratejileri dili](https://c.mql5.com/i/registerlandings/logo-2.png)
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
kat .ktrl .. eğitimi ile ilgili bir wiki'ye link verdiğini söyledi. Anladığım işaretler sabit alanların kenarları.
ZZ çalışmıyor, çünkü biçimlendirme sadece bölümlerde farklılıklar olmadan gidiyor ve eğitim aynı şekilde gidiyor ve eğer ZZ işaretlerine göre ise, bu farklı özelliklere sahip çok fazla örnek gibidir ve eğitimin sonucu olamaz iyi ol.
Etiketler bilinen hedef\sınıflardır. Verilerin geri kalanı onlarsız, sadece özellikler şeklinde
bu etiketlerin bir anlam taşıması gerekiyor. Örneğin, kedi veya timsah olduklarına dair etiketler
bizim durumumuzda, kedilerin nerede olduğu hakkında hiçbir fikrimiz yok. Onlar. herhangi bir kalıp ve nasıl farklı olduklarını bilmiyoruz, bu görevi daha da karmaşık hale getiriyor
bu nedenle, etiketlerin ilk işaretlemesi kaba zorlanabilir, seçenekler üzerinde yinelenebilir
sadece bilinen hedef\sınıflar. Onlarsız diğer veriler
Arama için doğru yönü bu şekilde ayarlayabilirsiniz.)))
bu etiketlerin bir anlam taşıması gerekiyor. Örneğin, bunların kedi veya timsah olduğuna dair etiketler
bizim durumumuzda, kedilerin nerede olduğu hakkında hiçbir fikrimiz yok. Onlar. herhangi bir kalıp ve nasıl farklı olduklarını bilmiyoruz, bu görevi daha da karmaşık hale getiriyor
bu nedenle, etiketlerin ilk işaretlemesi kaba zorlanabilir, seçenekler üzerinde yinelenebilir
Tam numaralandırma her zaman eksik numaralandırmadan daha iyidir. Eksik doğru işaretlemede her zaman bir anlam olmuştur. Ve boyutsallığın laneti, yalnızca aramanın doğru yönü ile çözülür. Seçenekleri sıralamak için iyi bir site bulma / belirleme sorunu.
GMM için küçük örnekleri kabul etme fikrini genişletmeye çalıştım. 6 ay eğitin, 5 yıl test edin. Etiketler sabit bir boyutta n parçaya bölünür. Her parça için kendi GMM modelimi oluşturdum, her birinden 1000 örnek oluşturdum, onu bir yığına koydum ve bir cutbus eğittim. Özellikleri aldım ve şöyle çıktı:
İkinci seçenek, aynı etiketler, aynı bölmeye sahip, ancak önceden karıştırılmış:
X = X.sample(frac= 1.0 )
Her iki durumda da bir sabit hedef kullanıldı. İstenirse, bu deneyi çoğaltabilirim. Bu tür fenomenleri yorumlamada güçlü değilim, belki bir açıklaması vardır.
GMM için küçük örnekleri kabul etme fikrini genişletmeye çalıştım. 6 ay eğitin, 5 yıl test edin. Etiketler sabit bir boyutta n parçaya bölünür. Her parça için kendi GMM modelimi oluşturdum, her birinden 1000 örnek oluşturdum, onu bir yığına koydum ve bir cutbus eğittim. Özellikleri aldım ve şöyle çıktı:
İkinci seçenek, aynı etiketler, aynı bölmeye sahip, ancak önceden karıştırılmış:
Her iki durumda da bir sabit hedef kullanıldı. İstenirse, bu deneyi çoğaltabilirim. Bu tür fenomenleri yorumlamada güçlü değilim, belki bir açıklaması vardır.
Üzgünüm çocuklar, bir sorum var.
Izgaralarınızda kaç ağırlık var ve kaç işlem eğitiliyor?
Bu sayılar arasındaki ilişkiyi anlamak ve yeniden eğitilebilirliğin bu ilişkiye bağımlılığını düşünmek istiyorum. Teşekkür ederim.
Hmm'den önce mi yoksa boosttan önce mi karışıyor? Tren/test için sınıfların dengesinin kontrol edilmesi gerekmektedir. Belki sıfırlar trene, birler de teste girmiştir. Etiketleri alıp satarak ayrı kümelemeyi de deneyebilirsiniz.
Karıştırma, GMM oluşturulmadan önce gerçekleştirilir.
Ondan önce, duruma göre etiketleri bırakıyorum:
bu, sınıf dengesini her zaman hafif sapmalarla 1/1'e getirir:
Bu durumda 115 adet etiket karıştırılarak 4 parçaya bölünmüştür. Daha sonra bunlara dayalı olarak 4 GMM modeli oluşturulmuştur. Her örnekten 1000 etiket örneklenir ve bunlar tek bir veri çerçevesinde birleştirilir. Bundan sonra, bir tren ve bir test olmak üzere ikiye bölünür.
Örnek sınıfların dengesi idealden biraz farklıydı. Ancak tren ve test numunelerinde yaklaşık olarak aynı oran vardı.
Aşağıda, 4 parçaya bölünmüş, ancak karıştırılmamış 115 etiketin aynı numunesi ile simülasyon sonuçları verilmiştir. Sınıfların dengesi elbette biraz daha iyi, ama bana öyle geliyor ki bu, sonucu önemli ölçüde etkilemiyor.
Muhtemelen saçma gelecek ama bana öyle geliyor ki seride GMM modellerinin serinin farklı bölümlerinde bulduğu zamandan kalma bir tür ilişki var. Sıra karıştırılarak düzen bozulursa kaybolur.
Ayrı bir kümeleme düşünmedim akşam deneyeceğim.
Karıştırma, GMM oluşturulmadan önce gerçekleştirilir.
Ondan önce, duruma göre etiketleri bırakıyorum:
bu, sınıfların dengesini her zaman küçük sapmalarla 1/1'e getirir:
Bu durumda 115 adet etiket karıştırılarak 4 parçaya bölünmüştür. Daha sonra bunlara dayalı olarak 4 GMM modeli oluşturulmuştur. Her örnekten 1000 etiket örneklenir ve bunlar tek bir veri çerçevesinde birleştirilir. Bundan sonra, bir tren ve bir test olmak üzere ikiye bölünür.
Örnek sınıfların dengesi idealden biraz farklıydı. Ancak tren ve test numunelerinde yaklaşık olarak aynı oran vardı.
Aşağıda, 4 parçaya bölünmüş, ancak karıştırılmamış 115 etiketin aynı numunesi ile simülasyon sonuçları verilmiştir. Sınıfların dengesi elbette biraz daha iyi, ama bana öyle geliyor ki bu, sonucu önemli ölçüde etkilemiyor.
Muhtemelen saçma gelecek ama bana öyle geliyor ki seride GMM modellerinin serinin farklı bölümlerinde bulduğu zamandan kalma bir tür ilişki var. Sıra karıştırılarak düzen bozulursa kaybolur.
Ayrı bir kümeleme düşünmedim akşam deneyeceğim.
Çizmem gerekecek, bu yüzden çok net değil.. Eh, her iki durumda da dağılımların farklı olduğu gerçeği bir gerçektir. Ayrıca, serileştirmeyi zaten kaldırdınız. Büyük olasılıkla, dağılımlar çok bilgilendirici değil ve örneklemeden sonraki yeni noktalar anlaşılmaz bir yerde yatmaya başlıyor. Onlar. arka arkaya bilgi kaybolur, evet, çünkü alıntılar bağımsız değildir.
Veya basit bir örnek üzerinde yapın (tırnak işaretleri değil) ve daha sonra karşılaştırın.
Çizmem gerekecek, bu yüzden çok net değil.. Eh, her iki durumda da dağılımların farklı olduğu gerçeği bir gerçektir. Ayrıca, serileştirmeyi zaten kaldırdınız. Büyük olasılıkla, dağılımlar çok bilgilendirici değil ve örneklemeden sonraki yeni noktalar anlaşılmaz bir yerde yatmaya başlıyor. Onlar. arka arkaya bilgi kaybolur, evet, çünkü alıntılar bağımsız değildir.
Veya basit bir örnek üzerinde yapın (tırnak işaretleri değil) ve daha sonra karşılaştırın.
Maksim, merhaba. Uzun zamandır burada değildim... son yazınız hakkında) Sonuçta bir python koydum) Çözmeye çalışıyorum ve bir sürü sorum var))) İŞARETLEME ben böyle anlıyorum yayılma? Etiketleri basitçe mevcut değeri mevcut değerle karşılaştırarak yerleştirirsiniz + > veya < işaretine bağlı olarak rastgele bir sayı, etiketi 1 veya 0 koyarsınız. değil mi? Test için işaretleme=0.0 olarak mı ayarladınız? trenle MARKUP=0,00001 like))) değil mi?
Maksim, merhaba. Uzun zamandır burada değildim... son yazınız hakkında) Sonuçta bir python koydum) Çözmeye çalışıyorum ve bir sürü sorum var))) İŞARETLEME ben böyle anlıyorum yayılma? Etiketleri basitçe mevcut değeri mevcut değerle karşılaştırarak yerleştirirsiniz + > veya < işaretine bağlı olarak rastgele bir sayı, etiketi 1 veya 0 koyarsınız. değil mi? Test için işaretleme=0.0 olarak mı ayarladınız? trenle MARKUP=0,00001 like))) değil mi?
Merhaba. Evet bu doğru. Test cihazında aynı işaretleme kullanılır. Makalelerdeki makaleler hakkında soru sormak muhtemelen daha iyidir. Tek bir yerde olmak
Geri bildirimleri analiz ediyorum ve nelerin geliştirilebileceğini görüyorum