Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2493
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
TensorFlow belgelerini okuyun, her şey bir kurucu biçimindedir... pratik olarak. Doğru, bunlar kara kutular. Eğer ilgilenirseniz size elle yazılmış perceptron koduna bir göz atabilirim ve bu arada her şey tamamen matris hesabıdır, her şey onların üzerine kuruludur.
Az önce Evgeny Dyuka ve onun ServerNN'sinden (kodu okuyun) TensorFlow'daki gönderiye döndüm
çünkü Habre'de Python kitaplıklarına yönelik bir tür eleştiriyle karşılaştım.
Sklearn yığınında, xgboost, lightGBM paketlerinde, "ahşap modeller" için özelliklerin önemini (özellik önemi) değerlendirmek için yerleşik yöntemler vardı:
1. Kazanç
Bu ölçü, her bir özelliğin modele göreli katkısını gösterir. hesaplamak için her ağacın üzerinden geçiyoruz, ağacın her bir düğümüne, hangi özelliğin düğümün bölünmesine yol açtığına ve metriğe göre modelin belirsizliğinin ne kadar azaldığına (Gini safsızlığı, bilgi kazancı) bakıyoruz.
Her özellik için, tüm ağaçlara katkısı özetlenir.
2. Kapak
Her özellik için gözlem sayısını gösterir. Örneğin 4 özelliğiniz, 3 ağacınız var. 1, 2 ve 3 ağaçlarında sırasıyla 10, 5 ve 2 gözlem içerdiğini varsayalım.
3. Frekans
Bu özelliğin ağacın düğümlerinde ne sıklıkta meydana geldiğini gösterir, yani her ağaçtaki her bir özellik için ağacın düğümlere toplam bölünme sayısı hesaplanır.
Tüm bu yaklaşımlardaki temel sorun, bu özelliğin modelin tahminini tam olarak nasıl etkilediğinin net olmamasıdır. Örneğin, bir bankanın müşterisinin kredi ödeme gücünü değerlendirmede gelir düzeyinin önemli olduğunu öğrendik. Ama tam olarak nasıl? Daha yüksek gelir, modelin tahminlerini ne kadar saptırıyor?
Ancak burada "ahşap modeller" hakkında - onlardan kaçınmak istiyorum çünkü. çok fazla operatör yiyorlar (ve ben hız ve kompaktlığın destekçisiyim) ...
- genel olarak, sorunuzun cevabı - TALEPLİ, İLGİNÇ ... evet, Sinir Ağlarında sürekli matris hesapları olduğunu düşündüm (bu yüzden onları ve onlar için kütüphaneleri sordum)
ps
Sadece anlamıyorum, eğer alıntıdaki kütüphaneler polinom katsayılarını tahmin edemezse (cevap: ne kadar), o zaman dinamik modeli nasıl tanımlayacaklar? (lineer değil, regresyon değil [aynı şey]).. bu yüzden şimdilik bir model derlemeyi düşünüyorum (farklılaşmayı hatırlamaya çalışıyorum ... zorlukla)
Şimdi Evgeny Dyuka'nın görevine döndüm
çünkü Habre'de Python kitaplıklarına yönelik bir tür eleştiriyle karşılaştım.
Sklearn yığınında, xgboost, lightGBM paketlerinde, "ahşap modeller" için özelliklerin önemini (özellik önemi) değerlendirmek için yerleşik yöntemler vardı:
Bu ölçü, her bir özelliğin modele göreli katkısını gösterir. hesaplamak için her ağacın üzerinden geçiyoruz, ağacın her bir düğümüne, hangi özelliğin düğümün bölünmesine yol açtığına ve metriğe göre modelin belirsizliğinin ne kadar azaldığına (Gini safsızlığı, bilgi kazancı) bakıyoruz.
Her özellik için, tüm ağaçlara katkısı özetlenir.
Her özellik için gözlem sayısını gösterir. Örneğin 4 özelliğiniz, 3 ağacınız var. 1, 2 ve 3 ağaçlarında sırasıyla 10, 5 ve 2 gözlem içerdiğini varsayalım.
Bu özelliğin ağacın düğümlerinde ne sıklıkta meydana geldiğini gösterir, yani her ağaçtaki her bir özellik için ağacın düğümlere toplam bölünme sayısı hesaplanır.
Tüm bu yaklaşımlardaki temel sorun, bu özelliğin modelin tahminini tam olarak nasıl etkilediğinin net olmamasıdır. Örneğin, bir bankanın müşterisinin kredi ödeme gücünü değerlendirmede gelir düzeyinin önemli olduğunu öğrendik. Ama tam olarak nasıl? Daha yüksek gelir, modelin tahminlerini ne kadar saptırıyor?
Eh, benim zevkime göre Python, pişirmeyi bilmeyenler tarafından eleştiriliyor. Geriye kalan her şeyi hazır çözümler alarak değil, bunları kitaplıklar kullanarak yazarak yapmak daha kolaydır ve bu arada örneğin numpy kullanarak muhtemelen C++'dan daha fazla hız elde edersiniz. Fortran dilinde yazılmıştır. Ayrıca, Python artık doğrudan MT5 ile kolayca entegre edilmiştir, tabiri caizse bu, AI'yı soketli sunucular olmadan kullanmanıza olanak tanır.
Şimdi Evgeny Dyuka'nın görevine döndüm
çünkü Habre'de Python kitaplıklarına yönelik bir tür eleştiriyle karşılaştım.
Sklearn yığınında, xgboost, lightGBM paketlerinde, "ahşap modeller" için özelliklerin önemini (özellik önemi) değerlendirmek için yerleşik yöntemler vardı:
Bu ölçü, her bir özelliğin modele göreli katkısını gösterir. hesaplamak için her ağacın üzerinden geçiyoruz, ağacın her bir düğümüne, hangi özelliğin düğümün bölünmesine yol açtığına ve metriğe göre modelin belirsizliğinin ne kadar azaldığına (Gini safsızlığı, bilgi kazancı) bakıyoruz.
Her özellik için, tüm ağaçlara katkısı özetlenir.
Her özellik için gözlem sayısını gösterir. Örneğin 4 özelliğiniz, 3 ağacınız var. 1, 2 ve 3 ağaçlarında sırasıyla 10, 5 ve 2 gözlem içerdiğini varsayalım.
Bu özelliğin ağacın düğümlerinde ne sıklıkta meydana geldiğini gösterir, yani her ağaçtaki her bir özellik için ağacın düğümlere toplam bölünme sayısı hesaplanır.
Tüm bu yaklaşımlardaki temel sorun, bu özelliğin modelin tahminini tam olarak nasıl etkilediğinin net olmamasıdır. Örneğin, bir bankanın müşterisinin kredi ödeme gücünü değerlendirmede gelir düzeyinin önemli olduğunu öğrendik. Ama tam olarak nasıl? Daha yüksek gelir, modelin tahminlerini ne kadar saptırıyor?
Bu yöntemlerin hepsi işe yaramaz. İşte çekleri https://www.mql5.com/en/blogs/post/737458
Ağaçlar ve ormanlar hızla sayılır - özellikleri birer birer ekleyebilir / çıkarabilirsiniz. Ve sonucu iyileştirenleri ve sonucu kötüleştirenleri bulun.
Modellere gelince, mesele onlarda değil, AI'nın esasen bir tahmin edici olduğu gerçeğinde ve bu, piyasa dışındaki diğer tüm durumlarda gücüdür, çünkü. denizin altında çok fazla balık ve godzilla fiyat dalgalarına neden oluyor. Her şeyin fiyata dahil olduğu varsayımı doğru olsa da, bu çok fazla. Bir sinir ağı, bir tür sistemin yalnızca küçük bir parçası olabilir ve buna katılmayan herkes kendini kandırır.
Ve AI tahmincileri diyen kişi ne yapıyor? )
Şey, muhtemelen yapay zekayı çağırırken yanılmışım çünkü sadece bir sinir ağını kastetmiştim ve bu yapay zekanın özel bir durumu. Herkes gibi ben de Kâse arayışıyla meşgulüm, isteğe bağlı olarak fanatizm olmadan yapıyorum). Suda, modeller hakkında fikir aramaya geldi (tam olarak sinir ağının anlaşılmasında), kendi başına paylaşacak bir şey var. Tabii 20 yıllık tecrübem yok ama Millet Meclisi için yüzlerce seçenek üzerinden geçtim. Kısa mesafelerde maksimum verimlilik yaklaşık %68'e ulaştı, ancak muhtemelen bunun istikrarlı ve durumsal olmadığını anlıyorsunuz.
Evet, elbette anlıyorum...
Evet, kişi iyiyse kod için üzülmüyorum). Bu arada, Mihail Marchukajtes'in makalesini okudum, orada uygulanan bazı fikirlerden de yararlandım, ancak bunun nedenleri yazarınkinden tamamen farklıydı. Hangi katmanların en etkili olduğu ortaya çıkan modellerin hangi varyantlarını tartışmak ilginç olurdu. İkincil kanıtlara göre değerlendiren Michael, tamamen bağlantılı Sequential() katmanları kullanıyor gibi görünüyor.
Nöronları hiç kullanmıyor, hazır bir yazarın vasat programını kullanıyor (bir tür SVM ve MGUA melezi var), sırasıyla python veya R-ke'de programlamıyor, Sıralı ( ) ona aşina değil, sinir ağlarında 20 yıllık deneyim aynı, böyle bir şeyle ilgilenmek için çok erken ...