Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3019
![MQL5 - MetaTrader 5 müşteri terminalinde yerleşik ticaret stratejileri dili](https://c.mql5.com/i/registerlandings/logo-2.png)
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Odun için açgözlülük ile genetik arasındaki farkın ne olduğunu bu şekilde yazdım - belki de soruyu anlamamışımdır.
Sinir ağından kural çekme hakkında bir şey duymadım. Bana bir bağlantı verebilir misiniz? Şimdiye kadar hayal gücümde hantal bir şey çiziyor.
Ancak buradaki sinir ağlarının yeni kurallar çıkarma hızı açısından ağaçlardan daha yavaş olacağını düşünüyorum.
"İyi kuralları" kötü olanlardan ayırma fikriniz tamamen çıkmaz sokak, metodolojik olarak çıkmaz sokak.
Siz, nedense, "iyi" kuralların (ağaçların) gerçekten "iyi" olduğunu düşünüyorsunuz.
Ve bu sadece geleceklerinin belirsizliği değil, bazı kriterlere göre alınabilecek hiçbir kuralın olmadığı gerçeğidir. Pencere hareket ettikçe değişen bir "iyilik" DEĞİŞKENLİĞİ üreten kurallar vardır. ve bu kuralın pencere hareket ettikçe "iyi "den "kötü "ye gitmesi oldukça olasıdır. Bu değişkenlik, tahmin olasılığını sınıflara bölen bir değerle tanımlanır.
Standart olarak MO algoritmalarında sınıflara bölme işlemi, sınıf tahmin olasılığını ikiye bölerek yapılır, ancak bu tamamen yanlıştır. Sınıflara bölme değerini göz önünde bulunduruyorum - asla 0,5 değildir: bu değer değişir ve belirli tahmin ediciye bağlıdır.
Şimdi "iyi" ağaçlarınıza geri dönelim.
Eğer "İyiliği" hareket eden eşiğe yakın olan ağaçları seçtiyseniz. Bu nedenle yukarıda seçtiğiniz "iyi" ağaçların kolayca kötü ağaçlara dönüşebileceğini savundum.
Bu bir çıkmaz sokak.
Yandex benzer bir şey yazdı https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml
Yandex tarafından güzel bir eğitim, fena yazılmamış. Başka bir bölümü benim düşüncelerimin etrafında döndüğü şeyle daha fazla ilgili. Ağaç yapımında kullanılan genel kayıp fonksiyonu türünü açıklıyor. Buradaki fikir, ortalama hata fiyatını optimize etmenin ve karı maksimize etmenin hata fiyatlarının toplamını optimize etmeye eşdeğer olduğudur.
Kâr terimlerine çevrilirse, bir işlemdeki toplam kâr ile ortalama kâr arasındaki farktır. İkili sınıflandırma (girme/girmeme) sorununu çözdüğüm için, bir işlemdeki ortalama karı maksimize etmek aptalca bir şekilde bir veya iki işleme girmeye ve geri kalanını atmaya yol açacaktır.
Bunun optimizasyon ve MO arasında aşılmaz bir sınır olup olmadığını anlamaya çalışıyorum.
Yandex tarafından güzel bir eğitim, fena yazılmamış. Düşüncelerimin etrafında döndüğü şey daha çok başka bir bölümle ilgili. Ağaç yapımında kullanılan genel kayıp fonksiyonu türünü açıklıyor. Buradaki nokta, ortalama hata fiyatını optimize etmenin ve karı maksimize etmenin hata fiyatlarının toplamını optimize etmeye eşdeğer olduğudur.
Kâr terimlerine çevrilirse, bir işlemdeki toplam kâr ile ortalama kâr arasındaki farktır. İkili sınıflandırma (girme/girmeme) sorununu çözdüğüm için, bir işlemdeki ortalama karı maksimize etmek aptalca bir şekilde bir veya iki işleme girmeye ve geri kalanını atmaya yol açacaktır.
Bunun optimizasyon ve MO arasında aşılmaz bir sınır olup olmadığını anlamaya çalışıyorum.
Sizi kendi kayıp fonksiyonunuzu yazmaktan alıkoyan nedir?
Bu sadece ağaç hakkında bir özet) Google çalışıyor, kendim kullanıyorum. Dalgıçlar genellikle benim gerçekliği nasıl algıladığıma çok yakın şeyler yaparlar.
Tavsiyeniz için teşekkürler!
Tavsiyeleriniz için teşekkürler!
Konularınızla ilgilenecek kişi siz olmalısınız, başkası değil.....
MQL5'te problem çözüyorum ve R hakkında konuşuyorduk.
Gerçek gerçektir - düşünmeden bir şey söylersiniz ve sonra çalılara gidersiniz.
Sizi FUN'ınızı yazmaktan alıkoyan nedir?
Örneğin, kar maksimizasyonunu aynı bousting içinde nasıl uygulayacağımı henüz çözemedim.
Elbette bir şeyler yapıyorum, ancak konuyla ilgili diğer bilgilendirici görüşleri duymak isterim.
Örneğin, kar maksimizasyonunu aynı bousting'e nasıl uygulayacağımı henüz çözemedim.
Elbette bir şeyler yapıyorum, ancak konuyla ilgili diğer bilgilendirici görüşleri duymak isterim.
"İyi kuralları" kötü kurallardan ayırma fikriniz tamamen çıkmaz sokaktır, metodolojik olarak çıkmaz sokaktır.
Bir şekilde "iyi" kuralların (ağaçların) gerçekten "iyi" olduğunu düşünüyorsunuz.
Ve bu sadece geleceklerinin belirsizliği değil, bazı kriterlere göre alınabilecek hiçbir kural olmadığı gerçeğidir. Pencere hareket ettikçe değişen bir "iyilik" DEĞİŞKENLİĞİ üreten kurallar vardır. ve bu kuralın pencere hareket ettikçe "iyi" den "kötü" ye gitmesi oldukça olasıdır. Bu değişkenlik, tahmin olasılığını sınıflara bölen bir değer tarafından belirlenir.
Standart olarak MO algoritmalarında, sınıflara bölme işlemi sınıf tahmin olasılığını ikiye bölerek yapılır, ancak bu tamamen yanlıştır. Sınıflara bölme değerini göz önünde bulunduruyorum - bu değer asla 0,5 değildir: bu değer değişir ve belirli tahmin ediciye bağlıdır.
Şimdi "iyi" ağaçlarınıza dönelim.
Eğer "İyiliği" hareket eden eşiğe yakın olan ağaçlar seçtiyseniz. Bu nedenle yukarıda seçtiğiniz "iyi" ağaçların kolayca kötü ağaçlara dönüşebileceğini savundum.
Çıkmaz sokak.
Siz kendiniz benim ne düşündüğüm hakkında hipotezler kuruyor ve bunlarla çelişiyorsunuz. Başlangıçta soru sormayı deneyin.
Çıkmaz ya da değil, gerçek sonuçlar gösterdim. Aynı şeyi, eğitimden iki yıl sonra yaprakların %50'sinin 3 sınıfı karlı bir şekilde sınıflandırdığı bir ormanla da gösterin. Hatırladığım kadarıyla - neredeyse haftada bir kez modellerin düzenli olarak yeniden eğitilmesi gibi bir konseptiniz var.
Sürüklenme hakkında açıklama yapmama gerek yok - forumda sorunu çözmeye yönelik girişimlerin yer aldığı ayrı bir başlık oluşturdum - fikir paylaşmak istiyorsanız katılın.
Yani yöntem umut verici, ancak iyileştirilecek ve geliştirilecek bir şeyler var.
Örneğin, kar maksimizasyonunu aynı bousting'e nasıl uygulayacağımı henüz çözemedim.
Elbette bir şeyler yapıyorum, ancak konuyla ilgili diğer bilgilendirici görüşleri de duymak isterim.
Size forrest'i kar maksimizasyonu konusunda nasıl eğiteceğinizi gösterdim.
Bu, esasen RL olan bir uygunluk fonksiyonu aracılığıyla basit bir gradyansız öğrenmedir.
Kodu buraya attım, ancak bu yöntem büyük görevler için çok etkili değil.
Büyük görevler için gradyansız öğrenmeyi gradyanlı öğren meye, yani normal tipik bir RL daldırmasına dönüştürmemiz gerekir.
Bu videonun ilk yarısına bakın , size nasıl eğitileceğini anlatıyor.
Nöroniklerle ilgili bir örnek var, ancak bunun bir destek mi yoksa başka bir şey mi olduğu önemli değil.