Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3019

 
Aleksey Vyazmikin #:

Odun için açgözlülük ile genetik arasındaki farkın ne olduğunu bu şekilde yazdım - belki de soruyu anlamamışımdır.

Sinir ağından kural çekme hakkında bir şey duymadım. Bana bir bağlantı verebilir misiniz? Şimdiye kadar hayal gücümde hantal bir şey çiziyor.

Ancak buradaki sinir ağlarının yeni kurallar çıkarma hızı açısından ağaçlardan daha yavaş olacağını düşünüyorum.

"İyi kuralları" kötü olanlardan ayırma fikriniz tamamen çıkmaz sokak, metodolojik olarak çıkmaz sokak.

Siz, nedense, "iyi" kuralların (ağaçların) gerçekten "iyi" olduğunu düşünüyorsunuz.

Ve bu sadece geleceklerinin belirsizliği değil, bazı kriterlere göre alınabilecek hiçbir kuralın olmadığı gerçeğidir. Pencere hareket ettikçe değişen bir "iyilik" DEĞİŞKENLİĞİ üreten kurallar vardır. ve bu kuralın pencere hareket ettikçe "iyi "den "kötü "ye gitmesi oldukça olasıdır. Bu değişkenlik, tahmin olasılığını sınıflara bölen bir değerle tanımlanır.

Standart olarak MO algoritmalarında sınıflara bölme işlemi, sınıf tahmin olasılığını ikiye bölerek yapılır, ancak bu tamamen yanlıştır. Sınıflara bölme değerini göz önünde bulunduruyorum - asla 0,5 değildir: bu değer değişir ve belirli tahmin ediciye bağlıdır.

Şimdi "iyi" ağaçlarınıza geri dönelim.

Eğer "İyiliği" hareket eden eşiğe yakın olan ağaçları seçtiyseniz. Bu nedenle yukarıda seçtiğiniz "iyi" ağaçların kolayca kötü ağaçlara dönüşebileceğini savundum.


Bu bir çıkmaz sokak.

 
Igor Makanu #:

Yandex benzer bir şey yazdı https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml

Yandex tarafından güzel bir eğitim, fena yazılmamış. Başka bir bölümü benim düşüncelerimin etrafında döndüğü şeyle daha fazla ilgili. Ağaç yapımında kullanılan genel kayıp fonksiyonu türünü açıklıyor. Buradaki fikir, ortalama hata fiyatını optimize etmenin ve karı maksimize etmenin hata fiyatlarının toplamını optimize etmeye eşdeğer olduğudur.

Kâr terimlerine çevrilirse, bir işlemdeki toplam kâr ile ortalama kâr arasındaki farktır. İkili sınıflandırma (girme/girmeme) sorununu çözdüğüm için, bir işlemdeki ortalama karı maksimize etmek aptalca bir şekilde bir veya iki işleme girmeye ve geri kalanını atmaya yol açacaktır.

Bunun optimizasyon ve MO arasında aşılmaz bir sınır olup olmadığını anlamaya çalışıyorum.

Решающие деревья
Решающие деревья
  • academy.yandex.ru
Обучение древесных моделей для классификации и регрессии. Эффективное построение решающих деревьев
 
Aleksey Nikolayev #:

Yandex tarafından güzel bir eğitim, fena yazılmamış. Düşüncelerimin etrafında döndüğü şey daha çok başka bir bölümle ilgili. Ağaç yapımında kullanılan genel kayıp fonksiyonu türünü açıklıyor. Buradaki nokta, ortalama hata fiyatını optimize etmenin ve karı maksimize etmenin hata fiyatlarının toplamını optimize etmeye eşdeğer olduğudur.

Kâr terimlerine çevrilirse, bir işlemdeki toplam kâr ile ortalama kâr arasındaki farktır. İkili sınıflandırma (girme/girmeme) sorununu çözdüğüm için, bir işlemdeki ortalama karı maksimize etmek aptalca bir şekilde bir veya iki işleme girmeye ve geri kalanını atmaya yol açacaktır.

Bunun optimizasyon ve MO arasında aşılmaz bir sınır olup olmadığını anlamaya çalışıyorum.

Sizi kendi kayıp fonksiyonunuzu yazmaktan alıkoyan nedir?

 
Maxim Dmitrievsky #:
Bu sadece ağaç hakkında bir özet) Google çalışıyor, kendim kullanıyorum. Dalgıçlar genellikle benim gerçekliği nasıl algıladığıma çok yakın şeyler yaparlar.


Tavsiyeniz için teşekkürler!

 
Aleksey Vyazmikin #:

Tavsiyeleriniz için teşekkürler!

Dışarıda işler karışık, dün gece konuyla ilgili bir arama yaptım. Aynı ağaçlar ölçeklerden ve NS katmanlarından kurallar çıkarıyor. Ayrıca süper hassas ağlardan da kurallar çıkarıyorlar. Daha fazla bilgi edindikçe yayınlayacağım. Keşifsel analizde ağaç, bu kural arama açısından şu anda bir şekilde çok havalı görünüyor, muhtemelen uygun şekilde hazırlanmış bir veri kümesiyle hız açısından genetik optimizasyonu geride bırakıyor.
Kendim denemedim, belki bazı tuzaklar vardır.
 
mytarmailS #:
Konularınızla ilgilenecek kişi siz olmalısınız, başkası değil.....
Bir kez kafanıza girdiğinde, bu bir süreçtir...

Bunu bir düşün.

MQL5'te problem çözüyorum ve R hakkında konuşuyorduk.

Gerçek gerçektir - düşünmeden bir şey söylersiniz ve sonra çalılara gidersiniz.

 
mytarmailS #:

Sizi FUN'ınızı yazmaktan alıkoyan nedir?

Örneğin, kar maksimizasyonunu aynı bousting içinde nasıl uygulayacağımı henüz çözemedim.

Elbette bir şeyler yapıyorum, ancak konuyla ilgili diğer bilgilendirici görüşleri duymak isterim.

 
Aleksey Nikolayev #:

Örneğin, kar maksimizasyonunu aynı bousting'e nasıl uygulayacağımı henüz çözemedim.

Elbette bir şeyler yapıyorum, ancak konuyla ilgili diğer bilgilendirici görüşleri duymak isterim.

Doğruluk dengeli sınıflarla iyi çalışıyor. Tüm standart ölçümleri denedim, sonuçlarda neredeyse hiç fark yok. Kâr maksimizasyonu, maksimum kârlı işlemlerle biçimlendirme yoluyla uygulanır, değil mi)?
 
СанСаныч Фоменко #:

"İyi kuralları" kötü kurallardan ayırma fikriniz tamamen çıkmaz sokaktır, metodolojik olarak çıkmaz sokaktır.

Bir şekilde "iyi" kuralların (ağaçların) gerçekten "iyi" olduğunu düşünüyorsunuz.

Ve bu sadece geleceklerinin belirsizliği değil, bazı kriterlere göre alınabilecek hiçbir kural olmadığı gerçeğidir. Pencere hareket ettikçe değişen bir "iyilik" DEĞİŞKENLİĞİ üreten kurallar vardır. ve bu kuralın pencere hareket ettikçe "iyi" den "kötü" ye gitmesi oldukça olasıdır. Bu değişkenlik, tahmin olasılığını sınıflara bölen bir değer tarafından belirlenir.

Standart olarak MO algoritmalarında, sınıflara bölme işlemi sınıf tahmin olasılığını ikiye bölerek yapılır, ancak bu tamamen yanlıştır. Sınıflara bölme değerini göz önünde bulunduruyorum - bu değer asla 0,5 değildir: bu değer değişir ve belirli tahmin ediciye bağlıdır.

Şimdi "iyi" ağaçlarınıza dönelim.

Eğer "İyiliği" hareket eden eşiğe yakın olan ağaçlar seçtiyseniz. Bu nedenle yukarıda seçtiğiniz "iyi" ağaçların kolayca kötü ağaçlara dönüşebileceğini savundum.


Çıkmaz sokak.

Siz kendiniz benim ne düşündüğüm hakkında hipotezler kuruyor ve bunlarla çelişiyorsunuz. Başlangıçta soru sormayı deneyin.

Çıkmaz ya da değil, gerçek sonuçlar gösterdim. Aynı şeyi, eğitimden iki yıl sonra yaprakların %50'sinin 3 sınıfı karlı bir şekilde sınıflandırdığı bir ormanla da gösterin. Hatırladığım kadarıyla - neredeyse haftada bir kez modellerin düzenli olarak yeniden eğitilmesi gibi bir konseptiniz var.

Sürüklenme hakkında açıklama yapmama gerek yok - forumda sorunu çözmeye yönelik girişimlerin yer aldığı ayrı bir başlık oluşturdum - fikir paylaşmak istiyorsanız katılın.

Yani yöntem umut verici, ancak iyileştirilecek ve geliştirilecek bir şeyler var.

 
Aleksey Nikolayev #:

Örneğin, kar maksimizasyonunu aynı bousting'e nasıl uygulayacağımı henüz çözemedim.

Elbette bir şeyler yapıyorum, ancak konuyla ilgili diğer bilgilendirici görüşleri de duymak isterim.

Size forrest'i kar maksimizasyonu konusunda nasıl eğiteceğinizi gösterdim.

Bu, esasen RL olan bir uygunluk fonksiyonu aracılığıyla basit bir gradyansız öğrenmedir.

Kodu buraya attım, ancak bu yöntem büyük görevler için çok etkili değil.


Büyük görevler için gradyansız öğrenmeyi gradyanlı öğren meye, yani normal tipik bir RL daldırmasına dönüştürmemiz gerekir.

Bu videonun ilk yarısına bakın , size nasıl eğitileceğini anlatıyor.

Nöroniklerle ilgili bir örnek var, ancak bunun bir destek mi yoksa başka bir şey mi olduğu önemli değil.

Deep Learning на пальцах 13 - Reinforcement Learning
Deep Learning на пальцах 13 - Reinforcement Learning
  • 2019.05.15
  • www.youtube.com
Курс: http://dlcourse.ai