Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1615

 
Alexey Vyazmikin :

Azaltma ile ilgili değil, ancak tahmin edicinin bölünme dışındaki örnek üzerindeki davranışının istatistikleri ile ilgili - bu, tahmin edici değerinin seçiminin rastgeleliğini azaltmalıdır.

Bu arada, AlgLib her bölmede veya bir kez bir ızgara yapar ve ardından bu ızgarayı kullanır mı? Anladığım kadarıyla, CatBoost geliştiricileri, ızgaranın onlarla bir kez yapıldığını iddia ediyor.

Kaza yok. Her tahminci için mevcut en iyi bölme seçilecektir. Ormanda rastgelelik, her bir ağaca tüm tahmin ediciler verilmediğinde, örneğin rastgele seçilenlerin yarısı verildiğinde mevcuttur.

Bir kez öğretmek. Eğitim yok. Ağaçlar/ormanlar için, görünüşe göre yeniden eğitimin yeterince hızlı olması nedeniyle, ek bir eğitim yok gibi görünüyor.
Ve neden bir ızgara? Ağaçların düğümleri ve yaprakları vardır.

 
elibrarius :
Bu arada, güçlendirme konusunda sevmediğim şey, önerilen ağaç derinliğinin 7-10 olmasıdır.
Onlar. 100 tahmincimiz varsa ve oradaki bölme de her bir tahmincinin ortasından başlar. O zaman yüksek bir olasılıkla ortada bölünmüş 7 farklı tahmincimiz olacak. Belki 1 veya 2 çeyreğe kadar paylaşacak, neredeyse daha küçük.
Yoksa algoritma, algoritmaları yarım bölmede değil, daha küçük parçalarda güçlendirmede mi çalışıyor? Kimse biliyor mu?
Ve bir ağacın derinliğini kim kullanır?


 
Maksim Dmitrievski :


47 dakika üzücü ... çoğu kişinin bildiği temelleri dinlemek. Sadece belirli bir soru var. Eğer biliyorsan - söyle bana)

 
elibrarius :

47 dakika üzücü ... çoğu kişinin bildiği temelleri dinlemek. Sadece belirli bir soru var. Eğer biliyorsan - söyle bana)

hepsi farklı inşa edilmiş, her biri için bir sertifika içmeniz gerekiyor

önemli değil, hedefle ilgili bilgilendirici özellikler varsa, o zaman herhangi bir yöntem işe yarar.

Ormanı benzer özelliklerde artırma ile karşılaştırdım. Güçlendirme, genel olarak daha az fazla takmaya sahiptir +-

 
Maksim Dmitrievski :

hepsi farklı inşa edilmiş, her biri için bir sertifika içmeniz gerekiyor

önemli değil, hedefle ilgili bilgilendirici özellikler varsa, o zaman herhangi bir yöntem işe yarar.

Ormanı benzer özelliklerde artırma ile karşılaştırdım. Güçlendirme, genel olarak daha az fazla takmaya sahiptir +-

Hangi derinliği artırmak istedi?
 
Maksim Dmitrievski :

hepsi farklı inşa edilmiş, her biri için bir sertifika içmeniz gerekiyor

önemli değil, hedefle ilgili bilgilendirici özellikler varsa, o zaman herhangi bir yöntem işe yarar.

Ormanı benzer özelliklerde artırma ile karşılaştırdım. Güçlendirme, genel olarak daha az fazla takmaya sahiptir +-

Yani ben de bahsediyorum. Girdiler hedef için uygunsa, herhangi bir yöntem işe yarayacaktır. Bunu kontrol etmek istedim çünkü gerçekten iyi girdilerim var. Ancak sadece Reshetov optimizer bunu kanıtlıyor ve anladığınız gibi, öznel bir değerlendirme yapmak için bir uzman yeterli değil. Bu yöntemle ilgili değil, yöntemlerin her biri sadece bir veya daha fazla sayıda özellik gerektiriyor (Kick Max, sayende bu kelimeyi ilk kez kullandım) birinin çok ihtiyacı var, birinin biraz ihtiyacı var, ama genel olarak, girdi verileri çıktı değişkenini açıklıyorsa, herhangi bir yöntemle çalışacaktır. Ve sonuçların benzer olacağını düşünüyorum. Girişlerimi Reshetov dışındaki diğer sistemlerde sürdürememeniz üzücü. Programcılar forumuna gitmem gerekiyor, nereye gidebilirim :-(
 
elibrarius :
Artırmak hangi derinliği istedi?

2'den 10'a kadar, derinlik arttıkça uyum da artar

optimal 3-7

gradyan adımı yine de değiştirilebilir. Genel olarak, hiç önemli değil, sonuçları ya daha az yayılım, ardından daha az ofset, daha az sinyal vb. verir... ve ortalama resim kaydedilir. Bu zaten bir optimizasyon meselesi, özelliklerin kalitesiyle ilgisi yok.


 
Max, doğal nöronla ilgili video için sana gerçekten teşekkür edeceğim ama bu video nedense pek iyi değil. Gerçek şu ki, uzun zamandır düşündüğüm bir yeniden eğitim teorim var ve onu benim için oldukça yeterli bir şekilde inşa ettim. Yandex çalışanlarının onu dinlemekle ilgileneceğinden eminim. Eh ... bir video kaydetme gücünü bulmak için. Sonra hep sarhoş oldum, sonra komik. Onun gibi :-(
 
Michael Marchukajtes :
Max, doğal nöronla ilgili video için sana gerçekten teşekkür edeceğim ama bu video nedense pek iyi değil. Gerçek şu ki, uzun zamandır düşündüğüm ve benim için oldukça yeterli bir şekilde inşa ettiğim bir yeniden eğitim teorim var. Yandex çalışanlarının onu dinlemekle ilgileneceğinden eminim. Eh ... bir video kaydetme gücünü bulmak için. Sonra hep sarhoş oldum, sonra komik. Onun gibi :-(

))) örüntüler istatistiksel analiz yoluyla aranmalı ve nöronlara işkence yapılmamalı

örneğin sondan bir önceki yazıda EURUSD'nin 10 yıllık, aylara göre mevsimsel dalgalanmalarının düzenini verdim. Bu yıl hepsi aynı. Nisan-Mayıs en ilginç olacak (en yakından)
 
Maksim Dmitrievski :

))) örüntüler istatistiksel analiz yoluyla aranmalı ve nöronlara işkence yapılmamalı

Yani ben de bahsediyorum. 6.000 bin sütundan JPrediction'ı bozmadan önce, istatistiksel olarak anlamlı yalnızca 150 parça bırakıyorum ve ancak o zaman içlerindeki çıktıyı açıklayan bu kötü şöhretli yasayı arıyorum. Algoritmanın seçebileceği çok şey olması için teoriye göre sütun sayısının tablodaki satır sayısının iki katı olması gerektiği göz önüne alındığında ve sonuç olarak sunduğum 150 sütundan optimize edici 5'ten ayrılıyor. Son modeli oluşturduğum 10 parçaya kadar.