Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1258

 
elibrarius :

formül yığını

peki) R paketine bir bağlantı var.R'yi kendim kullanmıyorum, formülleri kopyalıyorum

R kullanıyorsanız deneyin)

 
Maksim Dmitrievski :

peki) R paketine bir bağlantı var.R'yi kendim kullanmıyorum, formülleri kopyalıyorum

R kullanıyorsanız deneyin)

Sabah gazetesi açık kaldı: https://towardsdatascience.com/bayesian-additive-regression-trees-paper-summary-9da19708fa71

En hayal kırıklığı yaratan gerçek, bu algoritmanın Python uygulamasını bulamamış olmam. Yazarlar, bazı bariz sorunları olan bir R paketi ( BayesTrees ) oluşturdular - çoğunlukla bir "tahmin" işlevinin olmaması - ve bartMachine adlı daha yaygın olarak kullanılan başka bir uygulama oluşturuldu.

Bu tekniği uygulama deneyiminiz varsa veya bir Python kitaplığı biliyorsanız, lütfen yorumlara bir bağlantı bırakın!

Yani ilk paket işe yaramaz. tahmin edemez.
İkinci linkte yine formüller.

İşte anlaşılması kolay sıradan bir ağaç. Tüm kesintiler mantıklıdır. Ve formüller olmadan

 
Maksim Dmitrievski :

Belki de henüz ona ulaşmadım. Ağaçlar, büyük bir Bayes temasının sadece özel bir durumudur, örneğin burada bir sürü kitap ve video örneği vardır.

Vladimir'in makalelerine göre NN hiperparametrelerinin Bayes optimizasyonu kullanıldı. İyi çalışıyor.
Ancak çok sayıda değişkeni optimize ederseniz, o zaman sooooo uzun.


Maksim Dmitrievski :

Mesela şu ağaçlar.. Bayesian sinir ağları var.

Birden!
NS mat işlemleri + ve * ile çalışır ve MA'dan dijital filtrelere kadar her türlü indikatörü kendi içinde yapabilir.
Ve ağaçlar, basit bir if(x<v){sol dal}else{sağ dal} ile sağ ve sol kısımlara bölünür.
yoksa Baysian NN de if(x<v){sol dal}else{sağ dal} mı?

 
elibrarius :
Ancak çok sayıda değişkeni optimize ederseniz, o zaman sooooo uzun.


Birden!
NS mat işlemleri + ve * ile çalışır ve MA'dan dijital filtrelere kadar her türlü indikatörü kendi içinde yapabilir.
Ve ağaçlar, basit bir if(x<v){sol dal}else{sağ dal} ile sağ ve sol kısımlara bölünür.
yoksa Baysian NN de if(x<v){sol dal}else{sağ dal} mı?

evet, yavaş, bu yüzden şimdilik oradan faydalı bilgiler alıyorum, bazı şeylerin anlaşılmasını sağlıyor

hayır, Bayesian NN'lerde ağırlıklar, dağılımlardan ağırlıkları örnekleyerek basitçe optimize edilir ve çıktı aynı zamanda bir grup seçenek içeren, ancak bir ortalama, varyansa vb. sahip bir dağıtımdır. Başka bir deyişle, aslında eğitim veri setinde olmayan birçok seçeneği yakalıyor gibi görünüyor, ancak bunlar a priori varsayılıyor. Böyle bir NN'ye ne kadar çok örnek beslenirse, olağan olana o kadar yakınlaşır, yani. Bayes, başlangıçta och değil için yaklaşıyor. büyük veri kümeleri. Şimdiye kadar bildiklerim bunlar.

Onlar. bu tür NN'ler çok büyük veri kümelerine ihtiyaç duymazlar, sonuçlar olağan olanlarla yakınsayacaktır. Ancak eğitimden sonraki çıktı, bir nokta tahmini değil, her örnek için bir olasılık dağılımı olacaktır.

 
Maksim Dmitrievski :

evet, yavaş, bu yüzden şimdilik oradan faydalı bilgiler alıyorum, bazı şeylerin anlaşılmasını sağlıyor

hayır, Bayesian NN'lerde ağırlıklar, dağılımlardan ağırlıkları örnekleyerek basitçe optimize edilir ve çıktı aynı zamanda bir grup seçenek içeren, ancak bir ortalama, varyansa vb. sahip bir dağıtımdır. Başka bir deyişle, aslında eğitim veri setinde olmayan birçok seçeneği yakalıyor gibi görünüyor, ancak bunlar a priori varsayılıyor. Böyle bir NN'ye ne kadar çok örnek beslenirse, olağan olana o kadar yakınlaşır, yani. Bayes, başlangıçta değil och için yaklaşıyor. büyük veri kümeleri. Şimdiye kadar bildiklerim bunlar.

Onlar. bu tür NN'ler çok büyük veri kümelerine ihtiyaç duymazlar, sonuçlar olağan olanlarla yakınsayacaktır. Ancak eğitimden sonraki çıktı, bir nokta tahmini değil, her örnek için bir olasılık dağılımı olacaktır.

Sanki hızlanıyorsunuz, sonra bir şey, sonra başka bir şey, sonra üçüncüsü ... ama boşuna.

Zamanla, bir tür beyefendi gibi çatının üstünde boş zamanınız var, çalışmanız, çok çalışmanız, kariyer gelişimi elde etmeniz ve sinir ağlarından koylara acele etmemeniz gerekiyor.

İnanın bana, normal kantorlarda kimse bilimsel laf kalabalığı ve makaleler için para vermez, sadece dünyanın en iyi brokerleri tarafından onaylanan eşitlik.
 
Maksim Dmitrievski :

Acele etmem ama sürekli olarak basitten karmaşığa doğru çalışırım

usta için kendin çalış, eğer iş yoksa, örneğin, mql'de bir şeyi yeniden yazabilirim.

Bir usta için çalışıyorum ve herkes gibi çalışıyorum, çalışmamanız garip, ustayı kendiniz görebilirsiniz, varisi, altın çocuğu, normal bir adam sokakta 3 ay sonra işini kaybederse, sonra yarım yıl bir ceset.

 
Maksim Dmitrievski :

Ticarette MO konusunda hiçbir şey yoksa, o zaman yürüyüşe çıkın, aksi takdirde zavallı adamlar sadece dilenciler topladı, düşünebilirsiniz)

Evet, MO'ya göre her şeyi gösterdim, dürüst olmak gerekirse, çocukların sırları olmadan, burada yırtık olanlar nasıl şifrelenir, testteki hata %10-15 ama pazar sürekli değişiyor, ticaret yok, gevezelik sıfıra yakın

 
Maksim Dmitrievski :

yürüyüşe çık Vasya, sızlanmakla ilgilenmiyorum

sadece sızlandığını yaparsın sonuç yoktur dirgen ile su kazarsın o kadar ama zaman kaybettiğini kabul etmeye cesaretin yok

seni orduya gönder ya da en azından adamlarla bir şantiyede fiziksel olarak çalış, karakterini düzelt
 
Maksim Dmitrievski :

evet, yavaş, bu yüzden şimdilik oradan faydalı bilgiler alıyorum, bazı şeylerin anlaşılmasını sağlıyor

hayır, Bayesian NN'lerde ağırlıklar, dağılımlardan ağırlıkları örnekleyerek basitçe optimize edilir ve çıktı aynı zamanda bir grup seçenek içeren, ancak bir ortalama, varyansa vb. sahip bir dağıtımdır. Başka bir deyişle, aslında eğitim veri setinde olmayan birçok seçeneği yakalıyor gibi görünüyor, ancak bunlar a priori varsayılıyor. Böyle bir NN'ye ne kadar çok örnek beslenirse, olağan olana o kadar yakınlaşır, yani. Bayes, başlangıçta değil och için yaklaşıyor. büyük veri kümeleri. Şimdiye kadar bildiklerim bunlar.

Onlar. bu tür NN'ler çok büyük veri kümelerine ihtiyaç duymazlar, sonuçlar normal olanlarla yakınsayacaktır.

10 puanlık örnekte olduğu gibi bir Bayes eğrisi çizip sonra bu eğriden 100 veya 1000 puan alıp üzerlerinde NS/orman öğrenmek gibi mi?
İşte Vladimir'in Bayes optimizasyonu hakkındaki makalesine https://www.mql5.com/ru/forum/226219 yorumlarından, birkaç nokta üzerinde nasıl bir eğri oluşturduğu. Ama o zaman ormana/ns'ye bile ihtiyacı yok - cevabı tam bu eğride arayabilirsiniz.

Başka bir sorun, optimize edicinin yeterince eğitilmemesi durumunda, NN'ye anlaşılmaz çöpleri öğreteceğidir.
İşte Bayes'in 3 burç için yaptığı çalışma
öğretilen desen

Обсуждение статьи "Глубокие нейросети (Часть V). Байесовская оптимизация гиперпараметров DNN"
Обсуждение статьи "Глубокие нейросети (Часть V). Байесовская оптимизация гиперпараметров DNN"
  • 2018.01.31
  • www.mql5.com
Опубликована статья Глубокие нейросети (Часть V). Байесовская оптимизация гиперпараметров DNN: Автор: Vladimir Perervenko...
 
Maksim Dmitrievski :

Konudaki aptal insanlar yüzünden iletişim kurmak hiç de ilginç değil

nefeslerinin altında bir şeyler mırıldanmak

Peki neden bahsediyorsun? Yeni gelenleri etkilemek için sadece bağlantılar topluyorsunuz ve çeşitli bilimsel görüntüler topluyorsunuz, SanSanych makalesinde zaten her şeyi yazdı, eklenecek çok az şey var, şimdi her türlü satıcı ve makale yazarı kendilerini yukarı çekti ve her şeyi dirgenlerini utandırmak ve utandırmak için bulaştırdı. iğrenç. Kendilerinden "matematikçiler" oluştururlar, "kuanta" ....

Matematik istiyorsanız, bunu okumayı deneyin http://www.kurims.kyoto-u.ac.jp/~motizuki/Inter-universal%20Teichmuller%20Theory%20I.pdf

Ve hiçbirini anlamayacaksın, sen bir matematikçi değilsin, ama bir zilchsin