Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1296
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Rönesans'ın başlangıcında Bizans artık yoktu, Konstantinopolis Osmanlı İmparatorluğu'nun başkentiydi ve Haçlı Seferleri bundan 200 yıl önce sona erdi.
Şaka yapma yani...
Canlanma 4 aşamaya ayrılmıştır:
Dördüncü haçlı seferi 1202-1204 (bu XIII yüzyılın başlangıcıdır)
Avrupa'nın en zengin ve en büyük şehrini yağmalayarak ... Onlar (haçlılar) başkenti Konstantinopolis - Latin İmparatorluğu olan bir devlet yarattılar. 50 yıldan fazla bir süredir fatihlere karşı bir mücadele vardı. 1261'de Latin İmparatorluğu düştü. Bizans restore edildi, ancak eski gücüne asla ulaşamadı.
50 yıllık soygun ve Bizans'taki yaşam boyunca, yeni zenginleşen Avrupalılar (özellikle tüm kargo taşımacılığını ve ilçelerini gerçekleştiren Venedik) güzel bir yaşam için bir zevk geliştirdiler, yaratıcı insanlara iyi ödeme yapmaya başladılar. Daha sonra öğretmenlerden daha iyi performans gösteren yaratıcı işe alınan/eğitilen öğrenciler vb. Böylece gitti - sessizce gitti.
50 yıllık soygun ve Bizans'taki yaşam boyunca, yeni zenginleşen Avrupalılar (özellikle tüm kargo taşımacılığını ve ilçelerini gerçekleştiren Venedik) güzel bir yaşam için bir zevk geliştirdiler, yaratıcı insanlara iyi ödeme yapmaya başladılar. Daha sonra öğretmenlerden daha iyi performans gösteren yaratıcı işe alınan/eğitilen öğrenciler vb. Böylece gitti - sessizce gitti.
Ama tabii ki bu IMHOBir Avrupa yayınında, Konstantinopolis'in düşmesinin bir nimet olduğunu, yüzbinlerce kurban ve yıkıma rağmen, eğitimli insanlar arasından isteyerek işe alınan bir göçmen kalabalığının Avrupa'ya döküldüğünü ve bu sayede mümkün olduğunu söylediler. Orta Çağ dönemlerinden çıkışa katkıda bulunan Roma İmparatorluğu döneminden kayıp bilginin bir kısmını iade etmek.
Onlar. savaş gibi küfürler bile şimdi bile tüm insanlık için bir iyilik olarak sunuluyor... tarih galipler tarafından yazılmıştır.
ancak eğitim örneğinde bu döngüsellik algılanmadan önce, modelin başka bir şeyi tanımlayan çok fazla ağaç oluşturması ve ancak o zaman test örneğindeki eğilimi tanımlayan ağaçlar oluşturması riski vardır.
Ne ağaçlar ne de NN'ler hatları zamana göre ayırmazlar, hatta onları karıştırırlar. Bu nedenle, "daha sonra" hiçbir ağaç inşa edilmez. Hepsi eşit olarak karışık verilere dayanmaktadır. 2014 ve 2016'dan gelen hatlar yan yana olabilir.
NN için satırları karıştırmazsanız, o zaman sadece ilk örnekler için yeniden eğitilecek ve bir çıkmaza ulaşacak ve son veriler onu öğrenmeyi bitirmeyecektir. Satırları karıştırdıktan sonra, NN eşit olarak öğrenir. r=1 (bir ağacı eğitmek için satır oranı) ise, ağaçlar satırları karıştıramaz, ancak fazla sığdırmayı önlemek için genellikle <1 olarak ayarlanır, bu nedenle r=0.5'te yalnızca almamak için karıştırmamız gerekir. 2014 ve 2015 verileri.
Üç örneğin her birinin ne kadar uzun olması gerektiğini belirlemeye yardımcı olacak bir deneyin nasıl yürütüleceğini çözemiyorum. Bu konuda herhangi bir fikri olan var mı?
Bunun da optimize edilmesi gerektiğini düşünüyorum. Ancak örneklemin temsili olması ve tüm rastgele sapmaların ortalamasını alması için satır sayısının en az 1000-10000 olması gerektiğini düşünüyorum. Aksi takdirde, küçük bir örneğe rastgele bir önyargı sığdırabilirsiniz.
Bir Avrupa yayınında, Konstantinopolis'in düşmesinin bir nimet olduğunu, yüzbinlerce kurban ve yıkıma rağmen, eğitimli insanlar arasından isteyerek işe alınan bir göçmen kalabalığının Avrupa'ya döküldüğünü ve bu sayede mümkün olduğunu söylediler. Orta Çağ dönemlerinden çıkışa katkıda bulunan Roma İmparatorluğu döneminden kayıp bilginin bir kısmını iade etmek.
Onlar. savaş gibi küfürler bile şimdi bile tüm insanlık için bir iyilik olarak sunuluyor... tarih galipler tarafından yazılmıştır.
Neyse ki, elbette, herkes kendisi için algılar. Avrupalılar için bu kesinlikle bir finans ve beyin hırsızlığıdır. Bizanslılar için bu iyi değil, çoğu için ölümdü.
Tam hatırlamıyorum ama Bizans'ın en parlak döneminde yıllık vergiler 2-4 bin ton altın civarındaydı. Bizim zamanımız için bile, bu birçok eyalet için çok iyi bir miktar. Ancak rakamlarda yanılıyor olabilirim - birkaç yıl önce bir film izledim, orada söylendi. İlginizi çekiyorsa bir göz atın. Filmin başında tesadüfen rastladım - madeni para olarak sadece birkaç yüz ton çıkarıldı.
Ne ağaçlar ne de NN'ler hatları zamana göre ayırmazlar, hatta onları karıştırırlar. Bu nedenle, "daha sonra" hiçbir ağaç inşa edilmez. Hepsi eşit olarak karışık verilere dayanmaktadır. 2014 ve 2016'dan gelen hatlar yan yana olabilir.
Pek mümkün değil, fikir sahibi oldum.
Bakın, eğitim örneğinde bir ağaç oluşturduk, örneğin %10'unu kapladı (Recall) ve diyelim ki 20 ağaç, her biri orada Recall'a %3-%7 ekler, ancak bu bizim eğitim örneğimizde, test örneği, belki sadece 5 ve 6 ağaç genellikle tamlık ve doğruluk açısından bir tür yanıt verecektir ve önceki ve sonraki ağaçlar gürültü olacaktır, ancak "sonraki" olanlar algoritma tarafından kesilirse, o zaman bunlar "önce" kalacaktır. Böylece, sınıflandırmaya yardımcı olan ve buna müdahale eden veya sadece pasif davranan ağaçları alan bir model elde ederiz. Bu nedenle, soru tam olarak test örneğinin boyutunda ve içeriğinde ortaya çıkar.
Toplamda yaklaşık 14k satırım var, 3 örneğe ayrılmaları gerekiyor.
Numunenin farklı parçalarını kesmek ve daha sonra ortaya çıkan modelleri kararlılık için tüm numune üzerinde test etmenin etkili olduğu bu tür modeller için mümkündür ... düşüncesinde.
Neyse ki, elbette, herkes kendisi için algılar. Avrupalılar için bu kesinlikle bir finans ve beyin hırsızlığıdır. Bizanslılar için bu iyi değil, çoğu için ölümdü.
Tam hatırlamıyorum ama Bizans'ın en parlak döneminde yıllık vergiler 2-4 bin ton altın civarındaydı. Bizim zamanımız için bile, bu birçok eyalet için çok iyi bir miktar. Ama rakamlarda yanılıyor olabilirim - birkaç yıl önce bir film izledim, orada söylendi. İlginizi çekiyorsa bir göz atın. Filmin başında tesadüfen rastladım - madeni para olarak sadece birkaç yüz ton çıkarıldı.
Videoyu izleyeceğim, teşekkürler ama Japonlardan veya bağımsız birinden izlemeyi tercih ederim...
belki sadece 5. ve 6. ağaç genel olarak tamlık ve doğruluk açısından bir tür yanıt verecektir ve önceki ve sonraki ağaçlar gürültü olacaktır, ancak "sonra" olanlar algoritma tarafından kesilirse, o zaman "önce" olanlar kalacak.
Ve zaten inşa edilmiş bir ormandan ağaçları hangi algoritma budayacak? Orman ya belli bir miktara ulaştığında ya da iyi öğrendiğini düşündüğünde başka bir yöntemle büyümesini bitirir. Eğitim sırasında bir kırpma varsa, bunun trendeki (ve varsa geçerli) hata üzerinde olumlu bir etkisi vardır.
Eh, genel olarak, elbette, ağaçların bir kısmı lehte, bir kısmı da aleyhte oy verecek. Ve bundan kurtulmak imkansızdır, çünkü tek tek ağaçların aksine, seslerin ortalamasından dolayı ormanı iyi öğrenmeyi mümkün kılan tam da budur. Yükseltme yaparken, yalnızca ilk ağaç verilerden öğrenir, geri kalan her şey hatalardan.
Ve zaten inşa edilmiş bir ormandan ağaçları hangi algoritma budayacak? Orman ya belli bir miktara ulaştığında ya da iyi öğrendiğini düşündüğünde başka bir yöntemle büyümesini bitirir. Eğitim sırasında bir kırpma varsa, bunun trendeki (ve varsa geçerli) hata üzerinde olumlu bir etkisi vardır.
Hangi algoritma kesecek - CatBoost eğitim sırasında bunu böyle yapar, orada 10 (kaç) yeni ağaç sonucu iyileştirmezse, o zaman modelin bu son 10 ağaç olmadan alınacağı ve buna göre modelin alınacağı bir parametre ayarlayabilirsiniz. olanın en iyisi.
Yükseltme yaparken, yalnızca ilk ağaç verilerden öğrenir, geri kalan her şey hatalardan.
İlginç bir söz. Ancak, sonraki ağaçlar mevcut ağaç kompozisyonundan kaynaklanan hatayı azaltmak için inşa edilir, ancak neden örnekleme kullanmadıklarını anlamıyorum, bize daha ayrıntılı anlatın, belki derin bir şey anlamıyorum ...
İlginç bir söz. Ancak, sonraki ağaçlar mevcut ağaç kompozisyonundan kaynaklanan hatayı azaltmak için inşa edilir, ancak neden örnekleme kullanmadıklarını anlamıyorum, bize daha ayrıntılı anlatın, belki derin bir şey anlamıyorum ...
Evet, hatayı azaltmak için hataları hedef alırlar, sonra çıkarırlar.
İşte güçlendirme algoritması, sadece kendim çalışıyorum https://neurohive.io/en/osnovy-data-science/gradientyj-busting/
1. Doğrusal regresyon veya karar ağacını verilere sığdırın (burada kodda seçilen karar ağacı) [ x'i girdi olarak ve y'yi çıktı olarak çağırın] (1 ağaç veri üzerinde eğitilir)
Bunun klasik bir güçlendirme olduğunu anlıyorum. Belki de kedi baskınında kendilerine ait bir şey buldular ...