Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 850
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Ve kaç tanesi? Daha hızlı yapmanın yolları var.. Genetik.. Ayrıca onları ns'ye sürün..
buluşsal arama
Ve neye ihtiyacın var? Sonuçta, en basit akışı elde etmek için onu hala p = 0,5 olan bir üsle işliyorum.
Örneğin, Erlang k = 4 gibi bir onay akışı belirlediysek, peki, Cauchy'yi atarsak, o zaman neden onu üstel olarak tekrar izlememiz gerekiyor? Kişi ne zaman doğrudan Erlang k=5'e vb. gidebilir? Keneler arasındaki boşlukları hizalayın ve önce karıştırmayın ve hizalamayın?
Tahmin edici kombinasyonları arasında dolaşmak muhtemelen en güvenlisidir. Ama çok uzun
jPrediction'daki modellerin karmaşıklığı, tahmin edicilerin sayısında kademeli bir artış anlamına gelir. Gerçekten de, jPrediction'da, gizli katmandaki nöronların sayısı 2^(2*n+1)'dir, burada n, tahmin edicilerin sayısıdır. Buna göre, tahmin edici sayısındaki artışla modelin karmaşıklığı (gizli katmandaki nöron sayısı) artar. Böylece, modellerin karmaşıklığını kademeli olarak artıran jPrediction, er ya da geç M değerine ulaşacaktır, bundan sonra modellerin daha fazla karmaşıklığı, genelleme yeteneğinde daha fazla bir azalmaya (genelleme yeteneğindeki hatalarda artış) yol açacaktır.
Reshetov'un nöron sayısıyla ilgili mesajına rastladım.
10 tahmin edici varsa, 2^21 = 2097152 nöron elde ederiz.
çok fazla değil mi
3 öngörücü için bile 128 nöron olacak...
Reshetov'un nöron sayısıyla ilgili mesajına rastladım.
10 tahmin edici varsa, 2^21 = 2097152 nöron elde ederiz.
çok fazla değil mi
3 öngörücü için bile 128 nöron olacak...
N = 2^i − 1
10 giriş için 1023 nöron zaten daha iyi.
Ancak, makalelere bakılırsa, pratikte çok daha az kullanılmaktadır, örneğin n=sqrt(# inputs * # outputs)
Görünüşe göre N = 2^i − 1 - tam ezberleme için ve daha az içeren formüller - genelleme için.
Şapkadaki en akıllı tahmin edici seçimi: gafs - genetik bir şekilde tahmin edicilerin seçimi; rfe - ters tahminci seçimi (en hızlı); safs - tahmin edici seçiminin simüle edilmiş sağlamlığı (tavlama) - en verimli.
12*6400 matrisinde rfe denedim - varsayılan parametrelerle (boyutlar = 2^(2:4)) yaklaşık 10 saat saydım, beklemedim ve kapattım. Bir arıza olduğunu düşündüm, tekrar size = ncol(x) ile yeniden başladı - bir saattir sayıyor.
Güncelleme: Size = ncol(x) ile ikinci çalıştırma, hesaplamayı 2,5 - 3 saatte tamamladı, sonuçlar aynı verileri 3-5 dakika içinde işleyen partilere yakın.Eğer rfe en hızlısıysa, diğerleri ne kadar beklemeli?
Daha önce test edilen paketler, aynı veriler üzerinde 5 dakikadan fazla çalışmadı.
Aynı süre boyunca mı sayıyorsunuz?
Ayar rfeControl = rfeControl(sayı = 1,tekrarlar = 1) - süre 10-15 dakikaya düşürüldü, değişiklikler - 2 çift öngörücü değiştirildi, ancak genel olarak benzer.
12*6400 matrisinde rfe denedim - varsayılan parametrelerle (boyutlar = 2^(2:4)) yaklaşık 10 saat saydım, beklemedim ve kapattım. Bir arıza olduğunu düşündüm, tekrar size = ncol(x) ile yeniden başladı - bir saattir sayıyor.
Güncelleme: Size = ncol(x) ile ikinci çalıştırma, hesaplamayı 2,5 - 3 saatte tamamladı, sonuçlar aynı verileri 3-5 dakika içinde işleyen partilere yakın.Eğer rfe en hızlısıysa, diğerleri ne kadar beklemeli?
Daha önce test edilen paketler, aynı veriler üzerinde 5 dakikadan fazla çalışmadı.
Aynı süre boyunca mı sayıyorsunuz?
Tam olarak hatırlamıyorum, uzun zaman önceydi ama seninki gibi tutkular hafızamda birikmedi
Matrix benim için normal.
ANCAK
Tam olarak hatırlamıyorum, uzun zaman önceydi ama seninki gibi tutkular hafızamda birikmedi
Matrix benim için normal.
ANCAK
2 sınıf
1 çekirdek yüklü
Ayar rfeControl = rfeControl(sayı = 1,tekrar = 1) - süreyi 10-15 dakikaya indirdi. Sonuçlardaki değişiklikler - 2 çift tahmin edici yer değiştirdi, ancak genel olarak varsayılan olarak olduğu gibi görünüyor.