Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 394
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Bir ay boyunca bir şey çalıştıracaksanız - bilgisayarı çalıştırmak için kesintisiz bir güç kaynağı kullanın, bir şekilde 2 hesaplamadan sonra ışığı kapattım))
Ve GPU seçeneği için çok fazla beklemeyin, kodu yeniden yazmak daha uzun sürüyor gibi görünüyor ve eğer yazar bunu yapmadıysa, o zaman başka birinin bu görevin sonuna ulaşması olası değildir.
Böylece yazar her şeyi paralelleştirdi, şimdi sadece çalıştırmanız gerekiyor. Ve böylece 3 gün boyunca maksimumu başlattım ve ardından dürüst olmak gerekirse şu anda benim için bir rekor olan 9 girişli bir model aldım. Özellikle o kadar uzun süre optimize etmek için parçalanmıyorum. Ama dedikleri gibi. Piyasa talep ediyor. Bu nedenle, güç arayan biri, optimize edicideki veri setini ve hatta 20-30 gibi çekirdeklerde optimize etme fırsatına sahipse, çok minnettar olacağım.
Michael Marchukajtes :
ders çalışmak günler, haftalar
Görünüşe göre, algoritmanız, hafifçe söylemek gerekirse, optimal değil, bu kadar küçük veri kümelerinde, Knn gibi yarı-optimal olan kaba kuvvet algoritmalarını güvenle kullanabilirsiniz, algoritma Knn'den daha yavaş çalışıyorsa, muhtemelen kötüdür. ML algoritması veya kötü yapılandırılmış. Böyle bir veri setinde, tüm eğitim döngüsü ve tüm setin çalıştırılması bir saniyeden fazla sürmemelidir.
yukarıda açıkladım. 100 bölüm, her bölüm 1000 dönem için eğitilir, vb. Bir nöronun bir kerelik eğitimine takıldınız ve optimize edicinin özü, uygunluğu hakkında hiçbir soru kalmayacak şekilde veri setini hesaplamaktır. Yani, mecazi olarak konuşursak, bu dosyayı yukarı ve aşağı büküyor ve yine de onu bir nöronun bir kerelik eğitimi ile karşılaştırıyorsunuz. BENİM NACİZANE FİKRİME GÖRE. Bu aslında, bir nöronu eğitmeye ek olarak, her türlü optimizasyon ve ön işlemenin gerçekleştiği ve eğitimin kendisinin yüzlerce kez başlatıldığı bir AI sistemidir. Eğer birşey....
yukarıda açıkladım. 100 bölüm, her bölüm 1000 dönem için eğitilir, vb. Bir nöronun bir kerelik eğitimine takıldınız ve optimize edicinin özü, uygunluğu hakkında hiçbir soru kalmayacak şekilde veri setini hesaplamaktır. Yani, mecazi olarak konuşursak, bu dosyayı yukarı ve aşağı büküyor ve yine de onu bir nöronun bir kerelik eğitimi ile karşılaştırıyorsunuz. BENİM NACİZANE FİKRİME GÖRE. Bu aslında, bir nöronu eğitmeye ek olarak, her türlü optimizasyon ve ön işlemenin gerçekleştiği ve eğitimin kendisinin yüzlerce kez başlatıldığı bir AI sistemidir. Eğer birşey....
MLP, vakaların tahminlerinin% 95'inde ortaya çıkıyor ... bana öyle geliyor ki doğru bisikleti yapmıyorsunuz) Alınma.
Bir hatanız var.
Tablodaki ilk sütun satır numarasıdır ve bu sütun tahminde kullanılamaz, ancak nedense yalnızca jPrediction için gereklidir.
Hedef, satırların ilk yarısı sınıf 0 ve satırların ikinci yarısı sınıf 1 olacak şekilde dağıtılır. Böylece nöron, satır sayısı 228'den küçükse, bunun sınıf 0 olduğunu hatırlayacaktır, aksi takdirde. 1. sınıftır.
Bir hatanız var.
Tablodaki ilk sütun satır numarasıdır ve bu sütun tahminde kullanılamaz, ancak nedense yalnızca jPrediction için gereklidir.
Hedef, satırların ilk yarısı sınıf 0 ve satırların ikinci yarısı sınıf 1 olacak şekilde dağıtılır. Böylece nöron, satır sayısı 228'den küçükse, bunun sınıf 0 olduğunu hatırlayacaktır, aksi takdirde. 1. sınıftır.
Ve bu arada, evet. Sadece bir sayı olduğunun farkında değildim.
Onsuz Saklanacak girdiler: 4,50,53,59,61,64,92,98,101,104,
Eğitimde ortalama hata (%60.0) segmenti =0.269 (%26.9) nLearns=2 NGrad=7376 NHess=0 NCholesky=0 codResp=2
Doğrulama sitesinde ortalama hata (%20.0) =0.864 (%86.4) nLearns=2 NGrad=7376 NHess=0 NCholesky=0 codResp=2
Testte ortalama hata (%20.0) alanı =0.885 (%88.5) nLearns=2 NGrad=7376 NHess=0 NCholesky=0 codResp=2
Açıkça bir yeniden eğitim. Bu nedenle, girdilerin başka bir taramasının yapılması gereklidir.
Girdilerin ağırlığı ile ayıklanabilir mi? Konunun ilk mesajındaki görev için nasıl yaptınız...
Burada eklediğiniz R betiğini yeniden yazmaya çalışıyorum, böylece adları ve sütun sayısını belirleyecek ... ama R bilgisi yeterli değil.
Burada eklediğiniz R betiğini yeniden yazmaya çalışıyorum, böylece adları ve sütun sayısını belirleyecek ... ama R bilgisi yeterli değil.
O zamanlar R'yi yeni öğrenmeye başlıyordum, komut dosyası neredeyse tamamen çıngırakta (R'de veri madenciliği için görsel bir ortam) oluşturuldu, bu yüzden bu kadar karmaşık ve her durum için ayarlanmış.
Bu
ile değiştirilmesi gerekiyor
Ve normal gibi olmalı.
Genel olarak kötü bir yaklaşım var, girdilerin önemini bu şekilde belirlemeye gerek yok. Nedense o zaman işe yaradı, ama bir daha bana hiç yardımcı olmadı.
Tahmin edicilerin önemini aşağıdaki gibi belirlemek daha iyidir.
Önem değerlendirmesinin sonuçları aşağıdaki gibidir. Tablodaki yordayıcı ne kadar yüksekse o kadar iyidir. Yalnızca VVolum6, VDel1, VVolum9, VQST10 testi geçti.
Çıngırakta, bu 4 öngörücü üzerinde aynı anda 6 model oluşturabilirsiniz ve SVM, doğrulama ve test verilerinde yaklaşık %55 doğruluk gösterir. Fena değil.
MLP, vakaların tahminlerinin% 95'inde ortaya çıkıyor ... bana öyle geliyor ki doğru bisikleti yapmıyorsunuz) Alınma.
Aynı zamanda kendi bisikletimi de yapıyorum, ancak onlarca yıllık kanıtlanmış MLP'ye dayanarak (dedikleri gibi, modası geçmiş ve daha havalı bir şey üzerinde çalışmamız gerekiyor).
Alglib'deki karar ağaçlarını tekrar deneyin, daha hızlı kabul edilirler ve doğruluk MLP'den daha iyidir. Diplerning ayrıca daha hızlı hesaplar, ancak artık alglib'de değil
Önemli olan hız/kalite oranı, sayarken bir hafta hatta bir gün hatta bir saat beklemenin ne anlamı var ki..bu yüzden en uygun kombinasyonu asla bulamazsınız) Model birkaç saniye eğitilmelidir, o zaman parametreleri veya tahmin edicileri otomatik olarak seçmek için genetiği kullanabilirsiniz, o zaman bu gerçek AI, aksi halde çöp)