Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 627
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Ve sanırım ilk mesaj silinmiş. Diyagramı blogladı. =)
evet forumda kendi mesajlarımı aramaktan yoruldum :D en azından link verebilirsin
burada makale henüz çizilmedi, sonuç ilginçse, daha sonra yayınlayabilirsiniz.
çünkü Tembelim ve yavaş yavaş yapıyorum, bir hafta sigara molası veriyorum :)
burada makale henüz çizilmedi, sonuç ilginçse, daha sonra yayınlayabilirsiniz.
çünkü Tembelim ve yavaş yavaş yapıyorum, bir hafta sigara molası veriyorum :)
Yeni bir ağ şeması çizdim, bu ilk açıklama. Devam filmi olacak (umarım)
Bunun için ezberlemek için bir blog oluşturdum, yoksa forumda düşünce kırıntıları aramaktan yoruldum
https://rationatrix.blogspot.ru/2018/01/blog-post.html
Sıcakla yumuşaklığı karıştırıyorsunuz. Ağın sonucu hakkında veri göndermek kısır bir uygulamadır.
Izgarayı basitçe karıştıracaksınız ve aynı kalıbın neden bir durumda büyüdüğünü ve diğerinde düştüğünü anlayamayacaksınız.
Ve hepsi, önceki sonuçların değerleri verilere karıştırıldığı için. Bu, hem önceki işlemin sonucu hem de özkaynak için geçerlidir.
Uygunluk işlevini ağın gövdesine vidalamaya çalışıyorsunuz. Ama neyin iyi neyin kötü olduğu bilgisi yabancı bilgidir, ızgara mekanizmasına uygulanmaz.
Bir hikaye göndermek istiyorsanız, MLP'den tekrarlayan ızgaralara geçin.
Ancak hipoteziniz (IMHO) kedi köpeğidir.
ZY Ve evet, zaten girdikten sonra, yeniden eğitimle ilgili sorunlar olduğunu yazdınız. Modern NS bilimi bu sorunu uzun zaman önce çözdü.
En kolay ve en anlaşılır ve etkili yol çapraz doğrulamadır (google it).
Sıcakla yumuşaklığı karıştırıyorsunuz. Ağın sonucu hakkında veri göndermek kısır bir uygulamadır.
Izgarayı basitçe karıştıracaksınız ve aynı kalıbın neden bir durumda büyüdüğünü ve diğerinde düştüğünü anlayamayacaksınız.
Ve hepsi, önceki sonuçların değerleri verilere karıştırıldığı için. Bu, hem önceki işlemin sonucu hem de özkaynak için geçerlidir.
Uygunluk işlevini ağın gövdesine vidalamaya çalışıyorsunuz. Ama neyin iyi neyin kötü olduğu bilgisi yabancı bilgidir, ızgara mekanizmasına uygulanmaz.
Bir hikaye göndermek istiyorsanız, MLP'den tekrarlayan ızgaralara geçin.
Ancak hipoteziniz (IMHO) kedi köpeğidir.
Görünüşe göre sinir ağları sizin için tek bir tanımda - Perceptron. IMHO, bunun buzdağının sadece görünen kısmı olduğundan şüphelenmiyorsunuz bile ve o zaman bile küçük.
Ve henüz hiç kimse yeniden eğitimi kazanmadı. Moskova Bölgesi'nin küresini anlamanız kediyi ağlattı.Sıcakla yumuşaklığı karıştırıyorsunuz. Ağın sonucu hakkında veri göndermek kısır bir uygulamadır.
Izgarayı basitçe karıştıracaksınız ve aynı kalıbın neden bir durumda büyüdüğünü ve diğerinde düştüğünü anlayamayacaksınız.
Ve hepsi, önceki sonuçların değerleri verilere karıştırıldığı için. Bu, hem önceki işlemin sonucu hem de özkaynak için geçerlidir.
Uygunluk işlevini ağın gövdesine vidalamaya çalışıyorsunuz. Ama neyin iyi neyin kötü olduğu bilgisi yabancı bilgidir, ızgara mekanizmasına uygulanmaz.
Bir hikaye göndermek istiyorsanız, MLP'den tekrarlayan ızgaralara geçin.
Ancak hipoteziniz (IMHO) kedi köpeğidir.
Takviye ile ağın bir analogunu yapmak istiyorum. Tekrarlayan şebekeler, ne yazık ki, çevre hakkında hiçbir fikre sahip değildir ve hiçbir yanıt yoktur. Güçlendirilmiş ağlar var. Ama nasıl yapmalı? Akla gelen ilk şey, performansı dışarıda tatmin edici değilse, örneğin eşitlik yoluyla onu tekmelemektir.
belki bir kedi köpek, ben kendim xs ve IMHO .. sadece harika :) ve orada her şey basit, fazla zaman almayacak
ZY Ve evet, zaten girdikten sonra, yeniden eğitimle ilgili sorunlar olduğunu yazdınız. Modern NS bilimi bu sorunu uzun zaman önce çözdü.
En kolay ve en anlaşılır ve etkili yol çapraz doğrulamadır (google it).
Bununla ilgili her şeyi biliyorum, çapraz doğrulama da uygun, ancak daha karmaşık
yinelemeler de kendi kendilerine dönerler ve bazen öğrenemezler
ve tam olarak anlamadım - ağ çıkışlarını girişlere besleyemeyeceğinizi söylüyorsunuz ve sonra yinelemeyi kullanmak için yazıyorsunuz .. :) ve sadece bunu yapıyor, çıktılarını yiyor
tekrarlayan, en basit durumda, kendi kendini yiyen sıradan bir MLP'dir.
Bununla ilgili her şeyi biliyorum, çapraz doğrulama da uygun, ancak daha karmaşık
yinelemeler de kendi kendilerine dönerler ve bazen öğrenemezler
ve tam olarak anlamadım - ağ çıkışlarını girişlere besleyemeyeceğinizi söylüyorsunuz ve sonra yinelemeyi kullanmak için yazıyorsunuz .. :) ve sadece bunu yapıyor, çıktılarını yiyor
tekrarlayan, en basit durumda, kendi kendini yiyen sıradan bir MLP'dir.
Hayır, piyasa verilerini ağ performansıyla karıştırmayalım dedim.
Başka bir deyişle, ağınız teklifleri işler ve son işlemin başarılı olup olmadığına dair verileri içine sokarsınız, bu heterojen verilerdir ve karıştırılamaz.
Ve genel olarak, ağın iyi çalışıp çalışmadığı, bu ayrı bir blok meselesidir (GA'da buna uygunluk fonksiyonu demeye alışığım, NN'de error fonksiyonunun adı kullanılır, ancak özü şudur: aynı).
Ağı backprop ile eğittiğinizi varsayalım, hatanın verinin bir parçası olduğu ortaya çıkıyor, tereyağı yağı. Umarım ne söylemek istediğimi anladın.
Görünüşe göre sinir ağları sizin için tek bir tanımda - Perceptron. IMHO, bunun buzdağının sadece görünen kısmı olduğundan şüphelenmiyorsunuz bile ve o zaman bile küçük.
Ve henüz hiç kimse yeniden eğitimi kazanmadı. Moskova Bölgesi'nin küresini anlamanız kediyi ağlattı.Maxim tarafından sunulan belirli bir ağdan bahsediyordum.
Üç cümleyi anlamadıysanız ... peki, size ne söylemem gerektiğini kendiniz biliyorsunuz))