Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 627

 
Alexey Terentev :

Ve sanırım ilk mesaj silinmiş. Diyagramı blogladı. =)

evet forumda kendi mesajlarımı aramaktan yoruldum :D en azından link verebilirsin
 
Maksim Dmitrievski :
evet forumda kendi mesajlarımı aramaktan yoruldum :D en azından link verebilirsin
O yüzden aynı şeyi farklı kişilere tekrarlamamak için yazıyı yazdım...
 
Michael Marchukajtes :

burada makale henüz çizilmedi, sonuç ilginçse, daha sonra yayınlayabilirsiniz.

çünkü Tembelim ve yavaş yavaş yapıyorum, bir hafta sigara molası veriyorum :)

 
Maksim Dmitrievski :

burada makale henüz çizilmedi, sonuç ilginçse, daha sonra yayınlayabilirsiniz.

çünkü Tembelim ve yavaş yavaş yapıyorum, bir hafta sigara molası veriyorum :)

Benimkini yaklaşık bir ay boyunca düzenleme ile yazdım ... ilk baskı anından yayına kadar .....
 
Maksim Dmitrievski :

Yeni bir ağ şeması çizdim, bu ilk açıklama. Devam filmi olacak (umarım)

Bunun için ezberlemek için bir blog oluşturdum, yoksa forumda düşünce kırıntıları aramaktan yoruldum

https://rationatrix.blogspot.ru/2018/01/blog-post.html

Sıcakla yumuşaklığı karıştırıyorsunuz. Ağın sonucu hakkında veri göndermek kısır bir uygulamadır.

Izgarayı basitçe karıştıracaksınız ve aynı kalıbın neden bir durumda büyüdüğünü ve diğerinde düştüğünü anlayamayacaksınız.

Ve hepsi, önceki sonuçların değerleri verilere karıştırıldığı için. Bu, hem önceki işlemin sonucu hem de özkaynak için geçerlidir.

Uygunluk işlevini ağın gövdesine vidalamaya çalışıyorsunuz. Ama neyin iyi neyin kötü olduğu bilgisi yabancı bilgidir, ızgara mekanizmasına uygulanmaz.

Bir hikaye göndermek istiyorsanız, MLP'den tekrarlayan ızgaralara geçin.

Ancak hipoteziniz (IMHO) kedi köpeğidir.

ZY Ve evet, zaten girdikten sonra, yeniden eğitimle ilgili sorunlar olduğunu yazdınız. Modern NS bilimi bu sorunu uzun zaman önce çözdü.

En kolay ve en anlaşılır ve etkili yol çapraz doğrulamadır (google it).

 
Nikolay Demko :

Sıcakla yumuşaklığı karıştırıyorsunuz. Ağın sonucu hakkında veri göndermek kısır bir uygulamadır.

Izgarayı basitçe karıştıracaksınız ve aynı kalıbın neden bir durumda büyüdüğünü ve diğerinde düştüğünü anlayamayacaksınız.

Ve hepsi, önceki sonuçların değerleri verilere karıştırıldığı için. Bu, hem önceki işlemin sonucu hem de özkaynak için geçerlidir.

Uygunluk işlevini ağın gövdesine vidalamaya çalışıyorsunuz. Ama neyin iyi neyin kötü olduğu bilgisi yabancı bilgidir, ızgara mekanizmasına uygulanmaz.

Bir hikaye göndermek istiyorsanız, MLP'den tekrarlayan ızgaralara geçin.

Ancak hipoteziniz (IMHO) kedi köpeğidir.

Görünüşe göre sinir ağları sizin için tek bir tanımda - Perceptron. IMHO, bunun buzdağının sadece görünen kısmı olduğundan şüphelenmiyorsunuz bile ve o zaman bile küçük.

Ve henüz hiç kimse yeniden eğitimi kazanmadı. Moskova Bölgesi'nin küresini anlamanız kediyi ağlattı.
 
Nikolay Demko :

Sıcakla yumuşaklığı karıştırıyorsunuz. Ağın sonucu hakkında veri göndermek kısır bir uygulamadır.

Izgarayı basitçe karıştıracaksınız ve aynı kalıbın neden bir durumda büyüdüğünü ve diğerinde düştüğünü anlayamayacaksınız.

Ve hepsi, önceki sonuçların değerleri verilere karıştırıldığı için. Bu, hem önceki işlemin sonucu hem de özkaynak için geçerlidir.

Uygunluk işlevini ağın gövdesine vidalamaya çalışıyorsunuz. Ama neyin iyi neyin kötü olduğu bilgisi yabancı bilgidir, ızgara mekanizmasına uygulanmaz.

Bir hikaye göndermek istiyorsanız, MLP'den tekrarlayan ızgaralara geçin.

Ancak hipoteziniz (IMHO) kedi köpeğidir.

Takviye ile ağın bir analogunu yapmak istiyorum. Tekrarlayan şebekeler, ne yazık ki, çevre hakkında hiçbir fikre sahip değildir ve hiçbir yanıt yoktur. Güçlendirilmiş ağlar var. Ama nasıl yapmalı? Akla gelen ilk şey, performansı dışarıda tatmin edici değilse, örneğin eşitlik yoluyla onu tekmelemektir.

belki bir kedi köpek, ben kendim xs ve IMHO .. sadece harika :) ve orada her şey basit, fazla zaman almayacak

 
Nikolay Demko :

ZY Ve evet, zaten girdikten sonra, yeniden eğitimle ilgili sorunlar olduğunu yazdınız. Modern NS bilimi bu sorunu uzun zaman önce çözdü.

En kolay ve en anlaşılır ve etkili yol çapraz doğrulamadır (google it).

Bununla ilgili her şeyi biliyorum, çapraz doğrulama da uygun, ancak daha karmaşık

yinelemeler de kendi kendilerine dönerler ve bazen öğrenemezler

ve tam olarak anlamadım - ağ çıkışlarını girişlere besleyemeyeceğinizi söylüyorsunuz ve sonra yinelemeyi kullanmak için yazıyorsunuz .. :) ve sadece bunu yapıyor, çıktılarını yiyor

tekrarlayan, en basit durumda, kendi kendini yiyen sıradan bir MLP'dir.

 
Maksim Dmitrievski :

Bununla ilgili her şeyi biliyorum, çapraz doğrulama da uygun, ancak daha karmaşık

yinelemeler de kendi kendilerine dönerler ve bazen öğrenemezler

ve tam olarak anlamadım - ağ çıkışlarını girişlere besleyemeyeceğinizi söylüyorsunuz ve sonra yinelemeyi kullanmak için yazıyorsunuz .. :) ve sadece bunu yapıyor, çıktılarını yiyor

tekrarlayan, en basit durumda, kendi kendini yiyen sıradan bir MLP'dir.

Hayır, piyasa verilerini ağ performansıyla karıştırmayalım dedim.

Başka bir deyişle, ağınız teklifleri işler ve son işlemin başarılı olup olmadığına dair verileri içine sokarsınız, bu heterojen verilerdir ve karıştırılamaz.

Ve genel olarak, ağın iyi çalışıp çalışmadığı, bu ayrı bir blok meselesidir (GA'da buna uygunluk fonksiyonu demeye alışığım, NN'de error fonksiyonunun adı kullanılır, ancak özü şudur: aynı).

Ağı backprop ile eğittiğinizi varsayalım, hatanın verinin bir parçası olduğu ortaya çıkıyor, tereyağı yağı. Umarım ne söylemek istediğimi anladın.

 
Aleksey Terentev :

Görünüşe göre sinir ağları sizin için tek bir tanımda - Perceptron. IMHO, bunun buzdağının sadece görünen kısmı olduğundan şüphelenmiyorsunuz bile ve o zaman bile küçük.

Ve henüz hiç kimse yeniden eğitimi kazanmadı. Moskova Bölgesi'nin küresini anlamanız kediyi ağlattı.

Maxim tarafından sunulan belirli bir ağdan bahsediyordum.

Üç cümleyi anlamadıysanız ... peki, size ne söylemem gerektiğini kendiniz biliyorsunuz))