Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2015

 
Maksim Dmitrievski :

tüm özellikler girdi ve çıktıdır, gizli katmanda daha az nöron vardır. Çıktı hatasını en aza indirerek bilgileri sıkıştırır. Girdi çıktıya eşit olmalıdır (ideal olarak). Daha sonra sinir ağının ikinci kısmı eğitimden sonra dışarı atılır, çıktıda gizli katmandaki nöronların sayısına eşit sıkıştırılmış özellikler elde edersiniz.

tekrarlayan katmanlar vb. ekleyebilirsiniz.

google otomatik kodlayıcı. ve çeşitleri.

Evet, tüm bunları anladım, teşekkürler, ağı bir örnek satıra aynı anda birden fazla yanıt verecek şekilde eğitmenin nasıl olduğunu anlamıyorum. Metrik nedir. Ağaçlarla nasıl yapılacağı belli değil ...

 
Alexey Vyazmikin :

Evet, tüm bunları anladım, teşekkürler, ağı bir örnek satıra aynı anda birden fazla yanıt verecek şekilde eğitmenin nasıl olduğunu anlamıyorum. Metrik nedir. Ağaçlarla nasıl yapılacağı belli değil ...

Ben hiç uzman değilim, ama ilk - ayrışma , bir olay birçok olası nedene yol açtığında. Sonrası - yeniden oluşturma, tüm bu olası nedenler, bu nedenleri etkileyen olası etkiler için analiz edildiğinde. Sonuç, olayı kontrol edebileceğinizi etkileyerek az sayıda parametredir.

 
Alexey Vyazmikin :

Evet, tüm bunları anladım, teşekkürler, ağı bir örnek satıra aynı anda birden fazla yanıt verecek şekilde eğitmenin nasıl olduğunu anlamıyorum. Metrik nedir. Ağaçlarla nasıl yapılacağı belli değil ...

Hiç mantıklı değil - önce otomatik kodlayıcıyı veya yalnızca derin NN'yi kullanın. Aynı türden birçok görev olduğunda bunlara ihtiyaç duyulur. Örneğin, görüntüleri sıkıştır vb. ve sonra diğer ns'de kullanın

 
Alexey Tarabanov :

Ben hiç uzman değilim, ama ilk - ayrışma , bir olay birçok olası nedene yol açtığında. Sonrası - yeniden oluşturma, tüm bu olası nedenler, bu nedenleri etkileyen olası etkiler için analiz edildiğinde. Sonuç, olayı kontrol edebileceğinizi etkileyerek az sayıda parametredir.

Tam olarak öyle değil - orada, nörondaki verilerin fonksiyonlardaki ağırlıklar aracılığıyla kırılması nedeniyle, değerler tek bir fonksiyona indirgenir (sanki görüntüyü odaklıyormuş gibi). Ve sonra, bu ağırlıkları bilmek, yaklaşık olarak bir gökkuşağını parçalayan bir prizma gibi yine bileşenlere ayrışır. Süreci anlıyorum ama bunu ağaçların arasından nasıl yapacağımı anlamıyorum.

 
Maksim Dmitrievski :

Hiç mantıklı değil - önce otomatik kodlayıcıyı veya yalnızca derin NN'yi kullanın. Aynı türden birçok görev olduğunda bunlara ihtiyaç duyulur. Örneğin, görüntüleri sıkıştır vb. ve sonra diğer ns'de gömme olarak kullanın

Bu "darboğaz" nöronları ağaçlarda tam olarak eğitmek mantıklı olabilir. Onlar. azaltılmış tahminci sayısı.

 
Alexey Vyazmikin :

Pek öyle değil - orada, nörondaki verilerin fonksiyonlardaki ağırlıklar aracılığıyla kırılması nedeniyle, değerler tek bir fonksiyona indirgenir. Ve sonra, bu ağırlıkları bilmek, yaklaşık olarak bir gökkuşağını parçalayan bir prizma gibi yine bileşenlere ayrışır. Süreci anlıyorum ama bunu ağaçların arasından nasıl yapacağımı anlamıyorum.

Numara. Önce ayrıştırmayı dene, iyi olacaksın.

Basitçe, bölme bir ilkeye göre gider ve bağlantı - diğerine göre. Analiz ve sentez. Nöronlar - hem burada hem de orada aynı şekilde çalışırlar, ancak ilk durumda olay raflara ayrılır ve ikinci durumda olayı etkileyen faktörlerin etrafında toplanır.

 
Alexey Vyazmikin :

Bu "darboğaz" nöronları ağaçlarda tam olarak eğitmek mantıklı olabilir. Onlar. azaltılmış tahminci sayısı.

hiç bir anlamı yok

sıkıştırma sıkıştırmadır. Model zaten çok kötüyse, onunla hiçbir şey elde edemezsiniz. Ve düzenlileştirme yaklaşık olarak aynı işlevi yerine getirir

 
Giriş verilerini sıkıştırırken bir kayıp var. Sıkıştırma, aynı girdi verilerini alma yeteneği üzerinde değerlendirilirse, hedefi iyi tahmin edebilecek bilgiler de dahil olmak üzere bilgileri tek tip olarak kaybederiz.
Yalnızca amaç işlevini elde etmek için sıkıştırırsanız, bu en iyi seçenektir.
Bence, düzenli eğitimin yaptığı şey budur.
Yalnızca girdiler üzerinde bir tahminle sıkıştırmanın, sıkıştırılmış veriler üzerinde hedefin sonraki eğitiminin kalitesini düşüreceği sonucuna varıyorum.
Ancak bir deney yapmak ve teoriye göre sonuç çıkarmamak daha iyidir.

Alexey neden boyutu küçültmenin bir yolunu aradığını anlayabilse de, iskele ve güçlendirme kullanıyor. Bir ağaçta, 3000 girdinin çoğu hiçbir zaman kullanılmayabilir. Ormanda ve güçlendirmede, bununla daha iyi, ama korkarım bunun pek faydası yok.
 
Maksim Dmitrievski :

hiç bir anlamı yok

sıkıştırma sıkıştırmadır. Model zaten çok kötüyse, onunla hiçbir şey elde edemezsiniz. Ve düzenlileştirme yaklaşık olarak aynı işlevi yerine getirir

elibrarius :
Giriş verilerini sıkıştırırken bir kayıp var. Sıkıştırma, aynı girdi verilerini alma yeteneği üzerinde değerlendirilirse, hedefi iyi tahmin edebilecek bilgiler de dahil olmak üzere bilgileri tek tip olarak kaybederiz.
Yalnızca amaç işlevini elde etmek için sıkıştırırsanız, bu en iyi seçenektir.
Bence, düzenli eğitimin yaptığı şey budur.
Yalnızca girdiler üzerinde bir tahminle sıkıştırmanın, sıkıştırılmış veriler üzerinde hedefin sonraki eğitiminin kalitesini düşüreceği sonucuna varıyorum.
Ancak bir deney yapmak ve teoriye göre sonuç çıkarmamak daha iyidir.

Alexey neden boyutu küçültmenin bir yolunu aradığını anlayabilse de, iskele ve güçlendirme kullanıyor. Bir ağaçta, 3000 girdinin çoğu hiç kullanılmayabilir. Ormanda ve güçlendirmede, bununla daha iyi, ama korkarım bunun pek faydası yok.

Bunun neden yararlı olabileceğine dair birkaç fikir var:

1. Birbirine bağlı tahminciler tanımlanabilir:

1.1. Onların yardımıyla ayrı bir model oluşturun ve tahmin etme yeteneklerini değerlendirin

1.2. Bunları örneklemden hariç tutun ve sonuç üzerindeki etkilerini değerlendirin, sonucu iyileştirirlerse benzer tahminciler oluşturmayı düşünün

2. Bir grup tahmin edici yerine bir tahmin edici kullanın:

1. Bu, bir model oluştururken kazara alma şansını eşitler

2. Boyutluluğu azaltarak eğitim süresini azaltın

Evet, kontrol etmek istiyorum, ancak kutudan çıkar çıkmaz böyle bir model oluşturmak için bir araç bilmiyorum.


Bu arada, eğitim sırasında neden kırık fonksiyonların kullanılmadığı (sanki bir adım çizgisi yerine niceleme ile) düşüncesi ortaya çıktı, bu veri doğruluğunda bir geri tepme yapmamıza ve yeniden eğitimi azaltmamıza izin verecekti.

 
Alexey Vyazmikin :

Bu arada, eğitim sırasında neden kırık fonksiyonların kullanılmadığı (sanki bir adım çizgisi yerine niceleme ile) düşüncesi ortaya çıktı, bu veri doğruluğunda bir geri tepme yapmamıza ve yeniden eğitimi azaltmamıza izin verecekti.

Eğitilmeyeceği için çözücü yerel minimumda kalacaktır. Fikirlere gelince - oradan hiçbir şey çıkarılamaz, çünkü bu bir kara kutu