Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 393

 
Michael Marchukajtes :
Merhaba!!!! Şubenin ölmemesine ve bir yer olmaya devam etmesine sevindim ve bu nedenle halka bir sorum var. Eğitim için bir veri setim var ama ne yazık ki o kadar büyüdü ki eğitim çok uzun sürüyor. Birisi kendi geliştirmelerini kullanarak bir model oluşturabilir ve sonra birlikte nasıl çalıştığını göreceğiz !!!!!.

Girdileri bırakmayı deneyin (0'dan itibaren, 0 1. sütundur)

0,4,50,53,59,61,64,92,98,101,104,

Dosyalar:
 

Modeli tamamen yansıtmak zorunda kalmama rağmen, veri kümesinin kesilmiş kısmını hesaplamak için çıktı, işte örnek dışındaki ağ işleminin sonucu.

05.29'daki bu çalışma bence hiç de fena değil.


 
elibrarius :

Girdileri bırakmayı deneyin (0'dan itibaren, 0 1. sütundur)

0,4,50,53,59,61,64,92,98,101,104,


Optimize edicinin avantajı, gereksiz sütunları kaldırmasıdır. Bu nedenle, ne kadar süreyle korkuyu düşünür. Ama şimdi yayınladığım tüm veri setini optimize etmeye çalışacağım, ancak önerilerinizi dikkate alacağım ve sonra örnek dışında sonucun ne olacağını göreceğiz. TAMAM?
 
Michael Marchukajtes :

Optimize edicinin avantajı, gereksiz sütunları kaldırmasıdır. Bu nedenle, ne kadar süreyle korkuyu düşünür. Ama şimdi yayınladığım tüm veri setini optimize etmeye çalışacağım, ancak önerilerinizi dikkate alacağım ve sonra örnek dışında sonucun ne olacağını göreceğiz. TAMAM?


Peki harika!!! Yüklenen eğitim. Sütunların çok küçüldüğünü göz önünde bulundurarak hızlı bir şekilde hesaplayacağını düşünüyorum, böyle, çalışmanın sonucunu yazacağım :-)

Öyle ki, ilk eğitim %55 genelleme yeteneği sağlamıştır.

 

İşin garibi, ancak bu girişlerle modelin de tersine çevrilmesi gerekiyor ve daha sonra aynı segmentte böyle bir eşitlik elde edebilirsiniz.

Biraz daha kötü, ama aynı zamanda olması gereken bir yer var.

Oh, tüm veri kümesini optimize edicide çalıştırmak için. Bence o zaman daha fazla sütun seçilirdi ve genelleme seviyesi daha yüksek olurdu, dolayısıyla örnek dışındaki alandaki ağın kalitesi ...

 
Michael Marchukajtes :


Peki harika!!! Yüklenen eğitim. Sütunların çok küçüldüğünü göz önünde bulundurarak hızlı bir şekilde hesaplayacağını düşünüyorum, böyle, çalışmanın sonucunu yazacağım :-)

Öyle ki, ilk eğitim %55 genelleme yeteneği sağlamıştır.

%55 genelleme yeteneği nedir?
Normal MLP 11-5-1 şunları sağlar:
Eğitimde ortalama hata (%60,0) segmenti =0,057 (%5,7) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
Doğrulamada ortalama hata (%20,0) arsa =0,038 (%3,8) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
Testte ortalama hata (%20.0) alanı =0.023 (%2.3) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
 
elibrarius :
%55 genelleme yeteneği nedir?
Normal MLP 11-5-1 şunları sağlar:
Eğitimde ortalama hata (%60,0) segmenti =0,057 (%5,7) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
Doğrulamada ortalama hata (%20,0) arsa =0,038 (%3,8) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2
Testte ortalama hata (%20.0) alanı =0.023 (%2.3) nLearns=2 NGrad=332 NHess=0 NCholesky=0 codResp=2


Ne cevap vereceğimi bile bilmiyorum. Rapordan bir örnek vermedikçe. Optimizasyon sonucu böyle bir şey ve burada nasıl yorumlanacağı herkes için çok fazla ama optimizasyon bittiğinde sonuç şöyle oluyor.

* Genelleme yeteneğinin duyarlılığı: 55.12820512820513%

* Genelleme yeteneğinin özgüllüğü: 55.5045871559633

* Genelleme yeteneği: 55.309734513274336

* TruePositives: 129

* YanlışPozitifler: 105

* TrueNegatives: 121

* YanlışNegatifler: 97

* İstatistikli örneklerdeki toplam kalıp sayısı: 452

Genelleme yeteneğinin genel sonucunu kırmızıyla vurguladım. Birincisi, tahmin edenlerin yüzdesi, ikincisi sıfır tahmin edenlerin yüzdesi, üçüncüsü toplamdır.


 
Michael Marchukajtes :


Ne cevap vereceğimi bile bilmiyorum. Rapordan bir örnek vermedikçe. Optimizasyon sonucu böyle bir şey ve burada nasıl yorumlanacağı herkes için çok fazla ama optimizasyon bittiğinde sonuç şöyle oluyor.

* Genelleme yeteneğinin duyarlılığı: 55.12820512820513%

* Genelleme yeteneğinin özgüllüğü: 55.5045871559633

* Genelleme yeteneği: 55.309734513274336

* TruePositives: 129

* YanlışPozitifler: 105

* TrueNegatives: 121

* YanlışNegatifler: 97

* İstatistikli örneklerdeki toplam kalıp sayısı: 452

Genelleme yeteneğinin genel sonucunu kırmızıyla vurguladım. Birincisi, tahmin edenlerin yüzdesi, ikincisi sıfır tahmin edenlerin yüzdesi, üçüncüsü toplamdır.


MLP, vakaların tahminlerinin% 95'inde ortaya çıkıyor ... bana öyle geliyor ki doğru bisikleti yapmıyorsunuz) Alınma.
Aynı zamanda kendi bisikletimi de yapıyorum, ancak onlarca yıllık kanıtlanmış MLP'ye dayanarak (dedikleri gibi, modası geçmiş ve daha havalı bir şey üzerinde çalışmamız gerekiyor). Peki ben ne tür bir bisikletim, belki kodunuzda bir yerde mantık hatası var? Farklı seçenekleri test ederken zaten birkaç tane buldum. Dahil olmak üzere bu konunun ilk mesajındaki sorunu çözdüm. Ama aynı filtreler, sizin işinizdeki fazlalığı kesiyor, bunun içinde gerekli olanı kesiyor ((. Girdilerin ağırlıkları üzerinden bir tarama yapmak gerektiğini düşünüyorum, tam veri üzerinde çalışma alanı.
 
elibrarius :
MLP, vakaların tahminlerinin% 95'inde ortaya çıkıyor ... bana öyle geliyor ki doğru bisikleti yapmıyorsunuz) Alınma.
Aynı zamanda kendi bisikletimi de yapıyorum, ancak onlarca yıllık kanıtlanmış MLP'ye dayanarak (dedikleri gibi, modası geçmiş ve daha havalı bir şey üzerinde çalışmamız gerekiyor). Peki ben ne tür bir bisikletim, belki kodunuzda bir yerde mantık hatası var? Farklı seçenekleri test ederken zaten birkaç tane buldum.


Mesele şu ki, ben bir programcı değilim. Bu optimizer tarafımdan yazılmamıştır, öyle ya da böyle sadece kullanıyorum, belirttiğiniz girdiler genellemenin yüzde 55'ini veriyor, bu tahmin etmekten daha iyidir, dolayısıyla numunenin dışındaki çalışmanın sonucunu olumlu bir kârla görüyoruz. Şimdi beni durduran tek şey, modelin aynalanması gerekiyor, o zaman kazanıyor ve eğer model düzse, o zaman birleşiyor ...

Ancak optimize ediciyi tüm girdilerde çalıştırırsanız, modelin çok daha karmaşık olacağını ve daha fazla girdi seçeceğini düşünüyorum. Ve böyle bir model teorik olarak daha iyi ve daha uzun süre çalışmalıdır. Ancak optimize ediciyi tam bir veri kümesinde çalıştıramıyorum, sanırım bir ay için hesaplanacak. Yani umut, optimize ediciyi GPU'da çalıştırmak, orada göreceğiz.

 
Michael Marchukajtes :


Mesele şu ki, ben bir programcı değilim. Bu optimizer tarafımdan yazılmamıştır, öyle ya da böyle sadece kullanıyorum, belirttiğiniz girdiler genellemenin yüzde 55'ini veriyor, bu tahmin etmekten daha iyidir, dolayısıyla numunenin dışındaki çalışmanın sonucunu olumlu bir kârla görüyoruz. Şimdi beni durduran tek şey, modelin aynalanması gerekiyor, o zaman kazanıyor ve eğer model düzse, o zaman birleşiyor ...

Ancak optimize ediciyi tüm girdilerde çalıştırırsanız, modelin çok daha karmaşık olacağını ve daha fazla girdi seçeceğini düşünüyorum. Ve böyle bir model teorik olarak daha iyi ve daha uzun süre çalışmalıdır. Ancak optimize ediciyi tam bir veri kümesinde çalıştıramıyorum, sanırım bir ay için hesaplanacak. Yani umut, optimize ediciyi GPU'da çalıştırmak, orada göreceğiz.

Bir ay boyunca bir şey çalıştıracaksanız - bilgisayarı çalıştırmak için kesintisiz bir güç kaynağı kullanın, bir şekilde 2 hesaplamadan sonra ışığı kapattım))
Ve GPU seçeneği için çok fazla beklemeyin, kodu yeniden yazmak daha uzun sürüyor gibi görünüyor ve eğer yazar bunu yapmadıysa, o zaman başka birinin bu görevin sonuna ulaşması olası değildir.