Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1329

 
Yuri Asaulenko :

Aynı şeyi öğretmen olmadan da yapabilirsiniz. Bunda bir fark görmüyorum.

Birkaç if ifadesi ile çözülen bir problemi öğrenen ve çözen bir grup nöron hayal edin.

Pekala, anlıyorum, buna a priori bilgi, yerleşik akran incelemesi deniyor, ancak bunları modelle tekrar kontrol etmiyorsunuz çünkü %100 eminsiniz

Rastgele süreç hakkında, rastgele olması ve birkaç küçük inanç dışında hiçbir bilgim yok.
 
Maksim Dmitrievski :

Pekala, anlıyorum, buna a priori bilgi, yerleşik akran incelemesi deniyor, ancak bunları modelle tekrar kontrol etmiyorsunuz çünkü %100 eminsiniz

Evet kesinlikle. Bu pratikte bir aksiyomatiktir - neden kontrol edelim. Çözümün apriori kısmını biliyoruz - piyasada boş yere meditasyon yapıyoruz.)

 
Maksim Dmitrievski :

Yine, farklı yaklaşımlardan bahsediyoruz.

bir öğretmenle eğitimin var, çünkü önce sen koy, öğretmenim yok

Ben hatırlıyorum. Elbette farklı yaklaşımlar var. Bir kez daha, bunda (öğretmenle) herhangi bir kontrendikasyon görmüyorum. İstenirse, kesinlikle görünürse, her şey gerçekleştirilebilir.

Öğretmensiz bir RNN'niz yoksa, burada her şey daha karmaşıktır ve sadece bilmiyorum, kullanmadım. Bu arada, ne kullanıyorsun? M.b. dediler ama konuyu küreklemek için...

 
Yuri Asaulenko :

Ben hatırlıyorum. Elbette farklı yaklaşımlar var. Bir kez daha, bunda (öğretmenle) herhangi bir kontrendikasyon görmüyorum. İstenirse, kesinlikle görünürse, her şey gerçekleştirilebilir.

Öğretmensiz bir RNN'niz yoksa, burada her şey daha karmaşık ve bilmiyorum, kullanmadım. Bu arada, ne kullanıyorsun? M.b. dediler ama konuyu küreklemek için...

bir çok şey, rn hala yeterli değildi)) o zaman yapacağım

temeller hakkında bir makale var, ama doğal olarak daha da ileri gitti

 
Maksim Dmitrievski :

bir çok şey, rn hala yeterli değildi)) o zaman yapacağım

temeller hakkında bir makale var, ama doğal olarak daha da ileri gitti

Kavşakta - sağa gideceksiniz ... vb. Tensorflow, çok iyi işlevsellik, ancak çok ağır olduğunu söylüyorlar. Şimdiye kadar sadece belgeleri okudum. kullanmadın mı?

 
Yuri Asaulenko :

Kavşakta - sağa gideceksiniz ... vb. Tensorflow, çok iyi işlevsellik, ancak çok ağır olduğunu söylüyorlar. Şimdiye kadar sadece belgeleri okudum. kullanmadın mı?

açısından ağır? tf düşük seviye, theano'nun üstüne koy, tf.theano'yu kullan, o zaman her şey daha kolay

Farklı örneklere baktım ama henüz geliştirme yapmadım

2. versiyon yolda, sitede zaten mevcut, modellerin oluşturulması orada basitleştirildi
 
Maksim Dmitrievski :

açısından ağır? tf düşük seviye, theano'nun üstüne koy, tf.theano'yu kullan, o zaman her şey daha kolay

Farklı örneklere baktım ama henüz geliştirme yapmadım

Hız açısından. Bence, belki. şimdilik scikit-learn'de dur, CHAZ. MLP'ler oldukça iyi.

 
Yuri Asaulenko :

Hız açısından. Bence, belki. şimdilik scikit-learn'de dur, CHAZ. MLP'ler oldukça iyi.

bilmiyorum, sanmıyorum

dofig paketleri, sadece en popüler ve gelişmekte olan paketleri incelemeye çalışıyorum

sklearn bir tür karışıklıktır

tf yerel mimarilerin daha fazla kurucusu

 
Yuri Asaulenko :

NN'ler ölçeklendirmeyi gerçekten sevmiyor. Fiyat aralığında eğitilmiş - 100-120, fiyat ötesine geçecek - bu kadar, paragraf. Sadece fiyatla ilgili her şeyi fiyatın kendisine böler, bir çıkarır ve ardından değişkenleri istenen dinamik aralığa sürmek için katsayıları kullanırım.

Bu nedenle, hem orada hem de orada, kabul edilebilir bir metrik için veri ön işlemesi gereklidir. ATR'mi üst TF'lerden kullanıyorum ve fiyatı bunun içinde konumlandırıyorum - seviyelere göre çentikli dominolar alıyorum, fiyata bir Fibonacci seviye numarası atanıyor.

 

Bitmiş işleme modelleri, 201'den 401'e kadar tohum - diğer her şey değişmedi.

Denge değerlendirmesinin sonuçlarını içeren tablo

Metrik içeren tablo

Bağımsız bir örneklem üzerinde seçim kriterlerini karşılayan modellerin sayısını gösteren tablo


Her üç örnekte de seçim kriterine uyan model sayısını gösteren tablo

Model çizelgeleri (çoğunlukla gifler)

otuz%

%40

elli%

%60

Eğilim esas olarak tüm göstergeler için korunmuş gibi görünüyor, aşağıda delta tabloları var - öyle oldu - değişiklikleri karşılaştırmak için

Metrikler açısından, fark genellikle minimumdur.

Toplanan verilerden, eğilimin genel olarak devam ettiği sonucuna varılabilir.

En çok başka bir soruyla kafam karıştı - grafikler neden farklı örneklerdeki farklı modeller için çok benzer, öyle görünüyor ki modeller, sık aralıklarla ve farklı örnek boyutlarında kendini gösteren bir tür bariz modeli yakalamayı başarıyor (her durumda, bu parça sürekli pencereye düşer) ve modelin yararlandığı bu düzenliliktir.

Kendim için, ilginç modeller arayışında doğrulama sitesi lehine tüm verilerin örneğinin% 30'undan% 70'ine dağıtmanın oldukça mümkün olduğu sonucuna vardım, ancak% 30'unun hala optimal olduğu görülüyor.