Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3023

 
Maxim Dmitrievsky #:

Bu kolayca otomatikleştirilir ve insan müdahalesi olmadan çalışır

benzer bir algoritma son makalede gösterilmişti.

Özünde, model hatalarının filtrelenmesi ve bunların ayrı bir sınıfa "ticaret yapmayın" olarak konulması, tahılı samandan ayırmayı öğrenen ikinci bir model aracılığıyla daha iyi hale getirilir

ve ilk modelde sadece taneler kalır

Ağaç kuralları ile aynıdır, ancak yandan. Ancak kurallar yağmalanmalı ve birbirleriyle karşılaştırılmalıdır ve çıktıda zaten rafine edilmiş bir TS vardır.

Yukarıda model hatalarını göz ardı edemeyeceğinizi belirtmiştim.

Fikrimi değiştirmek istiyorum.

Ancak bu amaç için gereklidir.

Başlangıç modelinin eğitim seçimi üzerinde ve dışında değerlendirilmesi

Önceki iki modelle eşleşmeyen eğitim seçimi dışında "temizlenmiş" bir modelin değerlendirilmesi

Yapabilir miyiz?

 
СанСаныч Фоменко #:

Model hatalarını göz ardı edemeyeceğiniz yukarıda gerekçelendirilmiştir.

Fikrimi değiştirmek istiyorum.

Ama bunu yapmak için.

Başlangıç modelinin eğitim seçimi üzerinde ve dışında değerlendirilmesi

Önceki iki modelle eşleşmeyen eğitim seçiminin dışında "temizlenmiş" bir modelin tahmini

Yapabilir miyiz?

Yukarıya birkaç ekran ekledim

Bu şekilde tahılı samandan ayırma algoritmaları farklı olabilir, size nasıl yaptığımı gösteriyorum.

noktalı çizginin solunda eğitime hiçbir şekilde katılmayan OOS yer almaktadır

artışlar gibi basit işaretleri öğrenme

Sarı eğri fiyat tekliflerinin grafiğidir, ona bakmayın. Ancak modelin hangi durumlarda daha iyi/kötü çalıştığını anlamak için kullanabilirsiniz
 

Bir kerede çok fazla hata atarsanız, öğretmen dejenere olur (çok fazla hata ve sıfır tane kalabilir), bu nedenle her iterasyonda kademeli olarak atın

ve OOS üzerindeki hata giderek azalır, bu durumda r^2 artar

Iteration: 0, R^2: 0.10170503363002426
Iteration: 1, R^2: 0.3786110827222656
Iteration: 2, R^2: 0.36326063198923375
Iteration: 3, R^2: 0.4316690005974817
Iteration: 4, R^2: 0.71390099630815
Iteration: 5, R^2: 0.8178962191209952
özünde, bu fxsaber'deki bestinterval'in bir analogudur, sadece burada TS bir kerede hazırlanır
 
Aleksey Vyazmikin #:

Sanırım hepsi listede var. Bu kitap, Kaggle ve framevoc fast.ai'nin kurucusu Jeremy Howard tarafından yazılmıştır.

Fast.ai.

Orijinal kitap

Rusça Kitap

Ücretsiz sürüm

 
Maxim Dmitrievsky #:

Bir kerede çok fazla hata atarsanız, öğretmen dejenere olur (çok fazla hata ve sıfır tane kalabilir), bu nedenle her iterasyonda kademeli olarak atın

ve OOS hatası giderek azalır, bu durumda r^2 artar.

özünde fxsaber'deki bestinterval'in bir analogudur, sadece burada TS bir kerede hazırlanır

Bana göre alıntıda aşırı bir uygunluk var.

"Örnek dışı" nerede?

 
Belki ağaçlarla bu şekilde uğraşırsanız ve sonra kuralları çıkarırsanız daha iyi olur.
 
СанСаныч Фоменко #:

Bana göre bu alıntıya süper bir uyum var.

"Örnek dışı" nerede?

Artık komik değil.

 
Aleksey Vyazmikin #:

Bu şapkayı python'da yaprak seçeneği olan bir ağaçla yapmayı öneriyorum, kolab'da veri kümelerinizi oraya koyabilirsiniz.

Neyin daha iyi/kötü olduğuna dair herhangi bir fikriniz varsa, sadece en iyisini veya bazı filtreleri almak için kurallar önerin.

Bir veri setini her iki yaklaşımla da çalıştırarak karşılaştırmak istiyorum. O zaman neyin ne olduğunu anlayacağız :)

 
Maxim Dmitrievsky #:

Bu kolayca otomatikleştirilir ve insan müdahalesi olmadan çalışır

benzer bir algoritma son makalede gösterilmişti.

Özünde, model hatalarının filtrelenmesi ve bunların ayrı bir sınıfa "ticaret yapmayın" olarak konulması, tahılı samandan ayırmayı öğrenen ikinci bir model aracılığıyla daha iyi hale getirilir

ve ilk modelde sadece taneler kalır

Ağaç kuralları ile aynıdır, ancak yandan. Ancak kurallar yağmalanmalı ve birbirleriyle karşılaştırılmalıdır ve çıktıda zaten rafine edilmiş bir TS vardır.

Örneğin, samandan tahıl seçmenin ilk iterasyonu (dikey noktalı çizginin solunda - OOS):

Ve işte onuncusu:


Evet, amaç aynıdır - sonuçta tahmin edicileri daha iyi tanımlayan verilerle çalışın.

Bunun en verimli şekilde nasıl yapılacağı hala açık bir sorudur - her yöntemin artıları ve eksileri vardır.

 
Rorschach #:

Sanırım hepsi listede var. Bu kitap, Kaggle ve framevoc fast.ai'nin kurucusu Jeremy Howard tarafından yazılmıştır.

Fast.ai.

Kitap orijinalinde

Rusça Kitap

Ücretsiz sürüm

Teşekkürler! Rusça ücretsiz bir tane aramam gerekecek - çevirmen bazen inci yapıyor ve bana tuzlu sudan bahsediyor, bu da faydalı olabilir :)