Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2746

 
JeeyCi #:

Bu yüzden yapmadan önce kontrol edin.

Neyi kontrol edeceksin? Rotasyonun var mı diye mi?

Bu artık komik bile değil.

 
Maxim Dmitrievsky #:
Sanych'in teorisini özetlemek gerekirse (kendisi düzgün bir şekilde formüle edemediği ve örnekler veremediği için):

*Bu özellik seçme yöntemi korelasyona dayanmaktadır, çünkü "ilişki" ve "ilişki" korelasyonun tanımlarıdır.

*Bu şekilde, LDA (doğrusal diskriminant analizi) veya PCA'ya benzer şekilde geçmişe örtük bir uyum sağlıyoruz, öğrenme sürecini basitleştiriyor, hatayı azaltıyoruz.

*Eğitilmiş modelin yeni veriler üzerinde (özellik-hedef ilişkilerinin tahminine dahil olmayan) daha iyi performans göstermesi gerektiğine dair bir teori bile yoktur çünkü özellikler daha önce özelliğe veya (daha kötüsü) mevcut tüm geçmişe uydurulmuştur.

*Durum, yayılmayı tahmin edebileceğiniz ve daha istikrarlı olanları seçebileceğiniz gibi, QC'nin kayan bir pencerede ortalaması alınarak biraz iyileştirilir. En azından güvenilecek bazı istatistikler

*Ben nedensellik ya da istatistiksel olarak anlamlı bir ilişki olduğunu düşünüyordum, ancak onun yaklaşımında durum böyle değil.

Bu tamamen yanlış.

1. Yukarıda "tahmin gücü" anlayışım hakkında yazmıştım

2. Anlamı açık değil

3. Olağan anlamda bir traine yoktur. Rastgele orman uydurma. Örneklem büyüklüğü = 1500 çubuk, ağaç sayısı=150. Örneklem büyüklüğü uyum hatası grafiğinden alınır. Bu 170 tahminciden oluşan örneklem üzerinde, farklı kriterlere göre tahmincilerin seçimi ve ön işlemleri yapılır. Sonunda, kalan 20-30 tahmin ediciden 5 ila 10 tahmin edici maksimum tahmin kabiliyetine göre seçilir ve modele uydurulur. Elde edilen model kullanılarak bir sonraki çubuk tahmin edilir. Yeni bir çubuğun gelmesiyle birlikte, tüm model oluşturma süreci tekrarlanır.

Maksimum uydurma hatası yaklaşık %20'dir, ancak oldukça nadirdir. Genellikle yaklaşık %10'dur.

4. Yaklaşımımı daha önce anlatmıştım.

 
СанСаныч Фоменко #:

Bir kez daha.

ama hedef zikzak değil, değil mi?

 
СанСаныч Фоменко #:

Tamamen yanlış

1. Yukarıda "tahmin yeteneği" anlayışı hakkında yazmıştı

2. Anlamı açık değil

3. olağan anlamda trayne yok. Rastgele orman uydurma. Örneklem büyüklüğü = 1500 çubuk, ağaç sayısı = 150. Örneklem büyüklüğü uyum hatası grafiğinden alınır. Bu 170 tahminciden oluşan örneklem üzerinde, farklı kriterlere göre tahmincilerin seçimi ve ön işlemleri yapılır. Sonunda, kalan 20-30 tahmin ediciden 5 ila 10 tahmin edici maksimum tahmin kabiliyetine göre seçilir ve modele uydurulur. Elde edilen model kullanılarak bir sonraki çubuk tahmin edilir. Yeni bir çubuğun gelmesiyle birlikte, tüm model oluşturma süreci tekrarlanır.

Maksimum uyum hatası yaklaşık %20'dir, ancak bu oldukça nadirdir. Genellikle %10 civarındadır.

4. Yaklaşımımı daha önce anlatmıştım.

Daha açık. Kümeleme sonuçlarına göre hedefler nereden geliyor?
 

Gelecekteki sonuçların iyi olacağına dair güven, tahmin yeteneği istatistiğinden gelir:

1. Yeterince yüksek bir sd değerine sahip olmalıdır

2. Düşük bir sd değeri.

Her zamanki gibi, sd değeri %10'un altında olan tahmin ediciler bulunabilirse, tahmin hatasındaki varyasyon yaklaşık olarak aynı olacaktır.


Benim vardığım sonuç:

1. "Tahmin yeteneği" algoritmalarından birini benimsemeliyiz (veya geliştirmeliyiz)

2. Tahmin yeteneği değerleri bir kat farklı olan tahmin edicilerin bir listesini bulun

3. Bir pencere çalıştırın ve istatistikleri alın: ortalama ve ortalamadan sapma. Şanslıysanız, böyle bir liste bulacaksınız. Ben buldum.

Model önemli değil. Tahmin edicilerimde RF, ada, GBM, GLM yaklaşık aynı sonucu veriyor. SVM biraz daha kötü. Nnet ile hiç iyi değil.


Tüm başarı tahmin edicilerde ve onların ön işlemlerinde. Ve sen burada saçmalıyorsun!

 
Maxim Dmitrievsky #:
Bu daha mantıklı. Hedefler nereden geliyor, kümeleme sonuçlarından mı?

Normal artışların işaretini aldım.

Hedef ikincildir. Hedefle ilgili sorun tahmin edicilerdir: tahmin edicileri belirli bir hedefle eşleştirebilir ya da eşleştiremezsiniz.

 
СанСаныч Фоменко #:

Normal artışlar için bir tabelam var.

Hedef ikincildir. Hedefle ilgili sorun tahmin edicilerdir: tahmin edicileri belirli bir hedefe uydurabilir ya da uydurmayabilirsiniz.

Hedefleri işaretleme aşamasında onları bir veya daha fazla işarete uyduruyorum, korelasyon yoluyla veya en azından Mahalanobis yapılabilir. Yani herhangi bir bilgilendirici set yapılabilir

Kayan pencere teması artık açık, sadece modeli yeniden eğitin ve işaretleri yeniden seçin

Her çubukta yeniden eğitim yapmamak için kayan bir pencerede istatistiklerini hesaplar ve en uygun olanları seçerdim.
 
СанСаныч Фоменко seçiminin sonucu DEĞİLDİR.

Tahmin yeteneği bilgi korelasyonudur ve DEĞİLDİR:

1. Korelasyon, bir durağan serinin diğerine "benzerliğidir" ve her zaman bir değeri vardır ve "ilişki yok" değeri yoktur. Korelasyon her zaman bir tür değere sahiptir, bu nedenle bir öğretmen ile kahve telvesi arasındaki ilişkiyi bulmak için korelasyonu kolayca kullanabilirsiniz.

2. Fiş seçimi, model oluştururken fişlerin kullanılma sıklığıdır. Öğretmenle hiçbir ilgisi olmayan tahmin edicileri alırsak, yine de bir fiş sıralaması elde ederiz.

Benim "tahmin gücü" anlayışımın bir benzeri, örneğin her bir ağırlık merkezi sınıfı için Mahalanobis örnekleme mesafelerini tanımlayan caret::classDist()'tir. Ya da woeBinning. R'de birçok yaklaşım ve birçok paket vardır. Bilgi teorisine dayalı daha fazlası var.

Hala anlamıyorum. Korelasyon ya da kullanım sıklığı değil. Presc.sp. eğitimde nasıl tahmin ediliyor veya neye göre tahmin ediliyor?
Yoksa bu şekilde adlandırılan bir tür denge göstergesi mi?
S.F. Daha fazla okudum, daha açık hale geldi.
 
СанСаныч Фоменко #:

Normal artışlar için bir tabelam var.

Hedef ikincildir. Hedefin sorunu tahmin edicilerdir: tahmin edicileri belirli bir hedefle eşleştirebilir veya eşleştiremezsiniz.

Artışların işareti ve ZZ'nin işareti kârı garanti etmez. 5 küçük artış, güçlü bir artışla kolayca örtüşecektir, ancak ters yönde. Ve 10, örneğin, gece karlı çubuklar da 1 gün kaybeden çubuk tarafından kapsanacaktır (sadece% 10 hata).

Yeni verilerde hangi denge çizgisi elde edilecek? Umarım küçük yukarı/aşağı dalgalanmalarla yatay değildir?

Vladimir'in makalelerinde de hata %10-20 civarında, ancak denge çizgisi iyimserlik uyandırmıyor.

 
Valeriy Yastremskiy #:
Hâlâ anlamıyorum. Korelasyon ya da kullanım sıklığı değil. Eğitimde presc.sp. nasıl tahmin ediliyor veya neye göre tahmin ediliyor?
Yoksa bu şekilde adlandırılan bir tür denge ölçüsü mü?

aynı vektör cebiri, çoklu doğrusallık sorununu ortadan kaldıran aynı özellik eşlemesi.

Mahalanobis mesafesi, çok değişkenli istatistiklerde en yaygın kullanılan ölçütlerden biridir.

- Yani, esasen aynı "bileşenlerin".... uzamsal seçimi/projeksiyonu Çoklu doğrusal özelliklerin uzayındaki konum, vektör(!) cebirinin uygulanması için bir alan sağlar, çoklu doğrusallıktan zanaatkar bir şekilde kurtulmamak için, sadece hesaba katmak daha iyidir (örneğin, 3 boyutlu uzaya veya istediğiniz her şeye indirgeyerek ve projeksiyonlarla çalışarak ve gerekirse, ilk veriler bu tahminlerle çarpılabilir, faktör yükleri gibi bir şey gibi, ancak genellikle kütüphanenin kendisi bu Mahalanobis mesafesini ölçer ve sonuçları verir).

Her neyse, sonuç ortalama ve st.sapma için aynı yaklaşım ve bunlara dayalı alım satım kararları vermektir.

- Doğada başka bir modelleme yoktur - sadece (farklı) n boyutlu uzayda yaygın sorunları (değişen varyans, çoklu doğrusallık, artıkların otokorelasyonu) çözmenin yolları vardır...

ve istatistikten kaçış yoktur ... özellik korelasyonu probleminin çözümü burada açık bir şekilde yer almaktadır...

p.s..

GÜNCELLENDİ: hala bu araç(MD) kümeleme/gruplama/çok boyutlu sınıflandırma için kullanılıyor ... Çok boyutlu bir uzayda aykırı değerleri seçmek için... bazen Öklid uzaklığı ile birlikte kullanılır... "değişkenler ilişkili olmadığında - Mahalanobis uzaklığı normal Öklid uzaklığı ile çakışır".... LDA'da... genel olarak tz daha önce tarif ettiğim gibidir....

bu yazıyla hiçbir şekilde PCA ve kümelemeyi eşitlemek istemedim, sadece hem PCA hem de MD'nin çok boyutlu uzayda aykırı değerlerden kurtulma imkanı verdiğini hatırladım... ancak güncellememin özü değişmiyor: bunların hepsi, çoklu doğrusallık sorununu dikkate almak için (istatistiksel tahminleri bozmaması / kaydırmaması için) vektör cebiri ile uzamsal problemlerin çözümleridir.

Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Попробуйте сделать кластерный анализ, чтобы определиться сколько классов формально выделить как их назвать уже дело субъективного вкуса.
Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Попробуйте сделать кластерный анализ, чтобы определиться сколько классов формально выделить как их назвать уже дело субъективного вкуса.
  • 2022.09.15
  • www.mql5.com
поскольку он сам не смог нормально формализовать и привести примеры его способ отбора признаков основан на корреляции. чтобы определиться сколько классов формально выделить как их назвать уже дело субъективного вкуса. на основании которых относить sample ы к тому или иному классу