Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2727

 
Aleksey Nikolayev #:

Varsayımlarınız çok güçlü görünüyor. Eğer bunları uygulamak mümkün olsaydı, pratikte bir kase olurdu. Daha mütevazı ve spesifik bir sorunu çözmek istiyorum - tepsinin yeterli uzunluğu ile içinde eski örneklerin olmaması arasında bir uzlaşma bulmanın genel bir yolunu bulmak.

Bence bu konu, MO ve matstat'ın alanımızdaki uygulamaları için temel önem taşıyor.

Deneysel olarak denemediniz mi? Sonuçta, bu soruya teorik yaklaşımınıza göre, örneklem büyüklüğündeki kritik bir artıştan sonra, örneklemdeki kalıplar eski olacak, artık çalışmayacak, bu da öğrenmenin niteliksel anlamda bozulması gerektiği ve örneklem artırıldığında yeni veriler üzerindeki sonuçların daha kötü olacağı anlamına geliyor.

 
Aleksey Nikolayev #:

Zaten eğitilmiş bir modelin a posteriori analizini alıyoruz. Bunu, eğitim örneği seçimi aşaması için önsel bir analizle desteklemek istiyorum.

Ben de öyle düşünüyorum. Basitlik için zikzağın son biçimlendirilmiş tepesini kullanmaya karar verdim, ancak daha ayrıntılı bir şey istiyorum.

Yeni verilerden sadece çalışan parçaları çekmeye başlıyorum ve hem eski hem de yeni veriler üzerinde çalışmak için ikinci bir model şeklinde bir filtre uyguluyorum, sonra makalede olduğu gibi diğer yeni veriler üzerinde kontrol ediyorum.

Bu da bir tür uydurma, ancak model hataları temelinde. Sanki en azından iyi sınıflandırabildiği varyantları seçiyoruz, bu yüzden içlerinde rastgelelik dışında bir şey var (en azından eğitim ve doğrulama ve diğer bazı doğrulamalarda).

Eğer a priori bir şey ortaya koyuyorsa, muhtemelen uzun soluklu bir izleme yapmak mantıklıdır, en azından bazı yeterli işaretler verecektir. İşaretleri toplayın.


Yeni bir spam özellikleri ve hedefleri buldum (her zamanki rastgele örnekleme ile karşılaştırıldığında bilgilendirici gibi görünüyor ve öyle). Ancak birkaç varyantı var, henüz test etmedim.

 
Aleksey Vyazmikin #:

Deneysel olarak denemediniz mi? Sonuçta, bu sorudaki teorik yaklaşımınıza göre, örneklem büyüklüğündeki kritik bir artıştan sonra, örneklemdeki örüntüler eskiyecek, artık çalışmayacak ve dolayısıyla öğrenme niteliksel anlamda bozulmalı ve yeni veriler üzerinde örneklem artırıldığında sonuçlar daha kötü olacaktır.

Muhtemelen çok sayıda zaman noktası için geçmişin uzunluğu boyunca çok sayıda varyant üzerinde eğitim yapmanın tamamen muazzam bir hesaplama görevi olduğunu fark etmişsinizdir. Bir mucize eseri tüm bu istatistikleri toplamayı başarsanız bile, bu bilgi yığınının anlamlı bir şekilde sistematize edilmesi sorunu ortaya çıkacaktır. Şüphesiz her an için farklı bir tarih uzunluğunun en uygun olduğu ortaya çıkacaktır. Peki bu nasıl yorumlanacak ve en önemlisi, geleceğe yönelik tahminler nasıl yapılacak?

Ben tam tersini yapmak istiyorum - eğitim geçmişinin uzunluğu için varyant sayısını büyük ölçüde azaltmak için bazı sezgisel yöntemler bulmak istiyorum (kelimenin tam anlamıyla birkaç varyanta kadar).

 
Maxim Dmitrievsky #:

Yeni verilerden yalnızca çalışan parçaları çekmeye başlıyorum ve filtreyi hem eski hem de yeni veriler üzerinde çalışmak için ikinci bir model olarak uyguluyorum, ardından makaledeki gibi diğer yeni veriler üzerinde kontrol ediyorum.

aynı zamanda bir tür uydurma, ancak model hataları temelinde. Sanki en azından iyi sınıflandırabildiği varyantları seçiyoruz, bu yüzden içlerinde rastgelelik dışında bir şey var (en azından eğitim ve doğrulama ve diğer bazı doğrulamalarda).

Eğer a priori bir şey ortaya koyuyorsanız, muhtemelen uzun soluklu bir izleme yapmak mantıklıdır, en azından yeterli bir işaretleme sağlayacaktır. İşaretleri toplayın.


Yeni bir özellik ve hedef spam'ı buldum (bilgilendirici gibi görünüyor ve bu yüzden normal rastgele örnekleme ile karşılaştırılıyor). Ancak birkaç varyantı var, henüz test etmedim.

Bunun üzerinde düşünmem gerekecek. Bunu kendi fikirlerime ve kavramlarıma nasıl tercüme edeceğimi gerçekten anlamıyorum.

 
Aleksey Nikolayev #:

Bunun hakkında düşünmem gerekiyor. Bunu algılarımın ve kavramlarımın diline nasıl tercüme edeceğimi gerçekten anlamıyorum.

Ayrıca, tiklerden çubuklara geçmek tahmin gücünü çok azaltır.

ancak dts ile olası çakışmaları ortadan kaldırır).

 
Maxim Dmitrievsky #:

Ayrıca, tiklerden çubuklara geçmek tahmin yeteneğini çok azaltır

ancak dts ile olası çakışmaları ortadan kaldırır :)

Bu arada, bu aynı zamanda önemli bir pratik ve ilginç bir teorik sorudur. Bunu gerçek alış-satış farkının hacme (likidite, volatilite) bağımlılığı olarak formüle edebilir, ilgili regresyonu hesaplayabilir, forex ile borsa araçlarını karşılaştırabilir, vb. Başka bir şey de, bunun yalnızca TS'leri büyük hacimlerde işlem yapanlar için ilginç olmasıdır)

 
Aleksey Nikolayev #:

Geçmişin uzunluğu boyunca çok sayıda an için çok sayıda değişkeni eğitmenin kesinlikle muazzam bir hesaplama görevi olduğunu muhtemelen fark etmişsinizdir. Bir mucize eseri tüm bu istatistikleri toplamayı başarsanız bile, bu bilgi yığınının anlamlı bir şekilde sistematize edilmesi sorunu ortaya çıkacaktır. Şüphesiz her an için farklı bir tarih uzunluğunun en uygun olduğu ortaya çıkacaktır. Peki bunu nasıl yorumlamalı ve en önemlisi de geleceğe nasıl tahmin etmeli?

Tam tersini yapmak istiyorum - eğitim geçmişinin uzunluğu için varyant sayısını büyük ölçüde azaltmak için bazı sezgisel yöntemler bulmak (kelimenin tam anlamıyla birkaç varyanta kadar).

Deney ile ilgili sorun çözülebilir, ben de benzer bir şey yapmıştım.

O zaman örneklemin karşılaştırılabilirliğini tahmin etme yöntemlerini araştırmam gerektiği fikrine vardım. Ancak bunu uygulayamadım - formülü anlamamıştım.

 
Aleksey Vyazmikin #:

Deney ile ilgili sorun çözülebilir, ben de benzer bir şey yaptım.

Muhtemelen teknik olarak oldukça çözülebilir. Asıl soru, böyle bir deneyin sonuçlarının nasıl yorumlanacağıdır.

Aleksey Vyazmikin #:

O zaman bir örneklemin karşılaştırılabilirliğini değerlendirme yöntemlerine yönelmemiz gerektiği fikrine vardım. Ama bunu gerçekleştiremedim - formülü anlamamıştım.

Örneğin Matstat, örneklerin homojenliğini kontrol etmek için birçok teste sahiptir. Tabii eğer terminolojinizi doğru anladıysam.

 
Aleksey Nikolayev #:

Bu arada, bu aynı zamanda önemli bir pratik ve ilginç bir teorik sorudur. Gerçek alış-satış farkının hacme (likidite, volatilite) bağımlılığı olarak formüle edilebilir, ilgili regresyonu hesaplayabilir, forex ile borsa araçlarını karşılaştırabilir vb. Başka bir şey de, bunun yalnızca TS'si büyük hacimlerde işlem yapanlar için ilginç olmasıdır).

Oh, öyle bir karmaşa ki hiçbir şey net değil. Bu hacimli kotasyonları nereden alıyorlar, hangi tedarikçiler var, hiç var olup olmadıkları ve bunun gibi her şey. Sonunda, başarılı olsalar bile, böyle zehirli bir ts'yi benzer ilkelerdeki diğerleri gibi yasaklayacaklar. Ya da bir şapka ile farklı yerlere koşacaklar ve sihirli sarkaçtan önce içine düşecekleri toplayacaklar

Bir saatlik işlem uzunluğundan TS'ye hoş geldiniz, birkaç enstrümanda mümkün, toksisite açısından özellikle zorlanmıyorlar gibi görünüyorlar, ancak muhtemelen zorlanmadıkları için böyle bir zorluğu yapmak zor.
 
Maxim Dmitrievsky #:
Öyle bir karmaşa ki anlaşılır gibi değil. Bu hacimli teklifleri nereden alıyorlar, hangi tedarikçileri kullanıyorlar, var olup olmadıkları ve bunun gibi her şey. Sonunda, işe yarasa bile, böyle zehirli bir TS'yi benzer ilkelerdeki diğerleri gibi yasaklayacaklar

Sanırım fxsaber sorunların bazı büyük cirolarla başladığını yazdı. Belki de TS'leriniz kopyacılar arasında çok yüksek popülerliğe kurban gitmiştir)