Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2786
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Markov sürecinde, o andaki değere herhangi bir bağımlılık söz konusu değildir.
Ne demek istiyorsunuz, geçiş matrisinde neredeyseniz oradan devam edersiniz.
Yani, faktörler az ise süreç kontrollüdür, ancak belirli bir faktör sayısından sonra çarpışmalar ve faktörlerin toplanmasının olasılıksal sonuçları ortaya çıkmaya başlar. Ayrıca, faktörlerin bağlantıları olabilir ve vardır ve geri bildirimler vardır. Ancak Markov sürecinin böyle bir bağlantısı yoktur.
Rastgele değişkenleri tanımlar - nasıl bağlantıları olabilir (mantıksal olarak yokturlar).... ancak bir matris varsa, bu, içinde bağlantılar bulabileceğimiz / tanımlayabileceğimiz / kaybolabileceğimiz / oluşturabileceğimiz anlamına gelir... imho olayların etkisi altındaki durumu tanımlamakla ilgili... hepsi aynı istatistikler, ama aynı zamanda duruma bağlı olarak ileriye doğru bir adım (ve sadece bu adım her anın istatistiksel serisinin dinamiklerini belirler)... sadece Markovian'ın tamamının formülasyonundaki "rastgelelik" benim de kafamı karıştırdı (ama istatistik ve dim_reduction bunun içindir).
rastgele değişkenleri tanımlar - nerede bağlantıları vardır (mantıksal olarak, hiçbiri yoktur)... ancak bir matris olduğu için - bu, içinde bağlantılar bulmanın / tanımlamanın / kaybolmanın / oluşturmanın mümkün olduğu anlamına gelir... imho olayların etkisi altındaki durumu tanımlamakla ilgili... hepsi aynı istatistikler, ama aynı zamanda duruma bağlı olarak ileriye doğru bir adım (ve sadece bu adım her anın istatistiksel serisinin dinamiklerini belirler)... sadece Markovian'ın tamamının formülasyonundaki "rastgelelik" benim de kafamı karıştırdı (ama istatistik ve dim_reduction bunun içindir).
Rastgele süreçlerin fiziğinden anladığımı söyledim, bana göre 2 çeşidi var, piyasada birincisi faktör sayısı olasılıksal bir sonuç verdiğinde, ikincisi ise yüksek frekanslı bir sürece göre düşük frekanslı bir sürecin sonucudur, bu durumda süreçler birbirine bağlı değildir.
Ve felsefi olarak, bir fonksiyonun ya da sürecin geçmiş değerleriyle bir bağlantı yoksa, sürecin rastgele olacağını anlıyorum. Ancak gerçek dünyada durum genellikle böyle değildir.
Piyasada, uzun süreli durağan durumların güçlü faktörlerden gelen bazı eylemsiz kuvvetlerin veya güçlü uzun süreli faktörlerin etkisi olduğunu varsayarsak, bunları gürültüde ayırt etmek mümkündür ve bu bir Markov durumu değildir. Modeli SB modelinden ayırma yaklaşımı oldukça mantıklıdır. Ancak bununla ne yapmalı, mantıksal olarak, Markov olmayan bir durum varsa, o zaman araştırmak mümkündür ve hiçbir fark yoksa, araştırmanın bir anlamı yoktur.))))))
Ne demek yok, geçiş matrisinde neredeyseniz oraya gidersiniz.
Bu açıktır, ancak rastgele bir süreçtir, çünkü şimdiki değer ile bir önceki değer arasında hiçbir bağlantı yoktur.)))))) Ve evet matriste))))) değerler vardır.
GSC'ler bu ilişkinin neredeyse sıfıra indirilmesi ilkesi üzerine inşa edilmiştir).
Vladimir Perervenko 'nun normalleştirme yöntemleri sadece gariptir - log2(x + 1) hala anlaşılabilir,
ancak böyle bir canavarın ortaya çıkması - sin(2*pi*x) yoluyla asimetriden kurtulmak - ne yaptığı tam olarak açık değildir - mantıksal olarak bazı döngüsel bileşenler ekler ve soru şudur, neden böyle bir bileşen? veya onu kaldırır mı? (döngüleri kaldırırsak, geriye gürültü kalır)...
ve tanh(x) genel olarak bir seriyi sıkıştırmak için sinir ağı işleminin bir taklidi gibi görünüyor... ya da satırın başka bir basit çarpıtması mı? - Döngüsellikten kurtulmak pek olası değil ve hangisinin olduğu da belli değil....
Her neyse, elbette, zaman serisinin = trend + döngü + gürültü olduğu açıktır ...
... ama bu tür dönüşümlerle döngüsellikten kurtulmaya çalışıyor olabilir (ve sin(2*pi*x)'in nasıl evrensel bir yol olduğu bilinmiyor??) ... Nedense ilk başta bunun seriye bir tür d/df elemanı koyma girişimi olduğunu düşündüm - döngüselliği ortadan kaldırmak için(bu uzunluğu işaret faktörlerinin kendilerine dahil ederek? dalga boyunu işaret faktörlerine dahil ederek), normal dağılıma ulaşmak için, yani işaretlerin bileşimine hız ve ivme katmak için ... ?? ama yine de sin ile manipülasyon, işaret değerine göre ölçeklendirilmiş genlik altında serinin haksız bir çarpıtması gibi görünüyor - istatistiksel işlemede böyle bir şeyle karşılaşmadım .... neden cos değil? neden tanh değil? -- sadece eğri yapmanın farklı yolları? Neden?
belki yazar bu özel trigonometrinin özünü açıklayabilir (log yoluyla çarpık dağılımı ortadan kaldırma amacı zaten açıktır) - ama sin kullanmanın gerekçeleri / varsayımları nelerdir?? neden cos değil? ve neden bu eğrilik?(işaret değişimini hızlandıracak mı? -hatta bazen sadece yumuşatmak yerine)
size vektörler verildi, bir makale yazdınız ve bir biblo gibi muamele gördünüz....
biri bu tür dönüşümleri ne kadar ciddiye almanız gerektiğini/alabileceğinizi ve nedenini yazabilir mi? (log ile asimetriden kurtulma isteği dışında, sanırım ln en yaygın olanı).
Vladimir Perervenko 'nun normalliğe dönüştürmenin bazı garip yolları vardır - log2(x + 1) hala anlaşılmaya çalışılabilir,
ancak böyle bir canavarın ortaya çıkması - sin(2*pi*x) yoluyla asimetriden kurtulmak - ne yaptığı tam olarak açık değildir - mantıksal olarak bazı döngüsel bileşenler ekler ve soru şudur, neden böyle bir bileşen? veya onu kaldırır mı? (döngüleri kaldırırsak, geriye gürültü kalır) ....
ve tanh(x) genel olarak bir seriyi sıkıştırmak için sinir ağı işleminin bir taklidi gibi görünüyor... ya da satırın başka bir basit çarpıtması mı? - Döngülerden kurtulma olasılığı düşük ve hangisinin olduğu belli değil....
Her neyse, tabii ki zaman serileri= trend+döngü+gürültü...
... ama bu tür dönüşümlerle döngüsellikten kurtulmaya çalışıyor olabilir (ve sin(2*pi*x)'in nasıl evrensel bir yol olduğu bilinmiyor ??) ... İlk başta bunun seriye bir tür d/df öğesi koyma girişimi olduğunu düşündüm - döngüselliği ortadan kaldırmak için (bu uzunluğu işaret faktörlerinin kendilerine dahil ederek mi? dalga boyunu işaret faktörlerine dahil ederek), normal dağılıma ulaşmak için, yani işaretlerin bileşimine hız ve ivme katmak için ... ?? ama yine de sin ile manipülasyon, işaret değerine göre ölçeklendirilmiş genlik altında serinin haksız bir çarpıtması gibi görünüyor - istatistiksel işlemede böyle bir şeyle karşılaşmadım .... neden cos değil? neden tanh değil? -- sadece çarpıtmanın farklı yolları mı? Ne için?
Belki yazar bu özel trigonometrinin özünü açıklayabilir (log aracılığıyla çarpık dağılımı ortadan kaldırma amacı zaten açıktır) - ancak sin kullanmanın gerekçeleri / varsayımları nelerdir? neden cos değil? ve neden bu eğrilik?(işaret değişimini hızlandıracak mı? -hatta bazen sadece yumuşatmak yerine)
biri bu tür dönüşümlerin ne kadar ciddiye alınması gerektiğini/alınabileceğini ve nedenini yazabilir mi? (log ile asimetriden kurtulmaya çalışmak dışında, sanırım ln en yaygın olanı).
Ben de bu tür dönüşümleri hiç anlamadım, ama büyük olasılıkla diğerlerinden en iyi dönüşümün seçilmesidir. Ve bu seçimde mantık yoktur, genellikle testlere dayanır.
UHF'deki filtrelerin ve antenlerin şekilleri başlangıçta hesaplanmamıştı. Evet ve gerçek hayattaki hesaplama))))) bir dosya ile sonuçlandırıldı.
Ben de bu tür dönüşümleri hiç anlamadım, ancak büyük olasılıkla bu sadece seçicinin diğerlerinden en iyi dönüşümü seçmesi. Ve genellikle testlere dayanan bu seçimde hiçbir mantık yoktur.
UHF'deki filtrelerin ve antenlerin şekilleri başlangıçta hesaplanmamıştı. Evet ve hesaplama daha sonra gerçek hayatta bir dosya ile sonuçlandırıldı)))))
Dönüştürmeden önce ve sonra örneğin histogramlarını basitçe karşılaştırabilirsiniz. Sonuncusu hedef forma daha yakınsa (örneğin normal veya tekdüze dağılım), o zaman dönüşüm oldukça uygundur). Histogram çizmek yerine, hedefe uygunluk testlerini düşünebilirsiniz (sırasıyla normallik veya tekdüzelik için).
Plakaları parabolik şekilli yapmıyorlar mı? Formüle göre oldukça)
Vladimir Perervenko 'nun normalliğe dönüştürmenin bazı garip yolları vardır - log2(x + 1) hala anlaşılmaya çalışılabilir,
ancak böyle bir canavarın ortaya çıkması - sin(2*pi*x) yoluyla asimetriden kurtulmak - ne yaptığı tam olarak açık değildir - mantıksal olarak bazı döngüsel bileşenler ekler ve soru şudur, neden böyle bir bileşen? veya onu kaldırır mı? (döngüleri kaldırırsak, geriye gürültü kalır) ....
ve tanh(x) genel olarak bir seriyi sıkıştırmak için sinir ağı işleminin bir taklidi gibi görünüyor... ya da satırın başka bir basit çarpıtması mı? - Döngülerden kurtulma olasılığı düşük ve hangisinin olduğu belli değil....
Her neyse, tabii ki zaman serileri= trend+döngü+gürültü...
... ama bu tür dönüşümlerle döngüsellikten kurtulmaya çalışıyor olabilir (ve sin(2*pi*x)'in nasıl evrensel bir yol olduğu bilinmiyor ??) ... İlk başta bunun seriye bir tür d/df öğesi koyma girişimi olduğunu düşündüm - döngüselliği ortadan kaldırmak için (bu uzunluğu işaret faktörlerinin kendilerine dahil ederek mi? dalga boyunu işaret faktörlerine dahil ederek), normal dağılıma ulaşmak için, yani işaretlerin bileşimine hız ve ivme katmak için ... ?? ama yine de sin ile manipülasyon, işaret değerine göre ölçeklendirilmiş genlik altında serinin haksız bir çarpıtması gibi görünüyor - istatistiksel işlemede böyle bir şeyle karşılaşmadım .... neden cos değil? neden tanh değil? -- sadece çarpıtmanın farklı yolları mı? Ne için?
Belki yazar bu özel trigonometrinin özünü açıklayabilir (log yoluyla çarpık dağılımı ortadan kaldırma amacı zaten açıktır) - ancak sin kullanmanın gerekçeleri / varsayımları nelerdir? neden cos değil? ve neden bu eğrilik?(işaret değişimini hızlandıracak mı? -hatta bazen sadece yumuşatmak yerine)
birisi bu tür dönüşümlerin ne kadar ciddiye alınması gerektiğini/alınabileceğini ve nedenini yazabilir mi? (log ile asimetriden kurtulmaya çalışmak dışında, sonuçta genellikle ln olduğunu düşünüyorum).
Trigonometrik fonksiyonların ya da bu seviyedeki herhangi bir şeyin akıl yürütme seviyesinde olduğumuz sürece, tek bir nedenden dolayı bir gerekçe yoktur - bir gerekçe oluşturmak imkansızdır, çünkü bu tür gerekçelerin amacı beyan edilmemiştir ve amaca ulaşma kriteri bilinmemektedir.
Ve MO'daki amaç tektir - uydurma hatasını azaltmak ya da daha doğrusu makine öğrenimi modelinin tahmin hatasını azaltmak. Ve tahmin hatasının gelecekte çok fazla değişmemesi gerektiği kısıtlaması altında.
Bu hedefe ulaşmanın önündeki ana engel, finansal serilerin durağan olmamasıdır.
Verilen formül zaman serisi= trend+döngü+gürültü tam olarak doğru değildir. Yüzden fazla olan GARCH tipi modellerde daha doğrudur ve çok iyi çalışılmıştır, ancak hiçbiri sorunu son haliyle çözmez, yani durağan olmamanın mümkün olduğunca doğru bir şekilde nasıl modelleneceği.
Bir hedef ve hedefe ulaşmak için bir kriter belirlersek, durağan olmama durumuyla başa çıkma yöntemleri hiç önemli değildir - önemli olan sonuçtur. Her halükarda, başlangıçtaki durağan olmayan seriler durağanlığa ne kadar yakın dönüştürülebilirse, MO modelinin tahmin hatasının o kadar küçük olacağı ve en önemlisi, bu hatanın dalgalanmalarının o kadar küçük olacağı açıktır.
Vladimir Perervenko bunu gayet iyi anlıyor, ancak makaleleri pratikten çok eğitici - sadece problemleri gösteriyor ve çözümleri için araçlar sağlıyor ve görünür boşluklar olmadan çok eksiksiz ve sistematik bir şekilde. Ve problemlerin ve çözüm araçlarının seçimi tamamen hedefe bağlıdır: tahmin hatasını azaltmak.
orada Aleksey Vyazmikin yazara yorumlarda böyle bir soru sordu - tartışma başlığına bir bağlantı aldı - bağlantı YOK EDİLDİ ! yazar Vladimir Perervenko saklandı mı? )
Aklıma yerel bir karar ağacı fikri geldi. KNN veya yerel regresyonun bir benzeri gibi bir şeydir (durağan olmama durumu için de potansiyel olarak uygundur). Buradaki fikir, yalnızca ilgilenilen noktayı içeren kutuyu kutulara ayırmamız (içinde en az belirli sayıda K noktasına kadar) ve kutuların geri kalanını önemsemememizdir. Sınıflar arasındaki sınırlar keskinse ve nokta böyle bir sınıra yakınsa KNN veya yerel regresyondan daha iyi olabilir.
Bu yaklaşımın mantıklı olup olmadığını merak ediyorum.