Alıntılardaki bağımlılık istatistikleri (bilgi teorisi, korelasyon ve diğer özellik seçim yöntemleri) - sayfa 19

 
Candid :

Yorum yapmanıza gerek yok, sadece sorularıma cevap vermeye çalışın. Size bir sır vereceğim - onlara cevap vermeye çalıştığınızda bir şey anlayacağınız gerçeği için tasarlandılar).

Bu arada tartışmayı okudum, cidden 17 sayfalık bir sinek ve köfte karışımını tartışmak istiyor musun?

En azından iki süreç dediğiniz şeyi doğru tahmin ettim?

Sayfa 17'de sinekli pirzola karışımını nerede gördünüz bilmiyorum. Daha önce ortaya çıktı...

Anlamaya gelince, Alexey'in tabletine bakmanızı ve cevaplamanızı tavsiye ederim - hangi teorik dağılımın inşa edildiği varsayımıyla?

;)

 

ve iki süreç teorik (boş hipotez) ve gerçektir.

Bilmen gerekir.

 
joo :

Bu başlıktaki kelimelerin yarısını hiç anlamıyorum, ama dağıtımların bununla hiçbir ilgisi olmadığını bile fark ettim.

Bireysel okumalar arasında bağımlılıkların olduğu süreç dağılımının düzgün veya normal olması gerekmez. Bu apaçık.

Örnek: Puşkin'in şiirleri. Metinde "meşe" ve "zincir" kelimeleri geçiyorsa, o zaman yakınlarda bir yerde bir "kedi" vardır. Sözcükler arasındaki bu bağımlılığın, "hacim" sözcüğünün ya da başka herhangi birinin paragraflardaki dağılımıyla hiçbir ilgisi yoktur.

Yazarlığın gerçekliğini ne kadar ilkel bir şekilde kontrol ettiğini biliyor musun?

Bu, "referans" metinlerinden ve kontrol edilenden "Meşe-zincir-kedi" kombinasyonlarının sıklığı tam olarak böyle sonuçlandırılır.

Çünkü karşılaştırma için her zaman bir temel vardır.

Ve burada neyin neyle karşılaştırıldığını anlamıyorum?

Teorik frekans nerede. Daha doğrusu, o kim?

Belki Candid haklıdır ve sadece Yunanistan'a göç etmeniz gerekiyor ve her şey yerli yerine oturacak?

;)

 
avatara :

Sayfa 17'de sinekli pirzola karışımını nerede gördünüz bilmiyorum. Daha önce ortaya çıktı...

Burada yine sonlarla ilgili bir sorun var, 17 sayfa 17. sayfaya çevrildi. Bu 17 sayfayı diğer algı "yanlışlıkları" için tekrar okumak ister misiniz?
ve iki süreç teorik (boş hipotez) ve gerçek
Aslında ilk mesajım bir topikstarter'dan alıntı yaptı, her şeyden önce onun versiyonunu kastettiğimi varsaymak daha mantıklı olurdu. Dahası, Alexei'den farklı olarak, onu yeterince ayrıntılı olarak tanımladı. Ancak hipotezleri süreçlerle tanımlamanın sunumun netliğine katkıda bulunacağından emin değilim.
Anlamaya gelince, Alexey'in tabletine bakmanızı ve cevaplamanızı öneririm - hangi teorik dağılımın inşa edildiği varsayımıyla?

Dürüst olmak gerekirse, bilmiyorum. Ampirik dağılıma dayanarak inşa ederdim.
 
avatara :

ve iki süreç teorik (boş hipotez) ve gerçektir.

Bilmen gerekir.

Hayır, bu doğru değil. Bu kriterden bahsediyorum. İstatistikleri aynı. Sadece diğer miktarlar için geçerlidir.

Şimdi - bağımsızlığı kontrol edilen bu iki değer hakkında. Tarafımdan gönderilen tablo bloğunda, bunlar 310 bar aralıklı iki çubuğun dönüşleridir (aralarında 309 çubuk vardır). İstatistikler, tarihteki bu tür çubuk çiftlerinin tamamı üzerinde kontrol edilir. Tarihte 60000 çubuk varsa, 59690=60000-310 bu tür çubuk çiftleri vardır.

Geçmişte daha uzak olan çubuk, S kaynağıdır . Şimdiye daha yakın olan eşleştirilmiş çubuk, alıcı R'dir. S ve R getirileri, bağımsızlığı test edilen niceliklerdir. Daha doğrusu, getirilerin kendileri değil, düştükleri niceliklerin sayısı. Neden niceliklere bölünmüştür - daha önce açıklanmıştır: ki-karenin çalışması için (en az 10 frekans).

Olayın ana kaynağı olarak öküze gelince, bunu düşüneceğim. Burada bir şey o kadar basit değil ... Ama Candid'in önerisi, kontrol etmek için oldukça mantıklı (öküzü çıkarın).

 

Topikstarter'ın makalesine göz gezdirdim. Yazarın, geçerli çubuk <-> son çubuk değişkenleri arasında bir ilişki bulamadığı, ancak yalnızca volatilite kümelenmesi gerçeği arasında bir ilişki bulduğuna dair bir şüphe vardı. Tabii ki, buna dayanarak bile, grafik ilgi çekicidir, çünkü 50-60 gecikmeye kadar kendinden emin bir oynaklık ilişkisi yeni bir şeydir. Doğal olarak, verileri Monte Carlo yöntemini kullanarak karıştırırken, diyagramlarda görülen kümeleme ihlal edilir.

Sonuçta neyin bulunduğunu anlamak için, önerilen formülü normal olmayan ve açıkça bağımsız dağılımlar üzerinde, özellikle klasik GARCH(1,1) ve hatta daha iyisi GARCH(3,3) üzerinde test etmek gerekir; Bağımlılık bulunursa, mesele açıktır, formül yeni bir şey vermez, ancak özel bir martingale durumunu başka bir şekilde tanımlar.

Yazarın bir arzusu varsa, ona GARCH sentetik getirileri sağlayabilirim.

 

Teşekkür ederim. Yapay veri verin, hafta sonu test edeceğim.

Formüle gelince, içinde özellikle harika bir şey yok, farklı bir açıdan stokastik bir analiz.

Volatilite ile ilgili olarak, burada zaten çok şey söylendi ve görüşlere katılıyorum. Ancak bağımsız değişkenlerin sıfır çubuğu için oynaklık hakkında bilgi taşıdığı gecikmelerin sayısı gerçekten açıkça belirtilmiştir. Ve farklı finansal araçlar için, bilgisel önemi korurken gecikmenin derinliği farklıdır.

 
Genel olarak, geçmiş getirilere dayalı getirileri tahmin etmek mümkün değilse, kişisel olarak benim için her zaman tahmin için bağımsız değişkenler (çeşitli göstergeler) seçme sorununa geri dönme fırsatı olduğunu düşünüyorum. Konunun adı öznitelik seçimidir ve temel bileşen analizi, otomatik ilişkisel bellekli sinir ağlarının kullanımı, eğitimli ağ analizi (ağırlıklar), küme analizi, ki-kare gibi diğer yöntemleri tartışmaktan memnuniyet duyarım. ayrıca bir üstel (doğru - sabit) Lipschitz. Genel olarak, insanlar, konu büyük ...
 
C-4 : Tabii ki, bu temelde bile, grafik ilginç, çünkü 50-60 gecikmeyle kendinden emin bir oynaklık ilişkisi yeni bir şey.

fark ettiğiniz için teşekkürler. Bu endişe verici. Muhtemelen, evet, öküz olgunun önemli bir bölümünü açıklıyor, ama öyle görünüyor ki hepsi değil. Ve saatlerce, bu ilişki çok daha ileri, yüzlerce bar derinliğinde.

Bu arada, günlük gezilerde H4'e göre önemli ölçüde daha az bağımlılık vardır ve bu da H1'den çok daha azdır.

 
Mathemat :

fark ettiğiniz için teşekkürler. Bu endişe verici. Muhtemelen, evet, öküz olgunun önemli bir bölümünü açıklıyor, ama öyle görünüyor ki hepsi değil. Ve saatlerce, bu ilişki çok daha ileri, yüzlerce bar derinliğinde.

Bu arada, günlük gezilerde H4'e göre önemli ölçüde daha az bağımlılık vardır ve bu da H1'den çok daha azdır.


Yine, konu oynaklık ise, o zaman bu, günün saatine bağlı olarak açık bir döngüsellik ile çok iyi açıklanmaktadır:

16:30 civarında öküzlerin kümelenmesini çıplak gözle bile fark etmek için burada Einstein olmanıza gerek yok. Bu nedenle, gün içi ölçeklerde, elbette, bu tür "ilişkiler" kendilerini çok daha açık bir şekilde gösterir. Ve tabii ki hala hiçbir şey yapmıyor. Sadece 16:30'da volatilite akışının neden olduğu güçlü hareketler olduğunu biliyoruz (ki bu grafikte açıkça görülüyor), ancak hala hareketin yönünü veya amacını bilmiyoruz.

Söz verdiğim gibi, MathLab tarafından önerilen standart parametrelerle GARCH(1,1) sentetikleri gönderiyorum: garchset('P',1,'Q',1,'C', 0.0001, 'K', 0.00005, 'GARCH ', 0.8, 'ARCH', 0.1); GARCH(3,3) veya daha fazlasını yaparken, programın kötü ve aptalca 'P',1,'Q',1'i 'P',3,'Q',3 olarak değiştirmesinin çalışmadığını biliyorum. Seri, yeterli olacağını düşündüğüm 10.000 deneme içeriyor. İşte onun fiyat tablosu:

Aynı EURUSD'nin saatlik oynaklık verilerine dayanarak SB oluşturmak da ilginç olacaktır. EURUSD ile aynı oynaklık modeli olacak, ancak grafiğin kendisi %100 gürültü olacak. Buna bir bağımlılık bulunursa, o zaman yöntem fiyat tahmini için uygun değildir, ancak hiçbir bağımlılık bulunmazsa, o zaman anlamsız karmaşık sentetiklerle mi uğraştığımızı veya gerçek bir pazar.

Dosyalar:
garch.zip  91 kb