引文中的依赖性统计(信息论、相关和其他特征选择方法)。 - 页 69

 
faa1947:

结果是这样的。

一个非常奇怪的图表。 修剪过的。看起来,计算的准确性有限。


对了,我写的是,量化系列,这意味着回报已经四舍五入到小数点后2位,成为:0.01;0.02;0.03......。1,2.为了读取倒数信息,系列的量化是必要的。也就是说,每个量子都是字母表的一个符号。

接下来我读了你所统计的内容。

 
HideYourRichess:
我明白了。好吧,我能说什么呢--我在某种程度上相信N字比相信GETCH更多。;)至少在帕斯图霍夫那里,可以清楚地看到腿从哪里长出来,想法是什么。
还有,谁试过FARIMA(分体式集成系列)?
 
faa1947:


自相关 部分相关 AC PAC Q-Stat Prob

| | 1 -0.059 -0.059 11.332 0.001

| | | 2 -0.053 -0.057 20.704 0.000

| | 3 0.025 0.019 22.820 0.000

| | 4 0.005 0.005 22.908 0.000

| | 5 -0.062 -0.059 35.486 0.000

| | | 6 0.007 -0.000 35.639 0.000

| | | 7 -0.038 -0.045 40.475 0.000

| | 8 0.032 0.030 43.845 0.000

| | 9 -0.007 -0.008 44.004 0.000

| | 10 0.025 0.026 46.003 0.000

| | | 11 -0.033 -0.032 49.674 0.000

| | 12 0.048 0.043 57.372 0.000

| | 13 0.002 0.006 57.382 0.000

| | 14 -0.032 -0.028 60.736 0.000

| | 15 -0.033 -0.033 64.288 0.000

| | 16 0.047 0.034 71.425 0.000

| | 17 -0.004 0.007 71.469 0.000

| | 18 -0.039 -0.037 76.462 0.000

| | 19 -0.004 -0.008 76.520 0.000

| | 20 0.017 0.004 77.426 0.000

| | | 21 -0.046 -0.040 84.377 0.000

| | 22 0.020 0.013 85.636 0.000

| | 23 0.006 0.006 85.767 0.000

| | 24 -0.010 -0.010 86.089 0.000

| | | 25 -0.001 -0.004 86.090 0.000

| | | 26 -0.022 -0.028 87.663 0.000

| | 27 0.025 0.031 89.677 0.000

| | | 28 -0.022 -0.028 91.250 0.000

| | 29 0.028 0.029 93.841 0.000

| | 30 0.009 0.011 94.135 0.000

| | 31 0.007 0.015 94.290 0.000

| | 32 0.004 0.001 94.350 0.000

| | | 33 -0.007 -0.009 94.501 0.000

*| | *| | 34 -0.092 -0.085 122.33 0.000

| | | 35 0.010 -0.006 122.66 0.000

| | | 36 0.008 0.003 122.89 0.000

最后一栏是相关的概率。零。

这个数据没有任何意义--失去了精确性。分析没什么,只是一个数字。

这不是一个废话的数字。这是一个从离散系列得到的结果。试试Close_Returns系列--它不是谨慎的。让我们看看是否可以将这两者进行比较。

 
alexeymosc:

这不仅仅是一个数字。这是一个从离散数列中得出的结果。那么,试着做一个Close_Returns系列--它是不谨慎的。让我们看看是否可以将这两者进行比较。

条款和开场白之间有什么区别?

我吃过午饭就去做。

 
faa1947:

小丑和开瓶器之间有什么区别?

我吃过午饭就去做。

祝您好胃口。

因为它是道琼斯指数,你知道它几乎一天到晚都有缺口吗?

 
faa1947:
有谁试过FARIMA(分层整合行)?
不,谢谢,又是一种经济数字学方法。
 
IgorM:

hmm, did this - visually it looks like this:

http://imglink.ru/pictures/14-10-12/6038b20b9bfbd1e06c08e649623cca4b.jpg

http://imglink.ru/pictures/14-10-12/47b7615b511f6b8a6f3b638a2fcda38b.jpg

每个彩色的三角形是M1,M5到MN的相对于垂直线的TF,模拟观察者对历史的看法,历史的形式是高低极值/历史最大/最小的范围。

我把它以字母表的形式上传到Statistica,是的,有重复的部分/词,甚至是2-3个TF,但重复不是周期性的,重复的时间从2个月到几年都有。


我搞不清楚构造的算法。对于那些蠢货,我可以吗?
 
alexeymosc:

这不仅仅是一个数字。这是一个从离散数列中得出的结果。那么,试着做一个Close_Returns系列--它是不谨慎的。让我们看看是否可以将这两者进行比较。

我这里有一个困惑。我所做的一切与增量开局有关,我是在计算自己,而不是你给我的系列。
 
HideYourRichess:
不,谢谢,又是一种经济数字学方法。
哦,来吧。这是纯粹的赫斯特,你似乎也承认了这一点。
 

根据你的开场白。

图。

似乎与我的比例相符。

柱状图。

似乎是不同的。

ACF

日期: 10/14/12 时间: 13:48

样本:1 100

包括观察:100

自相关 部分相关 AC PAC Q-Stat Prob

.|. .|. 1 0.003 0.003 0.0011 0.973

.|. .|. 2 0.044 0.044 0.2010 0.904

*|. | *|. | 3 -0.134 -0.134 2.0784 0.556

.|. .|. 4 -0.036 -0.037 2.2153 0.696

*|. | *|. | 5 -0.119 -0.109 3.7253 0.590

.|* | |00 .|* |01 6 0.115 0.104 5.1554 0.524

*|. | *|. | 7 -0.095 -0.102 6.1521 0.522

.|. .|. 8 0.007 -0.029 6.1581 0.630

*|. .|. 9 -0.067 -0.045 6.6632 0.672

.|* |00 .|* 10 0.108 0.087 7.9741 0.631

.|. .|. 11 -0.007 0.006 7.9799 0.715

.|. .|. 12 0.046 -0.008 8.2211 0.768

.|. .|* | |01 13 0.066 0.106 8.7253 0.793

.|. .|. 14 0.060 0.051 9.1477 0.821

.|. .|. 15 -0.043 -0.015 9.3658 0.858

*|. | *|. | 16 -0.101 -0.122 10.603 0.833

.|. .|. 17 -0.040 0.009 10.804 0.867

*|. | *|. | 18 -0.102 -0.089 12.106 0.842

.|. .|. 19 -0.034 -0.058 12.253 0.875

.|. .|. 20 0.026 0.002 12.336 0.904

.|. *|. 21 -0.045 -0.076 12.600 0.922

.|. .|. 22 -0.001 0.004 12.600 0.944

.|* | .|. | 23 0.110 0.070 14.204 0.921

.|. .|. 24 0.026 0.011 14.296 0.940

.|. .|. 25 -0.020 -0.050 14.348 0.955

.|. .|. 26 0.042 0.061 14.590 0.964

.|. .|* | 27 0.051 0.077 14.958 0.970

*|. | .|. | 28 -0.070 -0.060 15.652 0.971

.|. .|. 29 0.017 0.037 15.694 0.979

.|. .|. 30 -0.037 -0.002 15.889 0.984

.|. .|. 31 0.013 0.057 15.915 0.989

.|. .|. 32 -0.013 -0.014 15.941 0.992

.|. .|. 33 0.011 -0.038 15.960 0.995

.|. .|. 34 -0.041 -0.033 16.224 0.996

.|. .|. 35 -0.011 -0.027 16.244 0.997

.|. .|. 36 -0.017 -0.036 16.289 0.998

我认为几乎没有区别。因此,开场白的两个不同增量给出了相同的统计图。