交易中的机器学习:理论、模型、实践和算法交易 - 页 2798

 
mytarmailS #:
你跟在后面,但你什么都不懂......(

例如什么--解决任何问题都需要一个解决问题的标准,这也是一个错误))))


现在我注意到您已经完成了帖子。所以我允许自己回答。

你在寻找的只是错误。这就是 MO 梦想家的问题所在。你在寻找错误,而不是具体的预测结果。再小的错误也是 100% 的错误。)首先在金融市场。

继续错下去)))我不再回答和干涉了。

 
Uladzimir Izerski #:

我注意到你已经更新了帖子。

此外,我也在很久以前回答过你的问题。)


Uladzimir Izerski#

你在寻找错误。这就是 MO 梦想家的问题所在。寻找错误,而不是预测的具体结果。

你对 "错误 "这个概念的理解非常非常狭隘。

在一种情况下,这是预测指标的错误、

例如,在另一种情况下,误差可能是资产负债表曲线,或与某种理想资本的偏差、

或资本增长的动态、

或者,例如算法错误的数量(算法错误的数量也是一种错误)。

或者你可以用眼睛看着算法机器人,然后告诉它(通过代码/按钮)--我喜欢这个,但不要做这个,这也可以被认为是一个错误....。

有数百万种不同的变化,即使你做了什么,你也有一些标准(好/坏)。这也是一个错误。

事实上,你没有意识到它,你没有承认它,它只是你的......


错误就是用数字表示的好坏标准。

 

乌拉基米尔又在用他那孩子气的好奇心试图理解对他来说很重要的含义,并诋毁本主题的参与者,即这些含义:

方程重构"黑箱"

"黑箱 " 建模问题最困难也是最"诱人 " 表述在这种情况下没有关于对象先验信息因此没有模型的结构奥妙在于 一个能够再现观测到的行为或预测进一步演变模型只能从观测到的序列中获得实际上是"从无到有"成功的几率很小但如果运气好,一个" " 模型就会成为描述对象特征和了解其运作"机制 " 非常有价值的工具"几乎是虚张声势也能导致大获全胜"。由于缺乏先验信息不得不使用通用的模型方程结构例如人工神经网络径向基 函数代数多项式


ZY 一年多以前写道,他自己也使用神经网络,他的所有 TS 都基于神经网络......abzdez 真是个小丑啊

#870

#1826

我们亲爱的乌拉基米尔很快就学会了神经网络,原来只用了两个月。

我倒希望他能学会,但早在两年前,他就已经收到了来自 NS 的信号。

#5758

这家伙醉醺醺地胡说八道,撒谎,撒谎,撒谎....只会给自己和他的疯狂指标抹黑。

 

结果表明,通过窗口偏差可以很好地检验模型。如果它给出了大量的滞后期,而不是零,并有更好的统计数据(如 mi),那么该模型就是基于随机化的。

否则就很明确了,不可能同时有这么多有利可图的 TS。

我尝试按照 Sanych 的说明通过 std 进行选择,结果大致相同。但我选择的是特征集,而不是每个特征。

我将再次分别查看这些特征

 
>>> results = []
>>> for i in range(25):
...     pr = get_prices()
...     pr = labeling_shift(pr,shift=i)
...     mi = mutual_info_classif(pr[pr.columns[1:-1]], pr[pr.columns[-1]])
...     results.append([mi.mean(), mi.std(), mi, i])
...     print(i)
... 
results.sort()
results[-1]    
pd.DataFrame(results)

最好的结果是滞后9 ,但滞后 0 期效果更好:

15  0.002473  0.002008  [0.0, 0.0, 0.0, 7.738132773948969 e-05, 0.00428...   0
16  0.002482  0.002536  [0.0027194272625081783, 0.004082692968791601, ...   4
17  0.002544  0.002137  [0.00016451381901605444, 0.003159073557252867,...   2
18  0.002678  0.002174  [0.0, 0.0015686230398428425, 0.000974887322880...   8
19  0.002749  0.001978  [0.0, 0.001425018820565338, 0.0, 0.0, 0.002788...   1
20  0.002793  0.002378  [0.00535509344523355, 0.0, 0.00400320235670181...  12
21  0.002897  0.002330  [0.00406257691063705, 0.001421806087245736, 0....  13
22  0.003113  0.002501  [0.0, 0.0, 0.004822852461999094, 3.66068989796...  10
23  0.003195  0.002560  [0.0024128008240758003, 0.0, 0.001845732619932...  11
24  0.003255  0.002406  [0.0, 0.0, 0.0034648745240082324, 0.0063568287...   9

Okabe 查看两者的回溯测试,第 9:

0-я:

从逻辑上讲,第 0 期的回溯测试值较低,因为 mi 的 std 值最初较小。但这不会影响 OOS 的结果,mi 值越高也不会影响 OOS 的结果(相互信息)。

好吧,假设我们正在对大量特征(此处为 14 个特征)进行再训练。

MA_PERIODS = [i for i in range(10, 150, 10)]

让我们看看每个特征的统计量,然后只挑选出最好的特征用于 9 个滞后的模型:

>>> results[24]
[0.003255328338368026, 0.002405621052220332, array([0.        , 0.        , 0.00346487, 0.00635683, 0.00490859,
       0.        , 0.00305732, 0.00268664, 0.00877952, 0.00305562,
       0.00138638, 0.00320064, 0.00415751, 0.00452067]), 9]
>>> 

有些特征是完全无效的,即没有价值。让我们只选择那些大于 0.004 的特征并对它们进行训练:

>>> per = results[24][2]
>>> np.array(per) > 0.004
array([False, False, False,  True,  True, False, False, False,  True,
       False, False, False,  True,  True])
>>> 

MA_PERIODS = [40, 50, 90, 130, 140] - отобранные фичи

训练和测试:

Mnde。

结论:训练样本的信息相关性越高,对改进测试样本的模型没有帮助。

但这可以用来在比赛中挤出几个百分点,这就是专业人士所说的,为 Busting 等现代模型预选特征几乎一无所获。

 
Maxim Dmitrievsky #:

结果证明,通过窗口偏差可以很好地检验模型。如果它产生了大量的滞后期,而不是零滞后期,并具有更好的统计量(如 mi),那么该模型就是建立在随机性基础上的

否则,它将是明确的,不可能同时出现这么多有利可图的 TC。

我尝试按照 Sanych 的说明通过 std 进行选择,结果大致相同。但我选择的是一组符号,而不是每个符号。

我将再次分别查看这些特征

对性状和目标性状之间的相关性进行数值估计的 std?

首先你必须去除相关性。由于某种原因,我的性状的最佳相关性是 75%。

然后选择 5-10 个得分最高的性状。

如上图所示,在我的帖子中画图,以确保相关性划分等级。

预测误差应小于 30%。如果不是,就必须放弃这些性状。

 
СанСаныч Фоменко #:

std 是性状与目标之间关系的数值估计?

首先,你必须去除相关性。在我的性状中,由于某些原因,最佳相关度为 75%。

然后选择 5-10 个得分最高的属性。

如上图所示,在我的帖子中绘制图片,以确保相关性按类划分。

预测误差应小于 30%。如果没有,则必须舍弃这些特征。

从熵值中可以看出,相关性可以忽略不计(0.003),但应该趋向于 1。

但我估计了两者之间的差异,所以这并不重要。应该还是会有微小的改进。也许没有,因为差别很小。

一般来说,即使所有东西都很好(套装中也有很好的),您也不必去掉其他功能

就是这样,为其他东西(如非标准窗口)提供了一个坯料
 
Maxim Dmitrievsky #:

从熵值可以明显看出,相关性可以忽略不计(0.003),但应该趋向于 1。

但我估计了两者之间的差异,所以这并不重要。仍然应该有微小的改进。也许没有,因为差异很小。

一般来说,即使所有芯片都是好的(这套芯片中也有好的),也不需要去掉其余的芯片

分数本身是相对的。

我重复一下图片。

坏的,无望的%。


最好,如果有几个这样的筹码,我们可以谈论 30% 的预测误差。



垃圾应该去掉,因为在训练集上,筹码可以偏向于垃圾,这样更容易找到最优值。

 
Maxim Dmitrievsky #:

为现代布斯廷模型预选功能几乎一无所获。

Busting 模型从所有列和所有示例中寻找最佳分割。
Schuch。forest 从每棵树中抽取一半的切分和一半的示例(分数可配置),然后从 20-100 棵树中找出平均值。如果 200 个芯片中只有 5 个有信息量的芯片,那么部分树将不包含有信息量的芯片(平均每棵树有 2.5 个有信息量的芯片)。我们会将部分信息树与噪声树进行平均。
如果有大量的信息片段(如在经典示例/MO 任务中),噪声树就能很好地发挥作用。

噪声树会找到并使用信息量最大的样本,因为它会对所有样本进行检查。因此,根据 Bousting 的逻辑,它会自己选择最好的信息。但 Bousting 也有自己的问题。

 
elibrarius #:

Busting 会找到并使用信息量最大的筹码,因为它会检查所有筹码。因此,根据 Bousting 的逻辑,它会选择最好的筹码。但是,Bousting 也有自己的问题。

我创建了一个主题,并提供了一个样本,证明了相反的情况--助推并非万能,尤其是在开箱即用的情况下。