交易中的机器学习:理论、模型、实践和算法交易 - 页 448

 
mytarmailS:
你的分类器中的目标函数是什么?
没有目标函数,它的工作原理是:对于群体中的所有预测器来说,离平均值越远,它们就应该越快地收敛到这个平均值,也就是说,它是根据贝叶斯分类器原理工作的,它找到这样的权重,在群体中预测器在每种情况下都会对平均值产生最大的偏差,最后它们应该收敛回来。由于我们把预测者当作静止的,很明显,平均数是0。如果输出>0,我们就卖出,如果<,我们就买入。
 
Maxim Dmitrievsky:

我得出的结论是,MLP是一个丑陋的怪物,丑陋的弱智,对交易没有希望,尤其是它非常原始地复制了真实的神经元的工作机制,而不是以大脑中实际发生的方式:)唯一正常的和透视的NS是卷积ns的模式识别,而他们是不能预测的,如果这样,一个简单和快速的分类器的集合就足够了。

贝叶斯分类器更好,但比RF差。

有趣的是,我对 "庞然大物的丑陋 "得出了完全相反的结论)。

射频需要选择预测器,鉴于它们至少是线性独立的要求,这是一项非难事。MLP I简单地调整了时间序列,线性独立的要求由几个NS的委员会来解决,其输入是排出的时间序列(类似于几个TF)。我想,对于真正的交易来说,NS的时间延迟是微不足道的。

真正的TS会发生什么,我还不知道,但NS似乎是相当可训练的。请看一段训练有素的NS的图形输出。我还不能确定它的训练效果如何)。但它是可以训练的))。


 
尤里-阿索连科

有趣的是,我对 "庞然大物的丑陋 "得出了完全相反的结论)。

射频需要选择预测因子,鉴于它们至少是线性独立的要求,这是一项非难事。MLP I简单地调整了时间序列,线性独立的要求由几个NS的委员会来解决,其输入是排出的时间序列(类似于几个TF)。我想,对于真正的交易来说,NS的时间延迟是微不足道的。

真正的TS会发生什么,我还不知道,但NS似乎是相当可训练的。请看一段训练有素的NS的图形输出。


只要把震荡器形式的预测器扔在图表上,你就会看到它们是线性依赖还是非线性的)。不需要数字。国家安全局可以重新训练自己,如果从一开始就不存在或不一致,它就不能想出任何超级非线性的相关关系

或者有必要在NS之前使用核机器,如Jpredictor,它通过多项式提高输入的维度,然后通过SVM和其他一些废话留下信息量最大的输入,但另一方面,由于这些多项式,它可以像地狱一样过度训练。

 
马克西姆-德米特里耶夫斯基

为什么呢,只要把预测者作为震荡器扔在图上,你就可以看到它们是线性还是非线性依赖)。不需要数字。NS也可以重新训练自己,它不会凭空想出任何超级非线性关联,如果它们从一开始就不存在,或者它们是不一致的。

并非一切都像看起来那么简单。在我看来,SanSanych已经摆弄了一年的预测器,从一个森林跳到另一个森林(从一个包到另一个包)。

马克西姆-德米特里耶夫斯基

或者,也许有必要在NS之前使用一个内核,就像Jpredictor那样,用多项式提高输入的维度,然后通过SVM和其他一些废话留下信息最丰富的输入。

线性独立和非线性相互之间没有任何关系。这些是不同的概念。线性独立
Линейная независимость — Википедия
Линейная независимость — Википедия
  • ru.wikipedia.org
имеет только одно — тривиальное — решение. − 5 ⋅ ( 1 , 0 , 0 ) + 1 ⋅ ( 5 , 0 , 0 ) = ( 0 , 0 , 0 ) . {\displaystyle -5\cdot (1,0,0)+1\cdot (5,0,0)=(0,0,0).} Пусть будет линейное пространство над полем и . называется линейно независимым множеством, если любое его конечное подмножество является линейно независимым. Конечное множество M ′...
 
马克西姆-德米特里耶夫斯基

为什么呢,只要在图表上以震荡器的形式抛出预测器,在那里你可以看到它们是线性依赖还是非线性的)

PS 顺便说一下,MLP与单层P不同,它本身就是非线性的,而且相当能够概括非线性的标志。
 
尤里-阿索连科
PS 顺便说一下,MLP与单层P不同,它本身就是非线性的,而且相当能够概括非线性特征。

他们可以,射频也可以,但他们的过度学习并没有减少
 
马克西姆-德米特里耶夫斯基
没有目标,它的工作原理是,所有预测器在总体上离平均值越远,它们就应该越快地收敛到这个平均值,也就是说,它根据贝叶斯分类器的原理工作,找到这样的权重,在总体上预测器在每种情况下都会对平均值产生最大的偏差,因此它们应该向后收敛。由于我们采取预测器的静止形式,很明显,平均数是0。如果输出>0,我们卖出,如果<,我们买入。
我不太明白,训练是有还是没有训练器? 如果有,分类器的买入信号是什么?
 
mytarmailS:
不太清楚,是有老师的训练还是没有老师的训练? 如果有老师,那么分类器的购买信号是什么?
没有老师在优化器中的权重被拾起,已经讨论过的文章和例子,请看主题RNN Reshetov
 
马克西姆-德米特里耶夫斯基
一般来说,NS与RF相比没有任何优势,它需要很长的时间来计算,误差更大......如果你想快速训练,那么肯定是RF+优化器

关于NS的速度。

我专门为此做了一个速度实验。为此,我采用了一个层结构为[15,15,15,8,2]的MLP。训练样本量为:输入-15 x 10378,输出-2 x 10378。

在这个数据上,10个epochs的MLP训练大约是10分钟。

直接处理数据--输入的15×10378在不到3秒的时间内被计算出来。即~0.0003 c/sample。

对TC建设来说绰绰有余)。

 
尤里-阿索连科

关于NS的速度。

特别是为了这个,我做了一个关于速度的实验。为此,我采取了一个具有层结构[15,15.15,8,2]的MLP。训练样本量为:输入-15 x 10378,输出-2 x 10378。

在这个数据上,10个epochs的MLP训练大约是10分钟。

直接处理数据--输入的15×10378在不到3秒的时间内被计算出来。即~0.0003 c/sample。

足够的时间来建立一个TS)。

太快了,这样的东西应该在一小时或几个小时内训练好mb,通过L-BFGS的算法?我也做了15个输入,但只有一个由15-20个神经元组成的隐藏层,我训练了一个Alglibian TS...所以我没有等待,减少了输入向量的大小)3个输入,10k个向量,花了5-10分钟来训练,而且是用一个隐藏层。而且它不是缓慢的反向传播,而是快速的1-3个历时。 i5 CPU

想象一下,即使有10分钟的时间,你也没有现成的策略,必须在优化器中搜索N个预测器、矢量长度、隐藏层的数量等等,才能找到一个策略......