имеет только одно — тривиальное — решение. − 5 ⋅ ( 1 , 0 , 0 ) + 1 ⋅ ( 5 , 0 , 0 ) = ( 0 , 0 , 0 ) . {\displaystyle -5\cdot (1,0,0)+1\cdot (5,0,0)=(0,0,0).} Пусть будет линейное пространство над полем и . называется линейно независимым множеством, если любое его конечное подмножество является линейно независимым. Конечное множество M ′...
太快了,这样的东西应该在一小时或几个小时内训练好mb,通过L-BFGS的算法?我也做了15个输入,但只有一个由15-20个神经元组成的隐藏层,我训练了一个Alglibian TS...所以我没有等待,减少了输入向量的大小)3个输入,10k个向量,花了5-10分钟来训练,而且是用一个隐藏层。而且它不是缓慢的反向传播,而是快速的1-3个历时。 i5 CPU
你的分类器中的目标函数是什么?
我得出的结论是,MLP是一个丑陋的怪物,丑陋的弱智,对交易没有希望,尤其是它非常原始地复制了真实的神经元的工作机制,而不是以大脑中实际发生的方式:)唯一正常的和透视的NS是卷积ns的模式识别,而他们是不能预测的,如果这样,一个简单和快速的分类器的集合就足够了。
贝叶斯分类器更好,但比RF差。
有趣的是,我对 "庞然大物的丑陋 "得出了完全相反的结论)。
射频需要选择预测器,鉴于它们至少是线性独立的要求,这是一项非难事。MLP I简单地调整了时间序列,线性独立的要求由几个NS的委员会来解决,其输入是排出的时间序列(类似于几个TF)。我想,对于真正的交易来说,NS的时间延迟是微不足道的。
真正的TS会发生什么,我还不知道,但NS似乎是相当可训练的。请看一段训练有素的NS的图形输出。我还不能确定它的训练效果如何)。但它是可以训练的))。
有趣的是,我对 "庞然大物的丑陋 "得出了完全相反的结论)。
射频需要选择预测因子,鉴于它们至少是线性独立的要求,这是一项非难事。MLP I简单地调整了时间序列,线性独立的要求由几个NS的委员会来解决,其输入是排出的时间序列(类似于几个TF)。我想,对于真正的交易来说,NS的时间延迟是微不足道的。
真正的TS会发生什么,我还不知道,但NS似乎是相当可训练的。请看一段训练有素的NS的图形输出。
只要把震荡器形式的预测器扔在图表上,你就会看到它们是线性依赖还是非线性的)。不需要数字。国家安全局可以重新训练自己,如果从一开始就不存在或不一致,它就不能想出任何超级非线性的相关关系
或者有必要在NS之前使用核机器,如Jpredictor,它通过多项式提高输入的维度,然后通过SVM和其他一些废话留下信息量最大的输入,但另一方面,由于这些多项式,它可以像地狱一样过度训练。
为什么呢,只要把预测者作为震荡器扔在图上,你就可以看到它们是线性还是非线性依赖)。不需要数字。NS也可以重新训练自己,它不会凭空想出任何超级非线性关联,如果它们从一开始就不存在,或者它们是不一致的。
并非一切都像看起来那么简单。在我看来,SanSanych已经摆弄了一年的预测器,从一个森林跳到另一个森林(从一个包到另一个包)。
或者,也许有必要在NS之前使用一个内核,就像Jpredictor那样,用多项式提高输入的维度,然后通过SVM和其他一些废话留下信息最丰富的输入。
为什么呢,只要在图表上以震荡器的形式抛出预测器,在那里你可以看到它们是线性依赖还是非线性的)
PS 顺便说一下,MLP与单层P不同,它本身就是非线性的,而且相当能够概括非线性特征。
他们可以,射频也可以,但他们的过度学习并没有减少
没有目标,它的工作原理是,所有预测器在总体上离平均值越远,它们就应该越快地收敛到这个平均值,也就是说,它根据贝叶斯分类器的原理工作,找到这样的权重,在总体上预测器在每种情况下都会对平均值产生最大的偏差,因此它们应该向后收敛。由于我们采取预测器的静止形式,很明显,平均数是0。如果输出>0,我们卖出,如果<,我们买入。
不太清楚,是有老师的训练还是没有老师的训练? 如果有老师,那么分类器的购买信号是什么?
一般来说,NS与RF相比没有任何优势,它需要很长的时间来计算,误差更大......如果你想快速训练,那么肯定是RF+优化器
关于NS的速度。
我专门为此做了一个速度实验。为此,我采用了一个层结构为[15,15,15,8,2]的MLP。训练样本量为:输入-15 x 10378,输出-2 x 10378。
在这个数据上,10个epochs的MLP训练大约是10分钟。
直接处理数据--输入的15×10378在不到3秒的时间内被计算出来。即~0.0003 c/sample。
对TC建设来说绰绰有余)。
关于NS的速度。
特别是为了这个,我做了一个关于速度的实验。为此,我采取了一个具有层结构[15,15.15,8,2]的MLP。训练样本量为:输入-15 x 10378,输出-2 x 10378。
在这个数据上,10个epochs的MLP训练大约是10分钟。
直接处理数据--输入的15×10378在不到3秒的时间内被计算出来。即~0.0003 c/sample。
足够的时间来建立一个TS)。
太快了,这样的东西应该在一小时或几个小时内训练好mb,通过L-BFGS的算法?我也做了15个输入,但只有一个由15-20个神经元组成的隐藏层,我训练了一个Alglibian TS...所以我没有等待,减少了输入向量的大小)3个输入,10k个向量,花了5-10分钟来训练,而且是用一个隐藏层。而且它不是缓慢的反向传播,而是快速的1-3个历时。 i5 CPU
想象一下,即使有10分钟的时间,你也没有现成的策略,必须在优化器中搜索N个预测器、矢量长度、隐藏层的数量等等,才能找到一个策略......