市场礼仪或雷区中的良好风度 - 页 11

 
Neutron >> :

这就对了。

但是,每个perseptron的输入有一个单独的额外输入,用于恒定的+1偏移。这加快了学习速度,增加了网格的力量。

或者,如果你不计算输入层,那么在所说的一切情况下。



如果有任何错误,请纠正。

 
Neutron >> :

这就对了。

但是,每个perseptron的输入有一个单独的额外输入,用于恒定的+1偏移。这加快了学习速度,增加了网络的力量。

它是否像一个噱头,在不增加可配置参数的情况下取代了神经元阈值?酷,我第一次看到它,但我喜欢它 :)

 

那么每个神经元的输入处的恒定偏差在哪里呢?

paralocus писал(а)>>

就我对你的理解而言,该图显示了市场的最佳NS架构。

这是我的理解。也许这不是真的。但数字实验的结果证实了这一说法。

输入的数量是12,突触的数量是4,所以通过公式Popt=k*w*w/d 我们得到144/4=36......。这是36条吗?或者36个接近买入/卖出的情况?我说对了吗?

仔细考虑:你的架构中所有突触的数量:W=12+4=16。

输入的数量:d=3(不是4*3,而是只有3)。

训练样本的最佳长度:Popt=k*w*w/d=4*16*16/3=每个时间序列340个样本(你在每个输入神经元有4个样本)。它们可以是条形或指标值,也可以是事务性样本,由你决定哪种方式更有利于提高可预测性......请记住,可预测性是MTS回报率的一部分,达到了四级!一个非常强的相关性(见这个话题的开头)。

 
paralocus писал(а)>>

或者,如果你不计算输入层,就考虑到所说的一切。

如果有错误,请纠正。

我不明白!

为什么你不计算输入层?它不参与学习和预测吗?

最好是有两个层--一个隐藏层(又称输入层)和一个输出层。在这种结构下,你有w=4*4+5=21,d=4,P=4*21*21/4=440个计数。

 
TheXpert писал(а)>>

在不增加可调整的参数数量的情况下取代神经元阈值,这是不是一种噱头?

FION 写道>>

我明白了。恒定的偏移量只是将高切线曲线上的激活点稍稍移动。

一般来说是正确的,但准确地说,当另一批数据到达NS输入端时,我们暗示它不是居中的(MO!=0)。这就是为什么我们在每个神经元上引入一个额外的常数输入。在训练过程中,一个特定的神经元在这个输入处选择一个权重值,这样它就可以补偿其输入数据可能出现的转变。这使得统计学上的学习速度更快(从假想云的中心)。

 
Neutron >> :

那么每个神经元的输入处的恒定偏差在哪里呢?

这就是我的想法。这可能不是真的。但数字实验的结果证实了这一说法。

让我们仔细数数:你的架构中所有突触的数量:W=12+4=16

输入的数量:d=3(不是4*3,而是只有3)。

训练样本的最佳长度:Popt=k*w*w/d=4*16*16/3=每个时间序列340个样本(你在每个输入神经元有4个样本)。它们可以是条形或指标值,也可以是事务性样本,由你决定哪种方式更有利于提高可预测性......请记住,可预测性是MTS回报率的一部分,达到了四级!一个非常强的相关性(见这个主题的开头)。

Popt=k*w*w/d,其中k是1阶的无量纲常数,说明了市场是波动的事实。

那么在这个公式中,d是隐藏层中一个神经元的输入数,k是隐藏层中的神经元数?对不起,我觉得很难相信网络可以在340条上学习。它非常小...我一定是误解了什么。

到目前为止,我只熟悉最简单的感知器,它在MT4终端的测试器中用遗传算法 "训练"。你必须至少检查一些重要的(2或3个月)历史。当然,我明白,遗传学家实际上并没有教给感知器任何东西,他只是选择了最合适的系数,而且工作的效率非常低,因为他是盲目地行动。好吧,别介意。那是一个抒情的离题。


我是否正确理解了单一输入也必须有自己的加权系数?我怎样才能将输入的内容列入 "白名单"?也就是说,假设我有RSI归一化的高切线,预期高达0.21的输入。如果我这样做:f(t)=th(RSI(i)*kf),其中kf>1是一个特别选择的系数,以输入信号的一些扭曲为代价来拉平概率密度函数,它是否可以?

什么是交易性计数?

 
Neutron >> :


顺便说一下,对于每个感兴趣的人来说:这种策略--"锁定损失,让利润增长 "或 "锁定利润,让损失增长"(取决于市场是趋势还是平淡,取决于所选择的交易期限)--在资本再投资时不是最佳选择。在这种情况下,用再投资的方式固定在每一个步骤上是更有利可图的!也就是说,如果我们有10笔连续盈利的交易,那么向经纪公司支付佣金并重新投资,比一直保持一个头寸并节省点差更有利。

这是一个悖论,它将我们引向交易的伯努瓦,之后--以分析形式有效使用交易的基本方程(与文斯不同),没有任何参数化的问题。

这与其说是一个悖论,不如说是有再投资的MM的一个特性。这个MM的效率取决于交易的数量,以及其他方面。这个MM的盈利能力是交易数量的几何平均程度。在交易数量较少的情况下,盈利能力输给了简单的MM,但如果我们设法在大量的交易中生存下来(玩长线),那么回报就会更大。但像往常一样,没有什么东西是免费提供的。付出的代价是不对称的杠杆及其后果--与简单的MM相比,有很长一段时间的低收入。

 
paralocus писал(а)>>

Popt=k*w*w/d, 其中k 是1阶的无量纲常数,说明了市场变化的事实。

那么在这个公式中,d 是隐藏层的一个神经元的输入数,k 是隐藏层的神经元数?对不起,我觉得很难相信网络可以在340条上学习。它非常小...我一定是误解了什么。

到目前为止,我只熟悉最简单的感知器,它在MT4终端的测试器中用遗传算法 "训练"。你必须至少检查一些重要的(2或3个月)历史。当然,我明白,遗传学家实际上并没有教给感知器任何东西,他只是选择了最合适的系数,而且工作的效率非常低,因为他是盲目地行动。好吧,别介意。那是一个抒情的离题。

我没有理解错,单一输入也应该有自己的加权系数吗?我们又如何能将输入的信息列入 "白名单"?假设我有一个高切归一化的RSI,输入的期望值高达0.21。如果我这样做:f(t)=th(RSI(i)*kf),其中kf>1是一个特别选择的系数,以输入信号的一些扭曲为代价来拉平概率密度函数,它是否可以?

什么是瞬时计数

Paralocus, 你害怕犯错吗?扔掉它!- 这样试试,那样试试,看看结果--一切都会水到渠成。

k 不是神经元输入的数量,而是市场的一个经验特性--它的可变性,在2到4的范围内选择。如果市场是静止的,那么k 可以取10和20,这将意味着进入网络学习过程中的渐进式。不幸的是,市场只有在其非平稳性中才能被称为稳态,所以在重新训练NS的过程中,系数应尽可能取最小。因此,我们得到上面提到的k的范围

你的遗传学家是一种带有梯度下降元素的随机学习方法(如果我没弄错的话)。这不是一件坏事,但在学习速度方面输给了ORO。放弃遗传学,支持错误的反向传播--学习效率会更高,而且对网络的输入和突触的数量没有限制。

单一输入有其系数,这些系数被训练成正常的,与其他输入的属性没有区别。

对输入的漂白是消除它们之间的相关依赖关系。要使用这个程序,首先要说服自己相信这种非常的关联性。

交易,是指在市场上购买或出售资产的行为,即交易,是一种贿赂(不是刑事意义上的:--)。

 
Neutron >> :

摒弃遗传学,支持错误的反向传播--学习会更有效率,而且对网络的输入和突触的数量没有限制。


就这样吧,我已经放弃了。坐下来用ORO写网格。可能有一些关于ETA本身的问题。

 
paralocus писал(а)>>

可能有一些关于ETA本身的问题。

没问题!

顺便说一下,让我们仔细看看你的网络架构。

你有一个由三个独立的双层网络组成的委员会,由一个输出神经元连接(所以委员会)。你的委员会中的每个网格在其输入中只包含一个神经元,这是错误的,因为这样的架构在计算能力上与单层perseptron没有区别。这就是为什么你有三个输入(4个包括偏置)而不是12个。再一次:你创建了一个董事会的模拟,主席通过一般投票(输出神经元)选择 "正确 "的答案,每个投票者由一个神经元代表。这样的架构不会提供交易优势。对了,为每个委员会成员提供至少两个输入神经元,这样就可以充分利用FA的无效属性,明显提高委员会的预测能力。

你看人工智能和我们有多大的共同点...事实上,在共青团的会议上投票不过是集体行为的最佳方案,即以最低的成本最快地实现目标!"。

请注意,委员会的输出没有非线性激活函数,它只是一个加法器,其功能是根据投票结果做出决定。所以这个架构最接近你的想法,是一个有一个隐藏层的双层非线性网络的委员会。隐蔽层的神经元数量可以增加,增加预测的准确性,但我们必须记住,训练样本的长度呈四次方增加,很快就会达到一个点,缩减的效率会下降,甚至导致网络预测能力的恶化。从我的数字实验来看,最佳状态是隐蔽层中不超过2-4个神经元。

对于给定的架构,最佳训练样本长度P=1500个样本。

P.S. 它看起来不错。我是说照片。我得到了审美上的愉悦!