市场礼仪或雷区中的良好风度 - 页 11 1...456789101112131415161718...104 新评论 paralocus 2009.05.04 15:31 #101 Neutron >> : 这就对了。 但是,每个perseptron的输入有一个单独的额外输入,用于恒定的+1偏移。这加快了学习速度,增加了网格的力量。 或者,如果你不计算输入层,那么在所说的一切情况下。 如果有任何错误,请纠正。 TheXpert 2009.05.04 15:38 #102 Neutron >> : 这就对了。 但是,每个perseptron的输入有一个单独的额外输入,用于恒定的+1偏移。这加快了学习速度,增加了网络的力量。 它是否像一个噱头,在不增加可配置参数的情况下取代了神经元阈值?酷,我第一次看到它,但我喜欢它 :) Neutron 2009.05.04 15:39 #103 那么每个神经元的输入处的恒定偏差在哪里呢? paralocus писал(а)>> 就我对你的理解而言,该图显示了市场的最佳NS架构。 这是我的理解。也许这不是真的。但数字实验的结果证实了这一说法。 输入的数量是12,突触的数量是4,所以通过公式Popt=k*w*w/d 我们得到144/4=36......。这是36条吗?或者36个接近买入/卖出的情况?我说对了吗? 仔细考虑:你的架构中所有突触的数量:W=12+4=16。 输入的数量:d=3(不是4*3,而是只有3)。 训练样本的最佳长度:Popt=k*w*w/d=4*16*16/3=每个时间序列340个样本(你在每个输入神经元有4个样本)。它们可以是条形或指标值,也可以是事务性样本,由你决定哪种方式更有利于提高可预测性......请记住,可预测性是MTS回报率的一部分,达到了四级!一个非常强的相关性(见这个话题的开头)。 Neutron 2009.05.04 15:46 #104 paralocus писал(а)>> 或者,如果你不计算输入层,就考虑到所说的一切。 如果有错误,请纠正。 我不明白! 为什么你不计算输入层?它不参与学习和预测吗? 最好是有两个层--一个隐藏层(又称输入层)和一个输出层。在这种结构下,你有w=4*4+5=21,d=4,P=4*21*21/4=440个计数。 Neutron 2009.05.04 15:52 #105 TheXpert писал(а)>> 在不增加可调整的参数数量的情况下取代神经元阈值,这是不是一种噱头? FION 写道>> 我明白了。恒定的偏移量只是将高切线曲线上的激活点稍稍移动。 一般来说是正确的,但准确地说,当另一批数据到达NS输入端时,我们暗示它不是居中的(MO!=0)。这就是为什么我们在每个神经元上引入一个额外的常数输入。在训练过程中,一个特定的神经元在这个输入处选择一个权重值,这样它就可以补偿其输入数据可能出现的转变。这使得统计学上的学习速度更快(从假想云的中心)。 paralocus 2009.05.04 16:47 #106 Neutron >> : 那么每个神经元的输入处的恒定偏差在哪里呢? 这就是我的想法。这可能不是真的。但数字实验的结果证实了这一说法。 让我们仔细数数:你的架构中所有突触的数量:W=12+4=16 输入的数量:d=3(不是4*3,而是只有3)。 训练样本的最佳长度:Popt=k*w*w/d=4*16*16/3=每个时间序列340个样本(你在每个输入神经元有4个样本)。它们可以是条形或指标值,也可以是事务性样本,由你决定哪种方式更有利于提高可预测性......请记住,可预测性是MTS回报率的一部分,达到了四级!一个非常强的相关性(见这个主题的开头)。 Popt=k*w*w/d,其中k是1阶的无量纲常数,说明了市场是波动的事实。 那么在这个公式中,d是隐藏层中一个神经元的输入数,k是隐藏层中的神经元数?对不起,我觉得很难相信网络可以在340条上学习。它非常小...我一定是误解了什么。 到目前为止,我只熟悉最简单的感知器,它在MT4终端的测试器中用遗传算法 "训练"。你必须至少检查一些重要的(2或3个月)历史。当然,我明白,遗传学家实际上并没有教给感知器任何东西,他只是选择了最合适的系数,而且工作的效率非常低,因为他是盲目地行动。好吧,别介意。那是一个抒情的离题。 我是否正确理解了单一输入也必须有自己的加权系数?我怎样才能将输入的内容列入 "白名单"?也就是说,假设我有RSI归一化的高切线,预期高达0.21的输入。如果我这样做:f(t)=th(RSI(i)*kf),其中kf>1是一个特别选择的系数,以输入信号的一些扭曲为代价来拉平概率密度函数,它是否可以? 什么是交易性计数? Hide 2009.05.04 20:24 #107 Neutron >> : 顺便说一下,对于每个感兴趣的人来说:这种策略--"锁定损失,让利润增长 "或 "锁定利润,让损失增长"(取决于市场是趋势还是平淡,取决于所选择的交易期限)--在资本再投资时不是最佳选择。在这种情况下,用再投资的方式固定在每一个步骤上是更有利可图的!也就是说,如果我们有10笔连续盈利的交易,那么向经纪公司支付佣金并重新投资,比一直保持一个头寸并节省点差更有利。 这是一个悖论,它将我们引向交易的伯努瓦,之后--以分析形式有效使用交易的基本方程(与文斯不同),没有任何参数化的问题。 这与其说是一个悖论,不如说是有再投资的MM的一个特性。这个MM的效率取决于交易的数量,以及其他方面。这个MM的盈利能力是交易数量的几何平均程度。在交易数量较少的情况下,盈利能力输给了简单的MM,但如果我们设法在大量的交易中生存下来(玩长线),那么回报就会更大。但像往常一样,没有什么东西是免费提供的。付出的代价是不对称的杠杆及其后果--与简单的MM相比,有很长一段时间的低收入。 Neutron 2009.05.05 01:58 #108 paralocus писал(а)>> Popt=k*w*w/d, 其中k 是1阶的无量纲常数,说明了市场变化的事实。 那么在这个公式中,d 是隐藏层的一个神经元的输入数,k 是隐藏层的神经元数?对不起,我觉得很难相信网络可以在340条上学习。它非常小...我一定是误解了什么。 到目前为止,我只熟悉最简单的感知器,它在MT4终端的测试器中用遗传算法 "训练"。你必须至少检查一些重要的(2或3个月)历史。当然,我明白,遗传学家实际上并没有教给感知器任何东西,他只是选择了最合适的系数,而且工作的效率非常低,因为他是盲目地行动。好吧,别介意。那是一个抒情的离题。 我没有理解错,单一输入也应该有自己的加权系数吗?我们又如何能将输入的信息列入 "白名单"?假设我有一个高切归一化的RSI,输入的期望值高达0.21。如果我这样做:f(t)=th(RSI(i)*kf),其中kf>1是一个特别选择的系数,以输入信号的一些扭曲为代价来拉平概率密度函数,它是否可以? 什么是瞬时计数? Paralocus, 你害怕犯错吗?扔掉它!- 这样试试,那样试试,看看结果--一切都会水到渠成。 k 不是神经元输入的数量,而是市场的一个经验特性--它的可变性,在2到4的范围内选择。如果市场是静止的,那么k 可以取10和20,这将意味着进入网络学习过程中的渐进式。不幸的是,市场只有在其非平稳性中才能被称为稳态,所以在重新训练NS的过程中,系数应尽可能取最小。因此,我们得到上面提到的k的范围。 你的遗传学家是一种带有梯度下降元素的随机学习方法(如果我没弄错的话)。这不是一件坏事,但在学习速度方面输给了ORO。放弃遗传学,支持错误的反向传播--学习效率会更高,而且对网络的输入和突触的数量没有限制。 单一输入有其系数,这些系数被训练成正常的,与其他输入的属性没有区别。 对输入的漂白是消除它们之间的相关依赖关系。要使用这个程序,首先要说服自己相信这种非常的关联性。 交易,是指在市场上购买或出售资产的行为,即交易,是一种贿赂(不是刑事意义上的:--)。 paralocus 2009.05.05 06:35 #109 Neutron >> : 摒弃遗传学,支持错误的反向传播--学习会更有效率,而且对网络的输入和突触的数量没有限制。 就这样吧,我已经放弃了。坐下来用ORO写网格。可能有一些关于ETA本身的问题。 Neutron 2009.05.05 07:44 #110 paralocus писал(а)>> 可能有一些关于ETA本身的问题。 没问题! 顺便说一下,让我们仔细看看你的网络架构。 你有一个由三个独立的双层网络组成的委员会,由一个输出神经元连接(所以委员会)。你的委员会中的每个网格在其输入中只包含一个神经元,这是错误的,因为这样的架构在计算能力上与单层perseptron没有区别。这就是为什么你有三个输入(4个包括偏置)而不是12个。再一次:你创建了一个董事会的模拟,主席通过一般投票(输出神经元)选择 "正确 "的答案,每个投票者由一个神经元代表。这样的架构不会提供交易优势。对了,为每个委员会成员提供至少两个输入神经元,这样就可以充分利用FA的无效属性,明显提高委员会的预测能力。 你看人工智能和我们有多大的共同点...事实上,在共青团的会议上投票不过是集体行为的最佳方案,即以最低的成本最快地实现目标!"。 请注意,委员会的输出没有非线性激活函数,它只是一个加法器,其功能是根据投票结果做出决定。所以这个架构最接近你的想法,是一个有一个隐藏层的双层非线性网络的委员会。隐蔽层的神经元数量可以增加,增加预测的准确性,但我们必须记住,训练样本的长度呈四次方增加,很快就会达到一个点,缩减的效率会下降,甚至导致网络预测能力的恶化。从我的数字实验来看,最佳状态是隐蔽层中不超过2-4个神经元。 对于给定的架构,最佳训练样本长度P=1500个样本。 P.S. 它看起来不错。我是说照片。我得到了审美上的愉悦! 1...456789101112131415161718...104 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
这就对了。
但是,每个perseptron的输入有一个单独的额外输入,用于恒定的+1偏移。这加快了学习速度,增加了网格的力量。
或者,如果你不计算输入层,那么在所说的一切情况下。
如果有任何错误,请纠正。
这就对了。
但是,每个perseptron的输入有一个单独的额外输入,用于恒定的+1偏移。这加快了学习速度,增加了网络的力量。
它是否像一个噱头,在不增加可配置参数的情况下取代了神经元阈值?酷,我第一次看到它,但我喜欢它 :)
那么每个神经元的输入处的恒定偏差在哪里呢?
就我对你的理解而言,该图显示了市场的最佳NS架构。
这是我的理解。也许这不是真的。但数字实验的结果证实了这一说法。
输入的数量是12,突触的数量是4,所以通过公式Popt=k*w*w/d 我们得到144/4=36......。这是36条吗?或者36个接近买入/卖出的情况?我说对了吗?
仔细考虑:你的架构中所有突触的数量:W=12+4=16。
输入的数量:d=3(不是4*3,而是只有3)。
训练样本的最佳长度:Popt=k*w*w/d=4*16*16/3=每个时间序列340个样本(你在每个输入神经元有4个样本)。它们可以是条形或指标值,也可以是事务性样本,由你决定哪种方式更有利于提高可预测性......请记住,可预测性是MTS回报率的一部分,达到了四级!一个非常强的相关性(见这个话题的开头)。
或者,如果你不计算输入层,就考虑到所说的一切。
如果有错误,请纠正。
我不明白!
为什么你不计算输入层?它不参与学习和预测吗?
最好是有两个层--一个隐藏层(又称输入层)和一个输出层。在这种结构下,你有w=4*4+5=21,d=4,P=4*21*21/4=440个计数。
在不增加可调整的参数数量的情况下取代神经元阈值,这是不是一种噱头?
我明白了。恒定的偏移量只是将高切线曲线上的激活点稍稍移动。
一般来说是正确的,但准确地说,当另一批数据到达NS输入端时,我们暗示它不是居中的(MO!=0)。这就是为什么我们在每个神经元上引入一个额外的常数输入。在训练过程中,一个特定的神经元在这个输入处选择一个权重值,这样它就可以补偿其输入数据可能出现的转变。这使得统计学上的学习速度更快(从假想云的中心)。
那么每个神经元的输入处的恒定偏差在哪里呢?
这就是我的想法。这可能不是真的。但数字实验的结果证实了这一说法。
让我们仔细数数:你的架构中所有突触的数量:W=12+4=16
输入的数量:d=3(不是4*3,而是只有3)。
训练样本的最佳长度:Popt=k*w*w/d=4*16*16/3=每个时间序列340个样本(你在每个输入神经元有4个样本)。它们可以是条形或指标值,也可以是事务性样本,由你决定哪种方式更有利于提高可预测性......请记住,可预测性是MTS回报率的一部分,达到了四级!一个非常强的相关性(见这个主题的开头)。
Popt=k*w*w/d,其中k是1阶的无量纲常数,说明了市场是波动的事实。
那么在这个公式中,d是隐藏层中一个神经元的输入数,k是隐藏层中的神经元数?对不起,我觉得很难相信网络可以在340条上学习。它非常小...我一定是误解了什么。
到目前为止,我只熟悉最简单的感知器,它在MT4终端的测试器中用遗传算法 "训练"。你必须至少检查一些重要的(2或3个月)历史。当然,我明白,遗传学家实际上并没有教给感知器任何东西,他只是选择了最合适的系数,而且工作的效率非常低,因为他是盲目地行动。好吧,别介意。那是一个抒情的离题。
我是否正确理解了单一输入也必须有自己的加权系数?我怎样才能将输入的内容列入 "白名单"?也就是说,假设我有RSI归一化的高切线,预期高达0.21的输入。如果我这样做:f(t)=th(RSI(i)*kf),其中kf>1是一个特别选择的系数,以输入信号的一些扭曲为代价来拉平概率密度函数,它是否可以?
什么是交易性计数?
顺便说一下,对于每个感兴趣的人来说:这种策略--"锁定损失,让利润增长 "或 "锁定利润,让损失增长"(取决于市场是趋势还是平淡,取决于所选择的交易期限)--在资本再投资时不是最佳选择。在这种情况下,用再投资的方式固定在每一个步骤上是更有利可图的!也就是说,如果我们有10笔连续盈利的交易,那么向经纪公司支付佣金并重新投资,比一直保持一个头寸并节省点差更有利。
这是一个悖论,它将我们引向交易的伯努瓦,之后--以分析形式有效使用交易的基本方程(与文斯不同),没有任何参数化的问题。
这与其说是一个悖论,不如说是有再投资的MM的一个特性。这个MM的效率取决于交易的数量,以及其他方面。这个MM的盈利能力是交易数量的几何平均程度。在交易数量较少的情况下,盈利能力输给了简单的MM,但如果我们设法在大量的交易中生存下来(玩长线),那么回报就会更大。但像往常一样,没有什么东西是免费提供的。付出的代价是不对称的杠杆及其后果--与简单的MM相比,有很长一段时间的低收入。
Popt=k*w*w/d, 其中k 是1阶的无量纲常数,说明了市场变化的事实。
那么在这个公式中,d 是隐藏层的一个神经元的输入数,k 是隐藏层的神经元数?对不起,我觉得很难相信网络可以在340条上学习。它非常小...我一定是误解了什么。
到目前为止,我只熟悉最简单的感知器,它在MT4终端的测试器中用遗传算法 "训练"。你必须至少检查一些重要的(2或3个月)历史。当然,我明白,遗传学家实际上并没有教给感知器任何东西,他只是选择了最合适的系数,而且工作的效率非常低,因为他是盲目地行动。好吧,别介意。那是一个抒情的离题。
我没有理解错,单一输入也应该有自己的加权系数吗?我们又如何能将输入的信息列入 "白名单"?假设我有一个高切归一化的RSI,输入的期望值高达0.21。如果我这样做:f(t)=th(RSI(i)*kf),其中kf>1是一个特别选择的系数,以输入信号的一些扭曲为代价来拉平概率密度函数,它是否可以?
什么是瞬时计数?
Paralocus, 你害怕犯错吗?扔掉它!- 这样试试,那样试试,看看结果--一切都会水到渠成。
k 不是神经元输入的数量,而是市场的一个经验特性--它的可变性,在2到4的范围内选择。如果市场是静止的,那么k 可以取10和20,这将意味着进入网络学习过程中的渐进式。不幸的是,市场只有在其非平稳性中才能被称为稳态,所以在重新训练NS的过程中,系数应尽可能取最小。因此,我们得到上面提到的k的范围。
你的遗传学家是一种带有梯度下降元素的随机学习方法(如果我没弄错的话)。这不是一件坏事,但在学习速度方面输给了ORO。放弃遗传学,支持错误的反向传播--学习效率会更高,而且对网络的输入和突触的数量没有限制。
单一输入有其系数,这些系数被训练成正常的,与其他输入的属性没有区别。
对输入的漂白是消除它们之间的相关依赖关系。要使用这个程序,首先要说服自己相信这种非常的关联性。
交易,是指在市场上购买或出售资产的行为,即交易,是一种贿赂(不是刑事意义上的:--)。
摒弃遗传学,支持错误的反向传播--学习会更有效率,而且对网络的输入和突触的数量没有限制。
就这样吧,我已经放弃了。坐下来用ORO写网格。可能有一些关于ETA本身的问题。
可能有一些关于ETA本身的问题。
没问题!
顺便说一下,让我们仔细看看你的网络架构。
你有一个由三个独立的双层网络组成的委员会,由一个输出神经元连接(所以委员会)。你的委员会中的每个网格在其输入中只包含一个神经元,这是错误的,因为这样的架构在计算能力上与单层perseptron没有区别。这就是为什么你有三个输入(4个包括偏置)而不是12个。再一次:你创建了一个董事会的模拟,主席通过一般投票(输出神经元)选择 "正确 "的答案,每个投票者由一个神经元代表。这样的架构不会提供交易优势。对了,为每个委员会成员提供至少两个输入神经元,这样就可以充分利用FA的无效属性,明显提高委员会的预测能力。
你看人工智能和我们有多大的共同点...事实上,在共青团的会议上投票不过是集体行为的最佳方案,即以最低的成本最快地实现目标!"。
请注意,委员会的输出没有非线性激活函数,它只是一个加法器,其功能是根据投票结果做出决定。所以这个架构最接近你的想法,是一个有一个隐藏层的双层非线性网络的委员会。隐蔽层的神经元数量可以增加,增加预测的准确性,但我们必须记住,训练样本的长度呈四次方增加,很快就会达到一个点,缩减的效率会下降,甚至导致网络预测能力的恶化。从我的数字实验来看,最佳状态是隐蔽层中不超过2-4个神经元。
对于给定的架构,最佳训练样本长度P=1500个样本。
P.S. 它看起来不错。我是说照片。我得到了审美上的愉悦!