市场礼仪或雷区中的良好风度 - 页 10

 

嗨,paralocus,我想你可以从这里开始,然后我们再看。

顺便说一下,对每个感兴趣的人:"锁定损失,让利润增长 "或 "锁定利润,让损失增长"(取决于市场是趋势还是平淡,取决于所选择的交易期限)的策略在资本再投资时不是最佳选择。在这种情况下,用再投资的方式固定在每一个步骤上是更有利可图的!也就是说,如果我们有10笔连续盈利的交易,那么向经纪公司支付佣金并重新投资,比一直保持一个头寸并节省点差更有利。

这是一个悖论,从这个悖论到交易的布尔诺化并不遥远,之后--到有效使用分析形式的交易基本方程(与文斯不同),没有任何参数化的问题。

 
Neutron >> :

你好,paralocus,我想你可以从这里开始,然后我们再看。


谢谢你!

我有三个感知器的输入(到目前为止有三个),这是第一层。该层的组成如下。

一个关于RSI的感知器,一个关于CCI的感知器,一个关于随机的感知器。所有的输入和输出都是标准化的(-1 ; +1)。遗传学家在最简单的方案上训练感知器--在分裂上。

现在我想增加第二层,由两个感知器组成,其中一个只训练成购买,另一个只训练成出售。问题。

第二层的感知器将被训练,可以这么说,每个人都有自己的专长,同时使用第一层的相同数据,这是否足够了?

第一层的感知器也必须为买入和卖出分别进行训练?

 
paralocus писал(а)>>

谢谢你!

一点也不!

你看,paralocus,NS本质上是一个通用的加法器,在数学上,你是把输出层的神经元单独锐化为卖出或买入,还是从一个具有超切激活的单一神经元建立第三层,其输出极性将指向买入或卖出,而振幅指向成功的概率(其中网络的确定性),都没有区别。从这个角度来看,没有必要强行将第一层神经元专业化--它们将在训练过程中确定,并考虑到NS的计算能力在从两层结构到三层结构时不会增加(除了一些特殊情况),以及训练样本的长度与网络所有权重的平方成正比(如果可能的话,样本应该最小,以便对市场事件作出操作性反应),并使用奥卡姆剃刀原则(没有必要变得不必要的大)。

P.S.是的,重要的是,NS的输入信号的概率密度具有零期望,并在+/-1区间内平均分布(架子)。这明显地提高了网络的学习和性能。

 
Neutron >> :

还没有!

你看,paralocus,NS本质上是一个通用的加法器,在数学上,你是将输出层的神经元单独锐化为卖出或买入,还是从一个具有超切激活的单一神经元创建第三层,其输出极性将指向买入或卖出,振幅指向成功的概率(网络对它的信心),都没有区别。从这个角度来看,没有必要强行将第一层神经元专业化--它们将在训练过程中确定,并考虑到NS的计算能力在从两层结构到三层结构时不会增加(除了一些特殊情况),以及训练样本的长度与网络所有权重的平方成正比(如果可能的话,样本应该是最小的,以便对市场事件做出操作上的反应),并使用奥卡姆剃刀原则(没有必要变得不必要的大)。

P.S.是的,重要的是,NS的输入信号的概率密度具有零期望,并在+/-1区间内平均分布(架子)。这明显地提高了网络的学习和性能。

诶!有些是清楚的,但很多是新的。为了不漏掉任何东西,我将边走边问......

1.事实上,NS是一个通用的加法器,从数学的角度来看,无论你在输出层中单独为卖出或买入锐化神经元,还是从一个具有超切激活的单一神经元建立第三层,它的输出极性将指向买入或卖出,而振幅--指向成功的概率(网络对它的信心),几乎没有区别。

我理解加法器,但具有正切激活的神经元呢--它是什么样的野兽?我用sigmoid对输入和输出进行归一化处理,为了确保输入和输出的信号是正确的(-1<最大和最小<+1),我稍微修改了Perseptron指标。也就是说,我们采取三个输入神经元,并将其输出给第四个神经元(具有超切激活),其输出可以绝对透明,作为在指定方向(朝向主动极性)的交易成功结果的概率估计......。对吗?


2.从这个角度来看,没有必要强行将第一层的神经元特殊化--它们将在训练过程中自己决定。

也就是说,输入层的神经元应该被简单地训练成将输入数据分成 "右 "和 "左 "的。 我对"它们在训练过程中被确定 " 有点困惑--它是指对输出神经元超切的训练,还是对所有的输出和输入神经元一次性的训练?如果全部同时进行,遗传学家将不允许同时优化超过8个参数,而在这样的网格中至少有12个参数(......不算火鸡的参数)--我们应该怎么做?如果我分别训练--首先,分别训练每个输入参数,然后,只分别训练输出参数(我现在正在做),这不会是一个错误吗?


3.训练样本的长度与网的所有权重的平方成正比(如果可能的话,样本必须是最小的,以便对市场事件作出快速反应)。

怎么说呢?让我们将网络的所有权重平方,然后将这些平方相加,得到训练样本的长度应该与什么成正比?

关于长样本的无用性,我已经知道了--可以说,我是通过 "科学试验和错误 "来的。我甚至找到了日期(2008.12.02),从这个日期开始,数据对网格来说根本没有用处--与实际市场动态没有关联。


4.最好的选择似乎是具有一个隐藏层和一个输出神经元的两层NS。

在这里我不明白的是......如果有一个输入层的神经元,一个输出层的神经元,和一个隐藏层的神经元,那么它已经是三个了。那么,为什么会有一个两层网络呢?


5.是的,重要的是,NS的输入概率密度的期望值为零,并且在+/-1区间内均匀分布(货架)。这大大提高了网络的训练效率和性能。

我自己明白输入信号归一化的必要性(在直觉层面),这就是为什么我对输入信号进行转换,使输出具有相同的形式,但在-/+1范围内。但归一化RSI的概率密度是如何分布的?例如,我的RSI神经元的输入信号看起来像这样。


这就够了吗,还是需要其他的东西?

P/S 我对剃刀没有意见,主要是要了解该切什么...:-)

 
paralocus писал(а)>>

1.我了解加法器,了解高切激活神经元--那是什么样的东西?我用sigmoid对输入和输出进行归一化处理,为了确保输入和输出信号正确(-1<max和minima<+1),我稍微修改了Perseptron指标。也就是说,我们采取三个输入神经元,并将其输出给第四个神经元(具有超切激活),其输出可以绝对透明,作为在指定方向(朝向主动极性)的交易成功结果的概率估计......。对吗?

这是一个神经元,其激活函数(FA)是一个双曲切线(取值范围+/-1)--它便于做出买入/卖出的交易决定,如果|FA|<const--退出市场。

所有的NS神经元必须有非线性的FA(有一些例外--除了最后一个)。除了学习的速度外,没有什么取决于FA的具体类型。

2.从这个角度来看,没有必要强行对第一层的神经元进行专业化处理--它们将在训练过程中自行决定。

也就是说,输入层的神经元应该被简单地训练成将输入数据分成 "右 "和 "左 "的。我对"它们在训练过程中被确定 " 有点困惑--它是指对输出神经元超切的训练,还是对所有的输出和输入神经元的训练?如果全部同时进行,遗传学家将不允许同时优化超过8个参数,而在这样的网格中至少有12个参数(......不算火鸡的参数)--我们应该怎么做?如果我分别训练--首先分别训练每个输入参数,然后只训练输出参数(我现在就是这么做的),这不会是一个错误吗?

当然,我们应该同时训练所有的人,否则我们就会出现混水摸鱼的问题。我没有和遗传学打过交道,所以我帮不上忙。

3.训练样本的长度与网络所有权重的平方成正比(如果可能的话,样本应该是最小的,以便对市场事件做出快速反应)这一事实。

怎么说呢?对网络的所有权重进行平方,然后将这些平方相加,得到训练集的长度?

有一个最佳的训练集长度 P,它是近似和泛化误差之和的最小值。这个最佳值是由网络中的突触数量w 和输入维度d(网络输入数量)唯一决定的。

Popt=k*w*w/d, 其中k 是1阶的无量纲常数,考虑到了市场变化的事实。

最佳标准是测试样本和训练样本上的网络误差的相称性,即如果正常训练的网络猜测正确率为55%,它将在新数据的测试中显示大致相同的结果。此外,对于这样的NS,不存在与ORO方法中迭代次数增加有关的再训练问题--不存在误差的局部最小值--函数是瞬时的,渐进地趋向于常数。

4.一个最佳的变体看起来是具有一个隐藏层和一个输出神经元的双层NS。

这里我不明白...如果有一个输入层的神经元,一个输出层的神经元,和一个隐藏层的神经元,那么它已经是三个了。那么,为什么网络是两层的呢?

这是一个术语的问题。我并没有把输入层单独作为一个特殊的层。所以我是指只有两层的NS--输入层(又称隐藏层)和输出层(由单个神经元组成)。

然而,归一化RSI的概率密度是如何分布的?这就够了吗?还是需要其他东西?

我不知道。你需要绘制你的RSI的第一个差值系列的概率密度分布图,看一下图--应该有一个最大振幅为+/-1的架子。

 
Neutron писал(а)>>

我并不是把输入层单独作为一个特殊的输入层。因此,我的意思是NS只有两层--输入层(也是隐藏的)和输出层(由一个神经元组成)。

所以网络由第一层的几个平行感知器和输出层的一个感知器组成,输出感知器的输入数等于第一层的感知器数量?

 
Neutron >> :

当然是一次性训练,否则我们会有一个问题--"在森林里和在森林外"。我没有和遗传学家打过交道,所以我无法帮助你。


这就对了!而我希望以后能将我的网状物 "改进 "为自我训练的网状物......。

消化我得到的答案......>> 我将画出我所理解的内容

 
FION писал(а)>>

所以网络由第一层的几个平行感知器和输出层的一个感知器组成,输出感知器的输入数等于第一层的感知器数量?

这就对了。

但是,每个感知器的输入有一个单独的额外输入,用于恒定的+1偏移。这加快了学习速度,增加了网络的力量。

 
Neutron писал(а)>>

这就对了。

但是,每个perseptron的输入有一个单独的额外输入,用于恒定的+1偏移。这加快了学习速度,增加了网络的力量。

我明白了。恒定的偏移量只是将高切曲线上的激活点稍稍移动。

 

中子写道>>。


这是我想出来的。

高切线被整理出来了。直到现在我还在使用sigmoid,并且不得不从结果中减去一个,但我不需要用th。就我的理解,该图显示了市场上NS的最佳架构。输入的数量是12,突触的数量是4。 因此,使用公式Popt=k*w*w/d,我们得到144/4=36。这是36条吗?或者36个接近买入/卖出的情况?我说对了吗?