混合神经网络。 - 页 4

 
joo >> :

到entraf

MQL4

致IlyaA

是的,我知道。还有不同作者的大约200-300本书。但我想我自己会比读这个图书馆更快地掌握NN和GA。结果是这样的。更快。

我所说的掌握是指实际应用,而不是对术语的熟悉。


然后是Haykin p.330,4.19章 我对这件事有很好的掌握。你很快就会掌握它的窍门。
 
joo >> :

我也想就此向你提出建议。启动一个额外的群体,将每个时代的最佳个体放入其中(我称之为 "时代基因库 "或GE)。交配时,从当前种群和GE中抽取个体。这极大地减少了ff启动的次数。这种方法不应该与精英选拔相混淆。


让我们来了解一下穿越的情况。我按概率选择我的,这反映了这个感知器比其他感知器做得更好的程度。相应地,最好的人有80%的机会参与每一对,而最差的人有20%的机会。这就是他们的生活方式。你所说的补充人口的方法是什么意思。
 
IlyaA >> :
>>谢谢你。>> 非常详细。基本上是的,如果你已经用不同的参数运行了几次算法,那么就使用这些结果。那么200...好吧,让我们保持这种方式。然后是下一个要点。我们应该寻找有利可图的 "假货"(蜡烛图和指标的组合),不是用眼睛而是用感知器来寻找它。让它为我们建立线性可分离的组。搜索标准 利润 => 最大。随意停顿。然后分析权重,确定 "佯攻"。然后是一个正常的指标和交易系统。相当复杂,但这是第一眼看到的。摸索天平是非常有趣的(至少对我来说)。问题:) 我必须通过每个人的蜡烛图+指标(可选)来运行5年的历史,现在每个人口上有200个。这是一个巨大的资源消耗,此外我们不知道什么时候会停止。让我们试着重新表述这个问题,或者以其他方式保留这个设计的最重要的特性--由机器检测 "fink"。

5年的时间里,什么TF?如果是M1,是的,很长一段时间。如果是W1,那么就非常快。

没有必要让网络成为一个巫师,并试图教给网络所有的历史时刻(盈利的表象)。其中大部分都不会再发生,至少99%。

我认为1000-3000条的历史是最佳的。当操作过程中的误差上升到指定水平以上时,要重新进行训练。虽然在例子的数量上(酒吧),有不同的意见,也许现在有的人反对这个问题。

 
joo >> :

5年的时间里,什么TF?如果是M1,是的,很长一段时间。如果是W1,那么就非常快。

没有必要让网络成为一个巫师,并试图教给网络所有的历史时刻(盈利的表象)。其中大部分都不会再发生,至少99%。

我认为1000-3000条的历史是最佳的。当操作过程中的错误上升到指定水平以上时,进行重新培训。虽然例子的数量(条),有不同的观点,也许现在有的人在这个问题上是反对者。


好吧,我想我将开始。为什么我推荐很多酒吧?因为(自问自答)正如有人正确指出的那样,大多数茴香树都是一次性的,网子可以'缺口大'。而结果会像往常一样,在被测试的巧克力的间隔上,在所有其他的间隔上--喂养为生。我的建议是,对一次性时刻最好的过滤是整合它们。网格将有更好的机会隔离重复的假象。你有什么想法?
 
gumgum >> :

昨天我写了一个10-15-10-1的网格

>>继续...


你是否检查过感知器的过度学习(过度学习、卡顿)?
 
IlyaA >> :


然后海金P。330,第4章,19我很好地拥有这件事。你很快就会掌握它的窍门。

还没有时间阅读,也许我会的。谢谢你。

IlyaA 写道(a)>>。

让我们揭开交叉点的本质。我按概率选择我的,这反映了这个感知器比其他感知器做得更好的程度。相应地,最好的人有80%的机会参与每一对,而最差的人有20%的机会。这就是他们的生活方式。你所说的补充人口的方法是什么意思。

是的,这些父母的后代被引入新的种群中。剩下的人在没有经历过爱的情况下无耻地死去。 :)

这是个陷阱!我们不知道死者中是否有任何像样的标本。即使他们看起来像怪胎又如何,他们可以产生新的、强大的一代。

处理GA问题时,就像你试图从果蝇中培育出一只天鹅一样。

其算法是这样的。

1 创建一个随机个体的群体(大部分是丑陋的)。

2 我们确定了适应性。

三、我们将该种群复制到基因库中

4 从种群和基因库中杂交个体(通过从那里和那里选择)。

5 将新的个体放入新的群体中

6 确定每个人的健康状况

7 从旧种群和新种群中抽取最好的个体,如果他们比基因库中的个体更好,就把他们放入基因库中(替换)。

8 用新人口中的个体替换旧人口。

9 与P4重复

以此类推,直到基因库中比最好的人更好的人不再出现。

 
妈的,我在写帖子的时候,你在写三篇!,沉淀一下吧 :)
 
joo >> :

还没有时间阅读,也许我会的。谢谢你。

是的,这些父母的后代被引入新的种群中。其余的人在没有经历过爱情的情况下无耻地死去。 :)

这是最棘手的部分!我们不知道,也许在那些死去的人中有值得尊敬的人?如果他们看起来很丑又如何,他们可能已经诞生了新的、强大的一代。

处理GA问题时,就像你试图从果蝇中培育出一只天鹅一样。

其算法是这样的。

1 创建一个随机个体的群体(大部分是丑陋的)。

2 我们确定了适应性。

三、我们将该种群复制到基因库中

4 从种群和基因库中杂交个体(通过从那里和那里选择)。

5 将新的个体放入新的群体中

6 确定每个人的健康状况

7 从旧种群和新种群中抽取最好的个体,如果他们比基因库中的个体好,就把他们放入基因库中(替换)。

8 用新人口中的个体替换旧人口。

9 与P4重复。

以此类推,直到没有比基因库中最好的人出现。




好的,我将拭目以待 :)这与射线探查非常相似。我比较了射线寻找算法与概率穿越的性能。用概率交叉法的结果更好(更少的种群)。然而,如果你使用它,就很有可能会有好的效果。你需要做一个实验。你如何看待它。比方说在XOR上?
 
IlyaA >> :


好吧,我想我将开始。为什么我提出了很多条的建议呢?因为(自问自答)正如有人正确指出的那样,大多数菲尼克斯是一次性的,网友们可以 "背诵 "它。而结果会像往常一样,在被测试的巧克力的间隔上,在所有其他的间隔上--喂养为生。我的建议是,对一次性时刻最好的过滤是整合它们。网格将有更好的机会隔离重复的假象。你有什么想法?

想到NN,就像想到你的大脑一样。你将如何 "整合 "这些?想象一下,你对绘画有所了解。也许你真的是。

好吧,你知道名家的特色技巧(有利可图的小说)。现在把Photoshop中所有著名大师的作品粘贴到一个图层中。你知道任何已知的艺术家的伎俩吗?我怀疑这一点。NN也是如此。

 
joo >> :

想到NN,就像想到你的大脑一样。你将如何 "整合 "这些?想象一下,你对绘画有所了解。也许你真的会这样做。

所以,你知道著名大师的特色技术(盈利的筹码)。现在把Photoshop中所有著名大师的作品粘贴到一个图层中。你能找到一个你知道的著名作家的诀窍吗?我怀疑这一点。NN也是如此。


什么是整合噪音?(我再次提问并回答:)你有一个随机变量m(t),它在区间[-1; 1]上均匀分布。相应地,期望值=0。这很好。我们也有一个复杂配置的信号s(t)。信号和噪声的振幅具有可比性。问题是从s(t)+m(t)中提取s(t),条件是s(t)+m(t)可以无限次重复。每次的干扰都是新的,信号曲线会和以前的曲线有很大的不同。这个方法出奇的简单:找到1000次重复的信号s(t)+m(t)的平均值。在这种情况下,具有0数学期望值的干扰被整合并删除。我们能对信号s(t)+m(t)进行平均的次数越多,剩下的干扰就越少。下面再详细介绍一下我的想法。

为了限制网络一次发现所有的特征(我们称之为抽象主义效应),我们将减少神经元的数量,从而获得网络泛化能力的优势和感知器不可能学习大量的材料。我们会把网络的目标放在只找到一个,但在数据中最有利可图的东西。你怎么看?