SOM: 烹饪方法 - 页 8

 
Sych:

我可以看到完整的报告(标题)吗?底部的部分已经被砍掉了。

我更新了它。

alexeymosc:

这很好。战略是什么?交易是按条数(按时间)还是其他方式完成的?

现在每个信号都被单独处理。即当一个偏斜的神经元脱落时打开,在一定时间后关闭。
 

明白了。偏斜的意思可能是概率偏差为50%?而关闭条件是与每个神经元相联系的?什么是歪曲的?55%?60%?

 
alexeymosc:

明白了,偏斜一定是指概率偏差为50%?而关闭条件是与每个神经元相联系的?什么是歪曲的?55%?60%?

是的,大约是1.5倍,大约是60/40 -- 这里有一段代码。

{
   if (positive/(negative + 1.0) > 1.5 && count > 3)
   {
      OpenBuy(Magic, TP, SL, TradeLot);
   }
   
   if (negative/(positive + 1.0) > 1.5 && count > 3)
   {
      OpenSell(Magic, TP, SL, TradeLot);
   }
}

发现一个小错误...很快就会恢复正常。

 
很好!
 
TheXpert:

已更新。

有乐观情绪,但不多。

你可以改善这些数字。

平均值盈利的交易121.33亏损的交易-130.51
最大数量连赢17 (1227.10)连续损失(亏损)11 (-2390.10)

?

即--要么减少相对于盈利交易的平均损失,要么减少连续损失的数量。

我明白这是OOS,但你所教的是它的行为方式。

也许纠正发现的错误会改善结果,这将是有趣的事情。

 

伙计们,需要关于SOM的专家建议。

特别感兴趣的是如何控制图案数量在各群组之间的分布。

 

下午好!

我已经有一个星期没有正常上网了。我写得很晚。

我在这里读到:http://www.eicstes.org/EICSTES_PDF/PAPERS/The%20Self-Organizing%20Map%20(Kohonen).pdf

输入向量在CCS单元上的最佳分布问题,首先取决于对CCS的充分训练。Kohonen写道,训练迭代的次数必须至少是网络中神经元数量的500倍也就是说,如果我们训练一个由100个神经元组成的网络(10乘10),迭代次数必须至少为50 000次。坦率地说,在一台普通的PC上训练这样一个网络,只要输入矢量非常大(比如40),就需要几天时间。Kohonen建议的启发式方法是,至少应该有10,000次的迭代训练。这太多了,IMHO,但作为一种选择,我们可以减少输入向量的大小,看看会发生什么。

第二点,与SCS学习有关,来自同一篇文章,输入向量的大小并不影响学习迭代的数量,也就是说,一切取决于PC的功率。

第三,正如文章中所建议的那样,神经元训练的半径最初应该非常大(你可以做到超过ACS直径的一半),以便在ACS上设置基本的 "拓扑秩序";然后半径与迭代次数成反比缩小,直到0,也就是发生仅一个神经元的权重校正。同时,在训练开始时建立的原始拓扑秩序并没有被违反,但在地图的局部区域,它被细化。看到这里。

还有一点与学习有关的是,学习的步长在开始时也应该很大(大约1),然后与迭代次数成反比减少,步长对迭代次数的依赖函数可能是线性和非线性的。在训练结束时,步长仍然非常小,小于0.01,以微调LCS。

文章还谈到了训练的预处理数据,但在应用于语音和图像识别时。在我们的案例中,它是一个时间序列,所以我们必须从其他地方挖掘。我知道有很多关于将SOM应用于时间序列的讨论。

 

你凭什么认为SOM在自动交易中是可能的?

为了使你的视野集中在某一事物上,你需要知道它是什么

在历史数据上(这是你想让网络学习的东西),有几乎无限多的可能的价格运动。网络应该如何为自己找出该做什么和该注意什么?

想象一下,一个孩子身边有无数的玩具。尽管有无数的玩具,(或者说,这就是原因)孩子永远不会知道这个玩具是汽车,那个是泰迪熊。作为家长,你应该首先告诉/告诉你的孩子,这个玩具叫做汽车,并多次让你的孩子尝试在其他玩具中找到这个特定的玩具。这样孩子就能识别汽车,而不会将其与泰迪熊混淆。

只有当网络知道它的目标是什么时,SOM才能被触发,只有这样它才能集中视野。这可能是通过识别车辆牌照号码或通过自动翻译器搜索正确的单词/短语。然而,你首先要教网络识别数字或文字,然后才让它自由地游泳

在历史数据流上,你想/能为网络提供什么?那你指望的是什么呢?