交易中的机器学习:理论、模型、实践和算法交易 - 页 2828

 
是的,我会在闲暇时看看亚当,做一些测试。
 
Andrey Dik #:
是的,有空我会看看亚当,做一些测试。
文章写得很好,只是还不够资格去论证什么:)
 
Maxim Dmitrievsky #:
文章是顶级的,只是没有资格反对什么:)

谢谢))))

那么我认为有必要将传统上与神经元一起使用的算法也纳入审查范围。

 
Andrey Dik #:

实际上,这意味着神经元的训练不足。

好吧,这是事后的一点想法。

有不同类型的 AO,局部优化和全局优化...

局部是梯度、相同的亚当等......全局是遗传等......

网络使用局部优化进行训练是因为它速度快,"权重多"。

而训练全局 AO 是无效的......


最重要的 是,如果你用全局 AO 训练一个正常的神经元(大约有十亿个权重),首先,你需要等待很长时间;其次,你根本无法保证你已经找到了全局最小....。

所以,所有这些言论都是对纯净水的亵渎,SUPER 天真的认为那些创造深度学习的人不知道全局优化算法及其特性,这太明显了,甚至一点都不好笑....


你要学会区分全局优化算法和局部优化算法,然后还有离散优化、连续优化、多准则优化等....。

每种算法都有自己的任务,把所有东西都堆在一起进行测试是一种亵渎。

 
mytarmailS #:

好吧,这是事后的一点想法。

有不同类型的 AO,局部优化和全局优化...

局部优化是渐变、相同的亚当等。

网络在本地进行训练是因为速度快,"有很多尺度"。

而训练全局 AO 的效率很低......


最主要 的是,如果用全局 AO 训练一个正常的神经元(大约有十亿个权重),首先,你需要等待很长时间;其次,你根本无法保证你已经找到了全局最小....。

因此,所有这些言论都是对纯净水的亵渎,SUPER 天真的认为那些创造深度学习的人不知道全局优化算法及其特性,这太明显了,以至于连搞笑都算不上....。

太可怕了。

算法没有 "局部 "和 "全局 "之分。如果算法卡在某个局部极值,那是缺陷,而不是特征。

神经元的传统 AO 有高度专业化的比较,您可以搜索一下。算法通常用于特定任务,但所有算法无一例外都可以在收敛质量方面进行比较。

 
Andrey Dik #:

谢谢)

那么我认为有必要将传统上与神经元一起使用的算法也纳入审查范围。

我曾经读到过这样一种说法:如果误差在几个周期内变化不大,即在一个极值附近,那么为了检查它是否是局部的,需要对参数进行强烈的跳跃,以跳出这个极值。如果是局部误差,下一次跳转时就不会再返回,如果是全局误差,就会返回。可以重复多次。一般来说,有必要对空间进行更广泛的探索。
 
Andrey Dik #:

太可怕了

算法没有 "局部 "和 "全局 "之分。如果算法陷入局部极值,那是缺陷,而不是特征。

我们使用的是梯度下降算法,一般来说,这种算法并不适用于神经元,而且这种算法有很大的缺陷。在学习了梯度下降算法如何克服不同类型的局部极值陷阱后,请谷歌一下,不要问一些幼稚的问题。这是人们多年来一直在做的具体工作。

 
elibrarius #:
我曾经读到过,如果误差在几个周期内变化不大,即围绕着一个极值旋转,那么为了检查它是否是局部的,就会在参数中进行强烈的跳跃,以跳出这个极值。如果是局部极值,下次跳转时就不会再回到这个极值;如果是全局极值,就会返回。可以重复多次。一般来说,你需要探索更广阔的空间。
是的,没错,这也是避免陷入困境的一种方法。 对了,我前几天看了列维的飞行,它就来自这个主题。
 
这里有一个有趣的比较,例如亚当与遗传学或蚁群的比较。交易者可能会进退两难:使用 MT5 优化器还是 NS。即使他做出了选择,他也希望采用最有效的算法
 
Andrey Dik #:

太可怕了

算法没有 "局部 "和 "全局 "之分。如果算法陷入局部极值,那是缺陷,而不是特征。

算法通常用于特定任务,但所有算法无一例外都可以在收敛质量方面进行比较。

嗯,都是 5 )))))))))

你和马克西姆卡是同一所大学的学生吗?