交易中的机器学习:理论、模型、实践和算法交易 - 页 2829

 
当然,不是在 ptu,也不是在具有自由价值观的地方。
 
СанСаныч Фоменко #:

我们使用的是梯度下降算法,一般来说,这种算法并不适合神经元,而且有一大堆 "胡子"。我们用谷歌搜索,不会问幼稚的问题,因为我们已经知道梯度下降算法是如何克服不同类型的局部极值陷阱的。这是人们多年来一直在做的具体工作。

你被要求在几个有代表性的函数上测试学习/优化,这是很好的做法

如果你认为神经网络可以完美地做到这一点,那你可能就错了

 
Maxim Dmitrievsky #:

建议您在一些有代表性的功能上测试学习/优化,这是一种很好的做法

如果您认为神经网络可以完美地完成这项工作,那您可能就错了

是啊......坦率地说,我很惊讶并非每个人都能充分认识到简单的真理--任何事情都应该经过测试,相信某个人的教条意味着停滞和退化。

梯度下降法和贝克普罗法都是如此古老和糟糕的方法,以至于有些人还能把它们当回事,这实在是太奇怪了。

顺便说一句,遗传学并不是当今最稳健的算法。好吧,我只是想说明,我们还有改进的余地。

 
Andrey Dik #:

是的......坦率地说,我感到惊讶的是,并非每个人都能充分认识到简单的道理--任何事情都应加以检查,相信某个人所说的教条就意味着停滞和堕落。

梯度下降法和 Bekprop 是如此古老和糟糕的方法,居然还有人把它们当回事。

在卡戈崇拜和对神圣 R 的信仰层面上,人们对文明的馈赠有具体的认识。

 

一方面,学习是优化的一种特殊情况,但另一方面,学习也有一些特殊性。

1) MO 中的优化通常意味着在无限维函数空间中的内在优化。这可以是显式的(例如梯度剔除),也可以是隐式的。这使得模型具有难以置信的灵活性,但却失去了有限维优化中的清晰性和简洁性。例如,有限维子空间上的任何极值都很可能是更高维子空间(维度可高可低)上的一个鞍点。

2) 使用一组有限的良好损失函数。这就避免了第一点产生的问题。但如果想要定制损失函数,要么不可能,要么非常困难。

 
Aleksey Nikolayev #:

一方面,学习...

阿列克谢,你知道如何优化噪声函数吗?
 
有完整的搜索,也有优化。它需要缩短找到最优解的时间。既然如此,它总是一个折衷方案。你可以用随机梯度法进行优化,得到比亚当法更好的结果,但要牺牲时间。我们必须做出选择。对于某些任务,准确性可能比速度更重要,例如,提高 TC 的期望值。
在此,我们不妨看看直观的结果。
 
Andrey Dik #:

太可怕了

可怕的是,一个人读到关于优化的文章时,对这一主题的了解甚至只有 20%,因此他无法识别常识,并对其感到惊讶....。

可怕的是,资质更低的人把脓水灌进自己的脑袋,认为这是大师的知识,结果是一群智力残废......


而各种非大师却欣然同意,因为他们已经残废了,还自己往自己的脑袋里灌脓水,称自己是自负的文章....。

这才是真正的恐怖!.....!

 
在你发表可悲的演说之前,你应该先咀嚼你的鼻涕,普图斯奇克。

没那么好
 
mytarmailS #:

可怕的是,一个人读到有关优化的文章时,对这一主题的了解甚至只有 20%,因此他无法识别常识,并对其感到惊讶....。

可怕的是,资质更低的人把脓水灌进自己的脑袋,认为这是来自大师的知识,结果产出的是一群智力残废....。

你最好保持沉默,你会显得聪明得多,至少举止得体。