交易中的机器学习:理论、模型、实践和算法交易 - 页 2302

 
Aleksey Mavrin:

x2=0

当x2=DBL_MIN时。

Y不会是无限的,但会非常大。

如果你脱离了机器数字,你仍然可以减少X2,这仍然会增加Y。以此类推。- 无限小数和无限大数的竞赛也将是无限的。)

 
elibrarius:
y = x1/x2 在哪里被打断?

读一读什么是离散函数,什么是连续函数,不要胡说八道。

如果你想争论而不是理解一些东西,那就用一个隐藏层来训练网络的函数y = x1/x2

然后解释为什么网络没有近似于"y",因为根据你的信念,这一切都很连续


书中写道,它可以。

В соответствии с теоремой Цыбенко, сеть с одним скрытым слоем способна аппроксимировать 
любую непрерывную многомерную функцию с любой желаемой степенью точности

但它不能...

解释一下原因?

 
mytarmailS:

读一读什么是离散函数,什么是连续函数,不要胡说八道。

如果你想争论而不理解一些东西,那么就在这个函数y = x1/x2 上训练一个有一个隐藏层的网络吧

然后解释为什么网络没有近似于"y",因为根据你的信念,这一切都很连续


书中写道,它可以。

但它不能...

解释一下原因?

函数y = x1/x2 是连续的。除了在x2=0这一点上。即使如此,你也可以争论,因为它可以无限期地接近。
 
elibrarius:
函数y = x1/x2 是连续的。除了在x2=0这一点上。即使如此,这也是可以争论的。

如果它足够接近于零呢?

或者,除以2 - 小于/大于0

那么这个问题是可以解决的。
 
Renat Akhtyamov:
如果它足够接近于零呢?

它可以被无限期地接近。

 
elibrarius:
函数y = x1/x2 是连续的。除了在x2=0这一点上。即使如此,这也是可以争论的。

那么,为什么网络没有被训练?

据记载

В соответствии с теоремой Цыбенко, сеть с одним скрытым слоем способна аппроксимировать 
любую непрерывную многомерную функцию с любой желаемой степенью точности


elibrarius:
是的,而且可以说是可以无限接近的。

误差已经达到零,无处可去......怎么会是无限的?


好吧,我看你是离谱了......你在胡说八道...

 
mytarmailS:

那么,为什么网络不学习呢?

它写道。


误差已经达到零,无处可去......怎么会是无限的?


好吧,我看到你是偏离基础的......你在胡说八道...

又是嘘嘘嘘嘘嘘嘘嘘嘘嘘嘘嘘嘘?

 
Maxim Dmitrievsky:

又喝酒了?

一个月前辞职了,连新年都没干...

我生命中最后的快乐是.... 生活是一种痛苦 ))

 
mytarmailS:

一个月前放弃了,连除夕夜的干...

我生命中最后的快乐是,然后.... 生活是一种痛苦 ))

它也可以近似于撕裂,但不再准确了。

 
Maxim Dmitrievsky:

它也可以对不连续点进行近似处理,但不具有任何准确性

没有人在争论,这不是我们要讨论的问题...

反问--豪饮豪饮

:)