交易中的机器学习:理论、模型、实践和算法交易 - 页 1748

 
Rehtag Konow:
那么,国家安全局的工作在某种程度上与优化挂钩了?

是的,关于fs(神经元)的优化。只是有很多,而且它们可以以不同的方式联系起来

 
Maxim Dmitrievsky:

ahahaha ))))

当然这很不礼貌,甚至在某些地方是错误的,但只是在某些地方。而且更清晰。任何极值搜索 的优化都需要充分的搜索长)))))。GSF是一个无约束的低频过程在一个高得多的高频过程上的叠加,搜索的优化是一个逻辑上的瘦身。对我来说,其他的事情都比较容易理解。

 
Regex Konow
在某种程度上,它是强制性的。你只能真正理解你自己创造的东西。我正试图重现NS概念背后的原始想法。

这个概念很简单--任何多维函数都可以由一维函数的组合来近似。我希望你已经发明了 "功能 "的概念)

 
阿列克谢-尼古拉耶夫

这个概念很简单--任何多维函数都可以由一维函数的组合来近似。我希望你已经发明了 "功能 "的概念)

我没有找到 "多变量函数 "这一概念的单独定义。概率论有一个 "分布函数",里面考虑了一种 "多变量分布函数",但没有提到MO技术。

显然,多维函数,如果它们与NS有任何关系,也远非其本质。可能,与一些技术上的细微差别的实施有关。我正试图理解其本质。
 
阿列克谢-尼古拉耶夫

这个概念很简单--任何多维函数都可以由一维函数的组合来近似。我希望你已经发明了 "功能 "的概念)

通过减一参数分解到一维通常是可以理解的,但如何解释在这种一维的组成中,找到极值的速度比全搜索快呢?

 
这里有另一个想法来补充你的理解。

将函数(神经元)内的一段数据转换为 "权重",是为了统一它们,使网络的应用普遍化。
 
我想你们是被训练网络 时寻找最优值的机制所困扰,但训练并不是设备的本质,它是过程的一部分。
 
标签 Konow:
这里有另一个想法来补充你的理解。

将函数(神经元)内的一段数据转换为 "权重",是为了统一它们,使网络的应用普遍化。

录制一个视频来解释它,它是如此的不清楚

 
马克西姆-德米特里耶夫斯基

录制一个有解释的视频,太不清楚了

现在还太早,我还不太了解。
 
Reg Konow:
我还没有找到 "多维函数 "的独立定义。有一个概率论的 "分布函数",其中考虑了一种 "多变量分布函数",但没有提到MO技术。

显然,多维函数,如果它们与NS有任何关系,也远非其本质。可能是与一些技术上的细微差别的实施有关。而我,则是在努力理解这个问题。

多维函数是一个通常的数学函数,它的定义区域是一个多维空间。在NS的情况下,它是特征空间

我想问你,作为一个数学家--你在学校里一般都学习数学吗)?