交易中的机器学习:理论、模型、实践和算法交易 - 页 1748 1...174117421743174417451746174717481749175017511752175317541755...3399 新评论 Maxim Dmitrievsky 2020.04.27 10:39 #17471 Rehtag Konow: 那么,国家安全局的工作在某种程度上与优化挂钩了? 是的,关于fs(神经元)的优化。只是有很多,而且它们可以以不同的方式联系起来 Valeriy Yastremskiy 2020.04.27 10:44 #17472 Maxim Dmitrievsky: ahahaha )))) 当然这很不礼貌,甚至在某些地方是错误的,但只是在某些地方。而且更清晰。任何极值搜索 的优化都需要充分的搜索长)))))。GSF是一个无约束的低频过程在一个高得多的高频过程上的叠加,搜索的优化是一个逻辑上的瘦身。对我来说,其他的事情都比较容易理解。 Aleksey Nikolayev 2020.04.27 10:54 #17473 Regex Konow。 在某种程度上,它是强制性的。你只能真正理解你自己创造的东西。我正试图重现NS概念背后的原始想法。 这个概念很简单--任何多维函数都可以由一维函数的组合来近似。我希望你已经发明了 "功能 "的概念) Реter Konow 2020.04.27 11:05 #17474 阿列克谢-尼古拉耶夫。 这个概念很简单--任何多维函数都可以由一维函数的组合来近似。我希望你已经发明了 "功能 "的概念) 我没有找到 "多变量函数 "这一概念的单独定义。概率论有一个 "分布函数",里面考虑了一种 "多变量分布函数",但没有提到MO技术。显然,多维函数,如果它们与NS有任何关系,也远非其本质。可能,与一些技术上的细微差别的实施有关。我正试图理解其本质。 Valeriy Yastremskiy 2020.04.27 11:10 #17475 阿列克谢-尼古拉耶夫。 这个概念很简单--任何多维函数都可以由一维函数的组合来近似。我希望你已经发明了 "功能 "的概念) 通过减一参数分解到一维通常是可以理解的,但如何解释在这种一维的组成中,找到极值的速度比全搜索快呢? Реter Konow 2020.04.27 11:10 #17476 这里有另一个想法来补充你的理解。将函数(神经元)内的一段数据转换为 "权重",是为了统一它们,使网络的应用普遍化。 Реter Konow 2020.04.27 11:15 #17477 我想你们是被训练网络 时寻找最优值的机制所困扰,但训练并不是设备的本质,它是过程的一部分。 Maxim Dmitrievsky 2020.04.27 11:15 #17478 标签 Konow: 这里有另一个想法来补充你的理解。 将函数(神经元)内的一段数据转换为 "权重",是为了统一它们,使网络的应用普遍化。 录制一个视频来解释它,它是如此的不清楚 Реter Konow 2020.04.27 11:19 #17479 马克西姆-德米特里耶夫斯基。 录制一个有解释的视频,太不清楚了 现在还太早,我还不太了解。 Aleksey Nikolayev 2020.04.27 11:22 #17480 Reg Konow: 我还没有找到 "多维函数 "的独立定义。有一个概率论的 "分布函数",其中考虑了一种 "多变量分布函数",但没有提到MO技术。 。 显然,多维函数,如果它们与NS有任何关系,也远非其本质。可能是与一些技术上的细微差别的实施有关。而我,则是在努力理解这个问题。 多维函数是一个通常的数学函数,它的定义区域是一个多维空间。在NS的情况下,它是特征空间。 我想问你,作为一个数学家--你在学校里一般都学习数学吗)? 1...174117421743174417451746174717481749175017511752175317541755...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
那么,国家安全局的工作在某种程度上与优化挂钩了?
是的,关于fs(神经元)的优化。只是有很多,而且它们可以以不同的方式联系起来
ahahaha ))))
当然这很不礼貌,甚至在某些地方是错误的,但只是在某些地方。而且更清晰。任何极值搜索 的优化都需要充分的搜索长)))))。GSF是一个无约束的低频过程在一个高得多的高频过程上的叠加,搜索的优化是一个逻辑上的瘦身。对我来说,其他的事情都比较容易理解。
在某种程度上,它是强制性的。你只能真正理解你自己创造的东西。我正试图重现NS概念背后的原始想法。
这个概念很简单--任何多维函数都可以由一维函数的组合来近似。我希望你已经发明了 "功能 "的概念)
这个概念很简单--任何多维函数都可以由一维函数的组合来近似。我希望你已经发明了 "功能 "的概念)
这个概念很简单--任何多维函数都可以由一维函数的组合来近似。我希望你已经发明了 "功能 "的概念)
通过减一参数分解到一维通常是可以理解的,但如何解释在这种一维的组成中,找到极值的速度比全搜索快呢?
这里有另一个想法来补充你的理解。
录制一个视频来解释它,它是如此的不清楚
录制一个有解释的视频,太不清楚了
我还没有找到 "多维函数 "的独立定义。有一个概率论的 "分布函数",其中考虑了一种 "多变量分布函数",但没有提到MO技术。
。
多维函数是一个通常的数学函数,它的定义区域是一个多维空间。在NS的情况下,它是特征空间。
我想问你,作为一个数学家--你在学校里一般都学习数学吗)?