交易中的机器学习:理论、模型、实践和算法交易 - 页 1747

 
Mihail Marchukajtes:
这到底是什么?

这到底是怎么回事?)很高兴他们把它带回来))))

 
我没有办法理解NS的数学原理。

我所理解的。

1.训练样本--孤立的数据块,包含语义不变性的修正表示。

2.NS的结构--由连续的 "神经元 "层组装而成,其中第一层接受数据(并有必要的神经元数量),其他层是为了概括第一层处理的数据,并将它们带到不变的地方,由明确的程序逻辑操作。

3."神经元"--一个依次获取训练样本数据片段的函数,将这个片段转化为 "权重",并将其传递给下一层。

我不清楚数据中的非显而易见的不变性是如何通过几个过滤层从 "外壳 "中数学地清除的,修正的不是数据本身,而是其 "重量"。
 
Reg Konow:
我很难理解NS的数学原理。

我所理解的。

1.学习取样--孤立的数据块,包含语义不变性的修正表示。

2.NS的结构是一个连续的 "神经元 "层的组合,其中第一层接受数据(并有必要的神经元数量),其他层是为了概括第一层处理的数据,并把它们带到不变的地方,由明确的程序逻辑操作。

3."神经元 "是一个函数,它依次接收训练样本数据的一个片段,将这个片段转化为 "权重 "并传递给下一层。

我不清楚数据中的非显而易见的不变性是如何通过几个过滤层从 "外壳 "中数学地清除的,修正的不是数据本身,而是它们的 "权重"。

寻觅云中最高的山峰,云层后面看不到高度。低频找到标高的起点,在其附近进行勘测,没有标高的地方不要勘测。可以勘察高地的起点,而不勘察小区域。算是一个聪明的采样。但无论如何,它是一种算法。在任何情况下,完全的蛮力以极小的概率不会输给不同的变体,以任何搜索逻辑,通过和通过,在两端开始,找到一个更快的搜索与被搜索的逻辑的概率比在完全的顺序。

 
Reg Konow:
我是没能理解NS的数学原理。

你不是在试图理解它--你是在试图编造它。

要了解NS的数学基础,你应该阅读科尔莫戈罗夫-阿诺德-赫克特-尼尔森理论。

 
阿列克谢-尼古拉耶夫

你不是在试图理解它--你是在试图编造它。

要了解NS的数学基础,你应该阅读科尔莫戈罗夫-阿诺德-赫克特-尼尔森理论。

很少有明确的解释。而且很少有人能够从公式中理解它)))))

 
阿列克谢-尼古拉耶夫

你不是在试图理解它--你在试图编造它......

在某种程度上这是必要的。你只能真正理解由自己创造的东西。我正试图重现NS概念的原始想法。
 

通过不变定义误差的反向传播,用牛顿或准牛顿的优化方法寻找神经元函数的局部或全局极值,调整不同的梯度步骤

这对彼得来说更容易理解

 
瓦列里-亚斯特雷姆斯基

寻找云层中最高的山头,云层后面看不到海拔。低频找到高程的起点,在它们附近进行测量,在没有高程的地方不要测量。可以勘察高地的起点,而不勘察小区域。算是一个聪明的采样。但无论如何,它是一种算法。在任何情况下,全搜索以很小的概率不会输给不同的变体,以任何逻辑的搜索,通过和通过,在两端开始,在搜索中找到一个更快的搜索与所需的逻辑的概率是高于全顺序的。

ahahah)))

 
瓦列里-亚斯特雷姆斯基

寻找云层中最高的山头,云层后面看不到海拔。低频找到高程的起点,在它们附近进行测量,在没有高程的地方不要测量。可以勘察高地的起点,而不勘察小区域。算是一个聪明的采样。但无论如何,它是一种算法。在任何情况下全搜索的概率非常小,不会失去不同的选择,与任何逻辑的搜索,通过和通过,在两端开始,在搜索中找到更快的搜索与所需的逻辑的概率比在一个完整的连续的高。

这个解释更适合于GA,我认为))。
 
马克西姆-德米特里耶夫斯基

通过不变定义误差的反向传播,用牛顿或准牛顿的优化方法寻找神经元函数的局部或全局极值,调整不同的梯度步骤

这对Piotr来说会更清楚

那么,NS的工作是以这样或那样的方式与Optimization挂钩的?