插值、近似等(alglib包)。 - 页 14

 
Maxim Dmitrievsky :

我不明白,但现在如何与格拉姆矩阵一起工作!只是,因为这不是一个新的转换特征,只是一个带有旧特征标量乘积 的ITS矩阵。

那么,在这种情况下,我认为你需要对最后的标量表示进行第一次导数,以得到矢量。我的意思是只需要计算最终内核函数的斜率。

我想,应该有内置的MQL5库来计算任何函数的一阶导数或斜率。

在这种情况下,如果斜率为正,那么它应该是一个买入信号,如果斜率为负,那么它应该是一个卖出信号。

 
FxTrader562:

那么,在这种情况下,我认为你需要对最后的标量表示进行第一次导数,以得到矢量。我的意思是只需要计算最终内核函数的斜率。

我想,应该有内置的MQL5库来计算任何函数的一阶导数或斜率。

在这种情况下,如果斜率为正,那么它应该是一个买入信号,如果斜率为负,那么它应该是一个卖出信号。

) nono...我们需要它作为RDF拟合的新特征点,同样是2或n个向量,但我认为是新的点。

我只是无法想象 :D 首先我们需要用内核 进行转换,然后用另一个数据点将其转换为特征。

或者是矩阵行列式格拉米安--这个点

 
Maxim Dmitrievsky:

)) nono...我们需要它作为RDF拟合的新特征点,同样是2或n个向量,但我认为是新的点。

我只是无法想象 :D 首先我们需要用内核 进行转换,然后用另一个数据点将其转换为特征。

或者是矩阵行列式格拉米安--这个点

我在这里完全被搞糊涂了:))

核函数是一种分类技术,可以更快地运行分类过程,对吗?

为什么我们需要从核函数中提取特征点回来。我们只需要向神经网络提供从花键获得的特征点,并使用RDF和核函数完成分类。对吗?

根据我的理解,特征转换应该由花键函数来完成。对吗?

混乱在哪里呢?是我糊涂了还是你糊涂了:))

 
FxTrader562:

我在这里完全被搞糊涂了:))

核函数是一种分类技术,可以更快地运行分类过程,对吗?

为什么我们需要从核函数中提取特征点回来。我们只需要向神经网络提供从花键获得的特征点,并使用RDF和核函数完成分类。对吗?

根据我的理解,特征转换应该由花键函数来完成。对吗?

混乱在哪里呢?是我糊涂了还是你糊涂了:))

不,我们正在使用ktricks将特征投射到另一个维度的空间,我们需要这些投射的新坐标作为新的数据,然后我们学习RDF

它是一个张量和矢量代数,但我在这里是个新手,但我学得很快 )

如果你认识懂矢量代数的人--请邀请

或者让我们在论坛版本中添加该主题
 
Maxim Dmitrievsky:

不,我们正在使用ktricks将特征投射到另一个维度的空间,我们需要这些投射的新坐标作为新的数据点,然后我们学习RDF

它是一个张量和矢量代数,但我在这里是个新手,但我学得很快 )

如果你认识懂矢量代数的人--请邀请

我越来越理解你要找的东西了......基本上,我们低维的输入向量的高维坐标,对吗?

我将很快研究一下矢量代数。我认为我们可以很容易地从谷歌和YouTube上获得一切。如果我找到的话,我将发布一些链接。

我在大学里学习了很长时间的向量代数,因此,很快就看透了它。

 
FxTrader562:

我越来越理解你要找的东西了......基本上,我们低维的输入向量的高维坐标,对吗?

我将很快研究一下矢量代数。我认为我们可以很容易地从谷歌和YouTube上获得一切。如果我找到的话,我将发布一些链接。

我在大学里学过很长时间的向量代数,因此,很快就看完了。

是的,我们需要像这个视频中那样


例如,我们有2维的特征空间,但我们不能线性分离它,然后我们加入3维的特征,现在我们可以通过超平面分离它。

内核 允许我们在不增加3维特征的情况下进行点的投影,所以如果我们有2个特征而不是3个,我们也可以用同样的方法来分离它。

但是...我们怎样才能得到在另一个维度上线性分离的变换后的二维特征。我们需要一个新的二维投影,即来自另一个矢量空间的新点。

我认为这是个魔术,但无论如何,它是一个魔术)。

 
Maxim Dmitrievsky:

是的,我们需要像这个视频中那样


例如,我们有2维的特征空间,但我们不能线性分离它,然后我们加入3维的特征,现在我们可以通过超平面分离它。

内核 允许我们在不增加3维特征的情况下进行点的投影,所以如果我们有2个特征而不是3个,我们也可以用同样的方法来分离它。

但是...我们怎样才能得到在另一个维度上线性分离的变换后的二维特征。我们需要一个新的二维投影,即来自另一个矢量空间的新点。

嗯,正如我所说,我很早就学习了矢量代数,因此,我已经有了基本的理解。但在这种情况下,我觉得有点困难。

这都是关于点积和交叉积。

点积的大小由A.BCos(A和B之间的角度)决定。这被称为内积

交叉积是A和B两个向量相乘后的向量,其大小为A.B.Sin(A和B之间的角度)。这就是所谓的外部产品。所以我理解了这行代码,我想你也会理解这一点。

P = cvxopt.matrix(np.outer(y,y) * K)

这只是一个交叉产品,我想。

这是一个与内核映射有关的视频。

https://www.youtube.com/watch?v=7_T9AdeWY3k

 
FxTrader562:

嗯,正如我所说,我很早就学习了矢量代数,因此,我已经有了基本的理解。但在这种情况下,我觉得有点困难。

这都是关于点积和交叉积。

点积的大小由A.BCos(A和B之间的角度)决定。这被称为内积

交叉积是A和B两个向量相乘后的向量,其大小为A.B.Sin(A和B之间的角度)。这就是所谓的外部产品。所以我理解了这行代码,我想你也会理解这一点。

这只是一个交叉产品,我想。

这是一个与内核映射有关的视频。

https://www.youtube.com/watch?v=7_T9AdeWY3k

是的,它来自这里http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

但我无法将内核和SVM与源代码分开。

 
Maxim Dmitrievsky:

是的,它来自这里http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log

但我无法将内核和SVM与源代码分开。

据我所知,高维空间的坐标必须是核函数值和2个输入向量。这意味着我们有2个输入矢量,我们需要第3个矢量,它被添加到第3个坐标。

例如,如果你输入2个向量x和y,并将其映射到3d空间,就可以得到内核值K(x,y)。

然后,最终矢量在三维空间中的坐标必须是(x,y,k(x,y))。

接下来,如果你把它映射到4D空间,得到内核值k1(x,y,k(x,y))。

那么,4D空间的坐标应该是(x,y,k(x,y),k1(x,y,k(x,y))),因此....。

它与你现有的源代码是否有意义或产生任何联系?

或者另一种方法是得到张量与映射坐标的角度,然后取该角度的余弦并乘以张量的大小。
 

就是这样,我找对了人,他解释得很好,我一下子就记住了。