插值、近似等(alglib包)。 - 页 14 1...7891011121314151617 新评论 FxTrader562 2018.08.29 11:48 #131 Maxim Dmitrievsky :我不明白,但现在如何与格拉姆矩阵一起工作!只是,因为这不是一个新的转换特征,只是一个带有旧特征标量乘积 的ITS矩阵。那么,在这种情况下,我认为你需要对最后的标量表示进行第一次导数,以得到矢量。我的意思是只需要计算最终内核函数的斜率。 我想,应该有内置的MQL5库来计算任何函数的一阶导数或斜率。 在这种情况下,如果斜率为正,那么它应该是一个买入信号,如果斜率为负,那么它应该是一个卖出信号。 Maxim Dmitrievsky 2018.08.29 11:52 #132 FxTrader562:那么,在这种情况下,我认为你需要对最后的标量表示进行第一次导数,以得到矢量。我的意思是只需要计算最终内核函数的斜率。 我想,应该有内置的MQL5库来计算任何函数的一阶导数或斜率。 在这种情况下,如果斜率为正,那么它应该是一个买入信号,如果斜率为负,那么它应该是一个卖出信号。) nono...我们需要它作为RDF拟合的新特征点,同样是2或n个向量,但我认为是新的点。我只是无法想象 :D 首先我们需要用内核 进行转换,然后用另一个数据点将其转换为特征。 或者是矩阵行列式格拉米安--这个点 FxTrader562 2018.08.29 12:25 #133 Maxim Dmitrievsky:)) nono...我们需要它作为RDF拟合的新特征点,同样是2或n个向量,但我认为是新的点。我只是无法想象 :D 首先我们需要用内核 进行转换,然后用另一个数据点将其转换为特征。 或者是矩阵行列式格拉米安--这个点我在这里完全被搞糊涂了:)) 核函数是一种分类技术,可以更快地运行分类过程,对吗? 为什么我们需要从核函数中提取特征点回来。我们只需要向神经网络提供从花键获得的特征点,并使用RDF和核函数完成分类。对吗? 根据我的理解,特征转换应该由花键函数来完成。对吗? 混乱在哪里呢?是我糊涂了还是你糊涂了:)) Maxim Dmitrievsky 2018.08.29 12:28 #134 FxTrader562:我在这里完全被搞糊涂了:))核函数是一种分类技术,可以更快地运行分类过程,对吗?为什么我们需要从核函数中提取特征点回来。我们只需要向神经网络提供从花键获得的特征点,并使用RDF和核函数完成分类。对吗?根据我的理解,特征转换应该由花键函数来完成。对吗?混乱在哪里呢?是我糊涂了还是你糊涂了:))不,我们正在使用ktricks将特征投射到另一个维度的空间,我们需要这些投射的新坐标作为新的数据点,然后我们学习RDF它是一个张量和矢量代数,但我在这里是个新手,但我学得很快 )如果你认识懂矢量代数的人--请邀请 或者让我们在论坛版本中添加该主题 FxTrader562 2018.08.29 12:47 #135 Maxim Dmitrievsky:不,我们正在使用ktricks将特征投射到另一个维度的空间,我们需要这些投射的新坐标作为新的数据点,然后我们学习RDF它是一个张量和矢量代数,但我在这里是个新手,但我学得很快 ) 如果你认识懂矢量代数的人--请邀请我越来越理解你要找的东西了......基本上,我们低维的输入向量的高维坐标,对吗? 我将很快研究一下矢量代数。我认为我们可以很容易地从谷歌和YouTube上获得一切。如果我找到的话,我将发布一些链接。 我在大学里学习了很长时间的向量代数,因此,很快就看透了它。 Maxim Dmitrievsky 2018.08.29 12:58 #136 FxTrader562:我越来越理解你要找的东西了......基本上,我们低维的输入向量的高维坐标,对吗? 我将很快研究一下矢量代数。我认为我们可以很容易地从谷歌和YouTube上获得一切。如果我找到的话,我将发布一些链接。 我在大学里学过很长时间的向量代数,因此,很快就看完了。是的,我们需要像这个视频中那样 例如,我们有2维的特征空间,但我们不能线性分离它,然后我们加入3维的特征,现在我们可以通过超平面分离它。 但内核 允许我们在不增加3维特征的情况下进行点的投影,所以如果我们有2个特征而不是3个,我们也可以用同样的方法来分离它。但是...我们怎样才能得到在另一个维度上线性分离的变换后的二维特征。我们需要一个新的二维投影,即来自另一个矢量空间的新点。 我认为这是个魔术,但无论如何,它是一个魔术)。 FxTrader562 2018.08.29 13:13 #137 Maxim Dmitrievsky:是的,我们需要像这个视频中那样 例如,我们有2维的特征空间,但我们不能线性分离它,然后我们加入3维的特征,现在我们可以通过超平面分离它。 但内核 允许我们在不增加3维特征的情况下进行点的投影,所以如果我们有2个特征而不是3个,我们也可以用同样的方法来分离它。 但是...我们怎样才能得到在另一个维度上线性分离的变换后的二维特征。我们需要一个新的二维投影,即来自另一个矢量空间的新点。嗯,正如我所说,我很早就学习了矢量代数,因此,我已经有了基本的理解。但在这种情况下,我觉得有点困难。 这都是关于点积和交叉积。 点积的大小由A.BCos(A和B之间的角度)决定。这被称为内积 交叉积是A和B两个向量相乘后的向量,其大小为A.B.Sin(A和B之间的角度)。这就是所谓的外部产品。所以我理解了这行代码,我想你也会理解这一点。 P = cvxopt.matrix(np.outer(y,y) * K) 这只是一个交叉产品,我想。 这是一个与内核映射有关的视频。 https://www.youtube.com/watch?v=7_T9AdeWY3k Maxim Dmitrievsky 2018.08.29 13:18 #138 FxTrader562:嗯,正如我所说,我很早就学习了矢量代数,因此,我已经有了基本的理解。但在这种情况下,我觉得有点困难。 这都是关于点积和交叉积。 点积的大小由A.BCos(A和B之间的角度)决定。这被称为内积 交叉积是A和B两个向量相乘后的向量,其大小为A.B.Sin(A和B之间的角度)。这就是所谓的外部产品。所以我理解了这行代码,我想你也会理解这一点。 这只是一个交叉产品,我想。 这是一个与内核映射有关的视频。 https://www.youtube.com/watch?v=7_T9AdeWY3k是的,它来自这里http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log 但我无法将内核和SVM与源代码分开。 FxTrader562 2018.08.29 14:05 #139 Maxim Dmitrievsky:是的,它来自这里http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log 但我无法将内核和SVM与源代码分开。据我所知,高维空间的坐标必须是核函数值和2个输入向量。这意味着我们有2个输入矢量,我们需要第3个矢量,它被添加到第3个坐标。 例如,如果你输入2个向量x和y,并将其映射到3d空间,就可以得到内核值K(x,y)。 然后,最终矢量在三维空间中的坐标必须是(x,y,k(x,y))。 接下来,如果你把它映射到4D空间,得到内核值k1(x,y,k(x,y))。 那么,4D空间的坐标应该是(x,y,k(x,y),k1(x,y,k(x,y))),因此....。 它与你现有的源代码是否有意义或产生任何联系? 或者另一种方法是得到张量与映射坐标的角度,然后取该角度的余弦并乘以张量的大小。 Maxim Dmitrievsky 2018.08.29 15:22 #140 就是这样,我找对了人,他解释得很好,我一下子就记住了。 1...7891011121314151617 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我不明白,但现在如何与格拉姆矩阵一起工作!只是,因为这不是一个新的转换特征,只是一个带有旧特征标量乘积 的ITS矩阵。
那么,在这种情况下,我认为你需要对最后的标量表示进行第一次导数,以得到矢量。我的意思是只需要计算最终内核函数的斜率。
我想,应该有内置的MQL5库来计算任何函数的一阶导数或斜率。
在这种情况下,如果斜率为正,那么它应该是一个买入信号,如果斜率为负,那么它应该是一个卖出信号。
那么,在这种情况下,我认为你需要对最后的标量表示进行第一次导数,以得到矢量。我的意思是只需要计算最终内核函数的斜率。
我想,应该有内置的MQL5库来计算任何函数的一阶导数或斜率。
在这种情况下,如果斜率为正,那么它应该是一个买入信号,如果斜率为负,那么它应该是一个卖出信号。
) nono...我们需要它作为RDF拟合的新特征点,同样是2或n个向量,但我认为是新的点。
我只是无法想象 :D 首先我们需要用内核 进行转换,然后用另一个数据点将其转换为特征。
或者是矩阵行列式格拉米安--这个点
)) nono...我们需要它作为RDF拟合的新特征点,同样是2或n个向量,但我认为是新的点。
我只是无法想象 :D 首先我们需要用内核 进行转换,然后用另一个数据点将其转换为特征。
或者是矩阵行列式格拉米安--这个点
我在这里完全被搞糊涂了:))
核函数是一种分类技术,可以更快地运行分类过程,对吗?
为什么我们需要从核函数中提取特征点回来。我们只需要向神经网络提供从花键获得的特征点,并使用RDF和核函数完成分类。对吗?
根据我的理解,特征转换应该由花键函数来完成。对吗?
混乱在哪里呢?是我糊涂了还是你糊涂了:))
我在这里完全被搞糊涂了:))
核函数是一种分类技术,可以更快地运行分类过程,对吗?
为什么我们需要从核函数中提取特征点回来。我们只需要向神经网络提供从花键获得的特征点,并使用RDF和核函数完成分类。对吗?
根据我的理解,特征转换应该由花键函数来完成。对吗?
混乱在哪里呢?是我糊涂了还是你糊涂了:))
不,我们正在使用ktricks将特征投射到另一个维度的空间,我们需要这些投射的新坐标作为新的数据点,然后我们学习RDF
它是一个张量和矢量代数,但我在这里是个新手,但我学得很快 )
如果你认识懂矢量代数的人--请邀请
或者让我们在论坛版本中添加该主题不,我们正在使用ktricks将特征投射到另一个维度的空间,我们需要这些投射的新坐标作为新的数据点,然后我们学习RDF
它是一个张量和矢量代数,但我在这里是个新手,但我学得很快 )
如果你认识懂矢量代数的人--请邀请
我越来越理解你要找的东西了......基本上,我们低维的输入向量的高维坐标,对吗?
我将很快研究一下矢量代数。我认为我们可以很容易地从谷歌和YouTube上获得一切。如果我找到的话,我将发布一些链接。
我在大学里学习了很长时间的向量代数,因此,很快就看透了它。
我越来越理解你要找的东西了......基本上,我们低维的输入向量的高维坐标,对吗?
我将很快研究一下矢量代数。我认为我们可以很容易地从谷歌和YouTube上获得一切。如果我找到的话,我将发布一些链接。
我在大学里学过很长时间的向量代数,因此,很快就看完了。
是的,我们需要像这个视频中那样
例如,我们有2维的特征空间,但我们不能线性分离它,然后我们加入3维的特征,现在我们可以通过超平面分离它。
但内核 允许我们在不增加3维特征的情况下进行点的投影,所以如果我们有2个特征而不是3个,我们也可以用同样的方法来分离它。
但是...我们怎样才能得到在另一个维度上线性分离的变换后的二维特征。我们需要一个新的二维投影,即来自另一个矢量空间的新点。
我认为这是个魔术,但无论如何,它是一个魔术)。
是的,我们需要像这个视频中那样
例如,我们有2维的特征空间,但我们不能线性分离它,然后我们加入3维的特征,现在我们可以通过超平面分离它。
但内核 允许我们在不增加3维特征的情况下进行点的投影,所以如果我们有2个特征而不是3个,我们也可以用同样的方法来分离它。
但是...我们怎样才能得到在另一个维度上线性分离的变换后的二维特征。我们需要一个新的二维投影,即来自另一个矢量空间的新点。嗯,正如我所说,我很早就学习了矢量代数,因此,我已经有了基本的理解。但在这种情况下,我觉得有点困难。
这都是关于点积和交叉积。
点积的大小由A.BCos(A和B之间的角度)决定。这被称为内积
交叉积是A和B两个向量相乘后的向量,其大小为A.B.Sin(A和B之间的角度)。这就是所谓的外部产品。所以我理解了这行代码,我想你也会理解这一点。
P = cvxopt.matrix(np.outer(y,y) * K)
这只是一个交叉产品,我想。
这是一个与内核映射有关的视频。
https://www.youtube.com/watch?v=7_T9AdeWY3k
嗯,正如我所说,我很早就学习了矢量代数,因此,我已经有了基本的理解。但在这种情况下,我觉得有点困难。
这都是关于点积和交叉积。
点积的大小由A.BCos(A和B之间的角度)决定。这被称为内积
交叉积是A和B两个向量相乘后的向量,其大小为A.B.Sin(A和B之间的角度)。这就是所谓的外部产品。所以我理解了这行代码,我想你也会理解这一点。
这只是一个交叉产品,我想。
这是一个与内核映射有关的视频。
https://www.youtube.com/watch?v=7_T9AdeWY3k
是的,它来自这里http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log
但我无法将内核和SVM与源代码分开。
是的,它来自这里http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/#log
但我无法将内核和SVM与源代码分开。
据我所知,高维空间的坐标必须是核函数值和2个输入向量。这意味着我们有2个输入矢量,我们需要第3个矢量,它被添加到第3个坐标。
例如,如果你输入2个向量x和y,并将其映射到3d空间,就可以得到内核值K(x,y)。
然后,最终矢量在三维空间中的坐标必须是(x,y,k(x,y))。
接下来,如果你把它映射到4D空间,得到内核值k1(x,y,k(x,y))。
那么,4D空间的坐标应该是(x,y,k(x,y),k1(x,y,k(x,y))),因此....。
它与你现有的源代码是否有意义或产生任何联系?
或者另一种方法是得到张量与映射坐标的角度,然后取该角度的余弦并乘以张量的大小。就是这样,我找对了人,他解释得很好,我一下子就记住了。