市场礼仪或雷区中的良好风度 - 页 58 1...515253545556575859606162636465...104 新评论 paralocus 2009.06.10 06:34 #571 gpwr >> : 我想你又误解了我的意思。 我真的不明白你要如何影响这个多项式的系数,以便找到全局最小误差(即学习)。我给你看一下训练后的神经元的权重。 在同一载体上进行了三次实验。最右边的经验是最成功的。也就是说,我明白,有了一个现成的拓扑结构,挑选这样一个多项式并不困难(理论上),它可以很好地平滑这个拓扑结构,但请解释一下,你要如何为一个未经训练的人计算这个拓扑结构(已经训练过的网格)?换句话说--影响kf的算法是什么,导致了学习误差函数的减少?你认识它吗? Сергей 2009.06.10 07:48 #572 Neutron >> : 特别为你而建。 你可以清楚地看到,FZ始终存在,并在科蒂尔的剧烈运动上直观可见。 谢尔盖,我不会再和你讨论这个话题,因为它是微不足道的,完全没有用。学习数学,下次你想出下一个超级绝妙的想法时,为了实施这个想法,你认为需要一两个研究机构和一个PC集群,你想一下--也许你只是不知道或不理解。毕竟,这比 "划时代的发现 "更有可能,在你之前长期践踏一切的地方。 好吧,考虑到相位延迟(这是一个术语)存在于两种情况下 坦率地说,而你让我感到厌烦 :o) Сергей 2009.06.10 07:49 #573 HideYourRichess >> : 我很惊讶地看到,有一种算法能很好地证明这一点。我正在寻找一个错误。它看起来非常简单。它并不像那样工作。 如果我不是一个数学家,得到了正确的答案也不奇怪,那么对一个专业人员来说又有什么可说的呢!?:о))) Сергей 2009.06.10 08:00 #574 对中子 高/低点和收盘之间是否有相位延迟?:о)))所以,根据你的视觉方法,有一个。 它能从哪里来? 纠正和补充:只要没有人在看,我就会做一些小的纠正。我在匆忙中犯了一个小错误,在-张图片上面的打开和关闭。一个信号相对于另一个信号是延迟的,但在这个特定的情况下,它不是一个相移。 没有相位延迟。没有执行 会导致转变的数学运算。不存在突然出现的相位转移。相反,有一个过程选择,一个说 "这就是过程 "的规则。 如果 "转变 "是以 "开放 "为先,"关闭 "为后来考虑的,那么是的--有一个 "转变"(我不打算反对这一点)。 但我甚至不知道哪种数学方法能在这种特定情况下 "找到 "转变。 这些信号是相互替代的。 而要选择Close进行预测,就必须要有一个精确到令人难以置信的系统。而对于我这个简单的想法,顺便说一下,它是非常 "机器人 "的,没有延迟(H+L)/2会有任何影响。 PS:天啊,Seryoga Seryoga,--这些过程是单开的,绝对的。现在就这样了,再见。祝好运 paralocus 2009.06.11 19:22 #575 对中子 当我在等待新的马特卡德时,我正在重复我所学到的东西,也就是说,我正在乱用单层。你让我显示错误矢量的长度,这就是我得到的结果。 X统计数字,L长度(如果我没记错的话)。 这样计算的。 这里i 是统计学上的循环 X 是输入向量(在当前训练向量的整个长度上求和)。误差平方与训练向量的平方一起在整个历时中累积。 而在一个纪元结束时,其计算方法如下。 这里的n 是跨纪元的周期。 一切都做得正确吗? Neutron 2009.06.12 02:48 #576 从图中判断,某处有一个错误--我们应该看到网络的逐步学习(错误向量长度减少),因为我们从一个历时到另一个历时。这是不可见的。原因和以往一样,可能是一辆马车和一辆小推车。例如,图中显示的是已经训练好的网络(最后一个epoch)的误差向量大小与独立实验数的关系,而不是从epoch开始的误差向量大小...。从你的--"通过X统计......"--什么统计?我们又不应该在这里打字。还有这个--"...由L长度", - L是归一化的数据向量的长度,必须位于1附近,在圆周的末端逐渐减少...我们看到不同的东西。 在这里,看看它应该是什么样子的。 这里,蓝色的显示了训练样本上的误差向量的长度(我们看的是网格是如何训练的,而不是如何预测的)。总而言之,为了清楚起见,我们使用了200个训练历时和k=1,以表明在这种特殊情况下,网是完全训练好的(误差为零),只是用心学习训练样本。它甚至更快。问题是,在有这种权重的测试样本上,我们的加法器将显示非洲的天气,即它完全被剥夺了概括能力。图中的红线显示的是一系列实验(n=50)的方差(离散性),而蓝线显示的是平均数(我确实在编制统计数据,但与你的方式不同,我后面会讲到)。 你的最后两个表达式几乎是正确的,除了不应该有一个关于统计的索引(你只做一个实验,你需要一个新的代码,没有一组统计),而且我不理解第一个方程式。它是从哪里来的?我有一个类似的街区,看起来像这样。 其中j, 是对训练向量的循环。请注意,当指数为平方时,我的指数明显变小了! 顺便说一下,我放弃了使用挤压函数来计算权重,先是单层,然后是双层。没有它,结果也一样好,而且麻烦也少。 Hide 2009.06.12 05:59 #577 grasn >> : 如果我这个不是数学家的人得到了它,也就不奇怪了,所以谈不上什么专业!:о))) 弄明白了。我所做的可以被认为是AR的原始版本,或者反过来说,AR可以被认为是我所做的的改进版本。 paralocus 2009.06.12 06:53 #578 Neutron >> : 你的后两个表达式几乎是正确的,除了在统计数据上不应该有索引(你只做一个实验,你需要新的代码,没有一组统计数据),但我不明白第一个方程。它是从哪里来的?我有一个类似的街区,看起来像这样。 其中j,是对训练向量的循环。请注意,当指数为平方时,我的指数明显变小了! 顺便说一下,我放弃了使用挤压函数来计算权重,先是单层,然后是双层。没有它,结果也一样好,而且麻烦也少。 第一个方程是计算误差向量的长度,并将其归一化为数据向量的长度(也就是我目前理解的方式),原因可能是我真的需要没有统计集的新代码。我现在就去做。 至于压缩功能,它没有直接对我起作用(也就是说,结果并不明显),所以我没有使用它。 Neutron 2009.06.12 06:58 #579 paralocus писал(а)>> 第一个方程是计算误差向量的长度,并通过数据向量的长度将其归一化(也就是我目前理解的方法) 那么最后两个表达式代表什么? 我以为第二个是找矢量长度的平方,第三个是找归一化长度。如果是这样,为什么是第一个表达? Сергей 2009.06.12 07:17 #580 HideYourRichess >> : 我已经搞清楚了。我所做的可以被认为是AR的原始版本,或者反过来说,AR可以被认为是我所做的改进版本。 我没有包括模型识别,即样本长度和模型顺序的最佳定义。有了这些,我认为有可能达到90%。我一点也不怀疑你的结果会一样好,甚至更好。;) 1...515253545556575859606162636465...104 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我想你又误解了我的意思。
我真的不明白你要如何影响这个多项式的系数,以便找到全局最小误差(即学习)。我给你看一下训练后的神经元的权重。
在同一载体上进行了三次实验。最右边的经验是最成功的。也就是说,我明白,有了一个现成的拓扑结构,挑选这样一个多项式并不困难(理论上),它可以很好地平滑这个拓扑结构,但请解释一下,你要如何为一个未经训练的人计算这个拓扑结构(已经训练过的网格)?换句话说--影响kf的算法是什么,导致了学习误差函数的减少?你认识它吗?
特别为你而建。
你可以清楚地看到,FZ始终存在,并在科蒂尔的剧烈运动上直观可见。
谢尔盖,我不会再和你讨论这个话题,因为它是微不足道的,完全没有用。学习数学,下次你想出下一个超级绝妙的想法时,为了实施这个想法,你认为需要一两个研究机构和一个PC集群,你想一下--也许你只是不知道或不理解。毕竟,这比 "划时代的发现 "更有可能,在你之前长期践踏一切的地方。
好吧,考虑到相位延迟(这是一个术语)存在于两种情况下
坦率地说,而你让我感到厌烦 :o)
我很惊讶地看到,有一种算法能很好地证明这一点。我正在寻找一个错误。它看起来非常简单。它并不像那样工作。
如果我不是一个数学家,得到了正确的答案也不奇怪,那么对一个专业人员来说又有什么可说的呢!?:о)))
对中子
高/低点和收盘之间是否有相位延迟?:о)))所以,根据你的视觉方法,有一个。
它能从哪里来?
纠正和补充:只要没有人在看,我就会做一些小的纠正。我在匆忙中犯了一个小错误,在-张图片上面的打开和关闭。一个信号相对于另一个信号是延迟的,但在这个特定的情况下,它不是一个相移。
没有相位延迟。没有执行 会导致转变的数学运算。不存在突然出现的相位转移。相反,有一个过程选择,一个说 "这就是过程 "的规则。
如果 "转变 "是以 "开放 "为先,"关闭 "为后来考虑的,那么是的--有一个 "转变"(我不打算反对这一点)。 但我甚至不知道哪种数学方法能在这种特定情况下 "找到 "转变。 这些信号是相互替代的。
而要选择Close进行预测,就必须要有一个精确到令人难以置信的系统。而对于我这个简单的想法,顺便说一下,它是非常 "机器人 "的,没有延迟(H+L)/2会有任何影响。
PS:天啊,Seryoga Seryoga,--这些过程是单开的,绝对的。现在就这样了,再见。祝好运
对中子
当我在等待新的马特卡德时,我正在重复我所学到的东西,也就是说,我正在乱用单层。你让我显示错误矢量的长度,这就是我得到的结果。
X统计数字,L长度(如果我没记错的话)。
这样计算的。
这里i 是统计学上的循环 X 是输入向量(在当前训练向量的整个长度上求和)。误差平方与训练向量的平方一起在整个历时中累积。
而在一个纪元结束时,其计算方法如下。
这里的n 是跨纪元的周期。
一切都做得正确吗?
从图中判断,某处有一个错误--我们应该看到网络的逐步学习(错误向量长度减少),因为我们从一个历时到另一个历时。这是不可见的。原因和以往一样,可能是一辆马车和一辆小推车。例如,图中显示的是已经训练好的网络(最后一个epoch)的误差向量大小与独立实验数的关系,而不是从epoch开始的误差向量大小...。从你的--"通过X统计......"--什么统计?我们又不应该在这里打字。还有这个--"...由L长度", - L是归一化的数据向量的长度,必须位于1附近,在圆周的末端逐渐减少...我们看到不同的东西。
在这里,看看它应该是什么样子的。
这里,蓝色的显示了训练样本上的误差向量的长度(我们看的是网格是如何训练的,而不是如何预测的)。总而言之,为了清楚起见,我们使用了200个训练历时和k=1,以表明在这种特殊情况下,网是完全训练好的(误差为零),只是用心学习训练样本。它甚至更快。问题是,在有这种权重的测试样本上,我们的加法器将显示非洲的天气,即它完全被剥夺了概括能力。图中的红线显示的是一系列实验(n=50)的方差(离散性),而蓝线显示的是平均数(我确实在编制统计数据,但与你的方式不同,我后面会讲到)。
你的最后两个表达式几乎是正确的,除了不应该有一个关于统计的索引(你只做一个实验,你需要一个新的代码,没有一组统计),而且我不理解第一个方程式。它是从哪里来的?我有一个类似的街区,看起来像这样。
其中j, 是对训练向量的循环。请注意,当指数为平方时,我的指数明显变小了!
顺便说一下,我放弃了使用挤压函数来计算权重,先是单层,然后是双层。没有它,结果也一样好,而且麻烦也少。
如果我这个不是数学家的人得到了它,也就不奇怪了,所以谈不上什么专业!:о)))
弄明白了。我所做的可以被认为是AR的原始版本,或者反过来说,AR可以被认为是我所做的的改进版本。
你的后两个表达式几乎是正确的,除了在统计数据上不应该有索引(你只做一个实验,你需要新的代码,没有一组统计数据),但我不明白第一个方程。它是从哪里来的?我有一个类似的街区,看起来像这样。
其中j,是对训练向量的循环。请注意,当指数为平方时,我的指数明显变小了!
顺便说一下,我放弃了使用挤压函数来计算权重,先是单层,然后是双层。没有它,结果也一样好,而且麻烦也少。
第一个方程是计算误差向量的长度,并将其归一化为数据向量的长度(也就是我目前理解的方式),原因可能是我真的需要没有统计集的新代码。我现在就去做。
至于压缩功能,它没有直接对我起作用(也就是说,结果并不明显),所以我没有使用它。
第一个方程是计算误差向量的长度,并通过数据向量的长度将其归一化(也就是我目前理解的方法)
那么最后两个表达式代表什么?
我以为第二个是找矢量长度的平方,第三个是找归一化长度。如果是这样,为什么是第一个表达?
我已经搞清楚了。我所做的可以被认为是AR的原始版本,或者反过来说,AR可以被认为是我所做的改进版本。
我没有包括模型识别,即样本长度和模型顺序的最佳定义。有了这些,我认为有可能达到90%。我一点也不怀疑你的结果会一样好,甚至更好。;)