市场礼仪或雷区中的良好风度 - 页 25 1...181920212223242526272829303132...104 新评论 Neutron 2009.05.16 10:26 #241 registred писал(а)>> 先生们,你们能不能告诉我,你们是如何处理飞入浅的局部低点和弯曲的初始重量?我明白,在开始时,它们对训练没有影响,但后来它们开始对结果产生很大的影响。 我规定每一步都要重新训练网络。显然,在这种设置中,网络可能偶尔会 "不在状态",但在下一步,它就在需要的地方了。我的想法是基于这样一个事实:网络学习 "错误 "东西的概率明显小于1,而且一般来说,在大样本的再训练中,"疯孩子 "的贡献是最小的。 paralocus 写道>>。我对如何减少另一个epoch.... 的贡献乘数有点困惑。我在训练结束时,输出层的权重非常小,而隐藏层的权重却很大,相反。 提醒:W2 [0] = -0.0414 W2 [1] = 0.0188 W2 [2] = -0.0539 提醒:W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5]=-37.5899 在这里,你将不得不自己思考。我将只预测预期价格上涨的迹象(+/-1)。这与交易的特殊性有关(见上面几个帖子中的交易基本方程式),以及试图同时预测振幅和符号的事实使得它具有灾难性的难度(TC架构和训练纪元的数量正在增加)。在这里,没有家庭PC的力量是不够的,即使我们不在每一步都对电网进行重新培训!"。因此,传统上,在预测绝对的BP值时,在每个历时中控制学习误差,直到它变得小于一些。这个过程可能不会收敛--网格挂在一个无限的循环中,需要有机制将其从昏迷状态中拉出来。当我对此进行实验时,我控制了学习错误的减少率,当条件得到满足时--重新修改所有权重,即实际上是重新开始学习。这时,我必须找出学习所需的大概历时数,每个历时的权重(每个权重校正前的系数)按1-j/N的规律减少。在我放弃了预测振幅后,网络开始快速有效地学习,因此有可能在不监测学习误差的情况下引入固定数量的历时训练。 此外,从预测到预测,为了减少历时的数量,我保留了网络的权重值,而没有将它们随机化。有时我有一种 "粘 "某些重量的效果,表现为它们的无限增加或趋向于零。我是这样处理的:当做一个新的预测时,我用th()操作符影响了所有的权重。它的工作很有效率。 paralocus 2009.05.16 10:48 #242 Neutron >> : ...固定数量的训练纪元,不监测学习误差。 >>问题已经解决了! paralocus 2009.05.16 10:55 #243 对中子 我正在把我所有的两层材料改写成更紧凑的形式。我想把它全部简化为两个或三个函数的矩阵运算。我一完成就会公布。 同时,我将 "切出 "振幅预测。事实上--这个标志是绰绰有余的。 paralocus 2009.05.16 11:10 #244 Neutron >> : 这就是你必须为自己考虑的地方。 你是说考虑如何从计算振幅误差到计算符号误差? 你是说这里? d_2_out = test - out; // Ошибка на выходе сетки Neutron 2009.05.16 12:20 #245 不,我是在泛泛而谈。很明显,你会走自己的路... paralocus 2009.05.16 12:30 #246 有几个问题,为了避免在这里引起不必要的骚动,我想通过专线问一下。 我知道你不是一个业余的... 我可以吗? Neutron 2009.05.16 13:07 #247 你问吧! paralocus 2009.05.16 15:07 #248 Neutron >> : 你问吧! >> ::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::.) Neutron 2009.05.17 04:24 #249 已回答。 [删除] 2009.05.17 07:43 #250 Neutron >> : 我规定每一步都要重新训练网络。显然,在这种设置中,网络有时可能 "在错误的地方",但在下一步,它已经在正确的地方了。这个想法是基于这样一个事实:网络被训练成 "错误 "的概率远远小于1,所以总体而言,在大样本的再训练中,"疯孩子 "的贡献是最小的。 我不太清楚你说的 "每一步都要重新培训 "是什么意思? 1...181920212223242526272829303132...104 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
先生们,你们能不能告诉我,你们是如何处理飞入浅的局部低点和弯曲的初始重量?我明白,在开始时,它们对训练没有影响,但后来它们开始对结果产生很大的影响。
我规定每一步都要重新训练网络。显然,在这种设置中,网络可能偶尔会 "不在状态",但在下一步,它就在需要的地方了。我的想法是基于这样一个事实:网络学习 "错误 "东西的概率明显小于1,而且一般来说,在大样本的再训练中,"疯孩子 "的贡献是最小的。
我对如何减少另一个epoch.... 的贡献乘数有点困惑。我在训练结束时,输出层的权重非常小,而隐藏层的权重却很大,相反。
提醒:W2 [0] = -0.0414 W2 [1] = 0.0188 W2 [2] = -0.0539
提醒:W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5]=-37.5899在这里,你将不得不自己思考。我将只预测预期价格上涨的迹象(+/-1)。这与交易的特殊性有关(见上面几个帖子中的交易基本方程式),以及试图同时预测振幅和符号的事实使得它具有灾难性的难度(TC架构和训练纪元的数量正在增加)。在这里,没有家庭PC的力量是不够的,即使我们不在每一步都对电网进行重新培训!"。因此,传统上,在预测绝对的BP值时,在每个历时中控制学习误差,直到它变得小于一些。这个过程可能不会收敛--网格挂在一个无限的循环中,需要有机制将其从昏迷状态中拉出来。当我对此进行实验时,我控制了学习错误的减少率,当条件得到满足时--重新修改所有权重,即实际上是重新开始学习。这时,我必须找出学习所需的大概历时数,每个历时的权重(每个权重校正前的系数)按1-j/N的规律减少。在我放弃了预测振幅后,网络开始快速有效地学习,因此有可能在不监测学习误差的情况下引入固定数量的历时训练。
此外,从预测到预测,为了减少历时的数量,我保留了网络的权重值,而没有将它们随机化。有时我有一种 "粘 "某些重量的效果,表现为它们的无限增加或趋向于零。我是这样处理的:当做一个新的预测时,我用th()操作符影响了所有的权重。它的工作很有效率。
...固定数量的训练纪元,不监测学习误差。
>>问题已经解决了!
对中子
我正在把我所有的两层材料改写成更紧凑的形式。我想把它全部简化为两个或三个函数的矩阵运算。我一完成就会公布。
同时,我将 "切出 "振幅预测。事实上--这个标志是绰绰有余的。
这就是你必须为自己考虑的地方。
你是说考虑如何从计算振幅误差到计算符号误差?
你是说这里?
不,我是在泛泛而谈。很明显,你会走自己的路...
有几个问题,为了避免在这里引起不必要的骚动,我想通过专线问一下。
我知道你不是一个业余的...
我可以吗?
你问吧!
>> ::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::.)
我规定每一步都要重新训练网络。显然,在这种设置中,网络有时可能 "在错误的地方",但在下一步,它已经在正确的地方了。这个想法是基于这样一个事实:网络被训练成 "错误 "的概率远远小于1,所以总体而言,在大样本的再训练中,"疯孩子 "的贡献是最小的。
我不太清楚你说的 "每一步都要重新培训 "是什么意思?