交易中的机器学习:理论、模型、实践和算法交易 - 页 627 1...620621622623624625626627628629630631632633634...3399 新评论 Maxim Dmitrievsky 2018.01.30 06:42 #6261 阿列克谢-特伦特夫。我想知道他为什么要删除第一个帖子。他在博客上写下了这个计划。=) 是的,只是累了,在论坛上搜索他自己的帖子:D所以至少链接能够给 Mihail Marchukajtes 2018.01.30 06:51 #6262 马克西姆-德米特里耶夫斯基。 是的,只是厌倦了在论坛上搜索自己的帖子:D,所以我至少可以给你一个链接。 这就是我写这篇文章的原因,不要对不同的人重复同样的事情...... Maxim Dmitrievsky 2018.01.30 06:52 #6263 Mihail Marchukajtes:我还不想在这里做文章,但如果结果很有趣,我可以以后再做。 我很懒,慢慢做,有一个星期的休息时间 :) Mihail Marchukajtes 2018.01.30 07:00 #6264 马克西姆-德米特里耶夫斯基。我还不想在这里做文章,但如果结果很有趣,我可以以后再做。 我很懒,慢慢做,有一个星期的休息时间 :) 我写了大约一个月的编辑...从第一版开始到.....。 Mykola Demko 2018.01.30 07:00 #6265 马克西姆-德米特里耶夫斯基。勾勒出一个新的网络图,这是第一个描述。以后会有一个续集(希望如此)。 我为纪念馆创建了一个博客,因为我已经厌倦了在论坛上寻找零碎的想法。 https://rationatrix.blogspot.ru/2018/01/blog-post.html你混淆了温暖和柔软。输送净结果数据是一种有缺陷的做法。 你只会让网络混乱,它无法理解为什么同样的模式在一种情况下上升,在另一种情况下下降。 这是因为数据已经与以前的结果值混在一起。这指的是之前交易的结果和股权。 你试图在网格本身的主体中插入一个健身函数。但知道什么是好的什么是坏的是国外的知识,它与电网机制无关。 如果你想把故事从MLPs转移到递归网格上。 但你的假设是(IMHO)kotopedo。 ZS 是的,在你写的时候,你写道,再培训有问题。现代NS科学很早就解决了这个问题。 最简单、最清晰、最有效的方法是交叉验证法(谷歌)。 Aleksey Terentev 2018.01.30 07:05 #6266 尼古拉-德姆科。你混淆了温暖和柔软。提供净结果数据是一种不好的做法。 你只会混淆网格,它将无法理解为什么同样的图案在一种情况下上升,在另一种情况下下降。 这是因为数据已经与以前的结果值混在一起。这指的是之前交易的结果和股权。 你试图在网格本身的主体中插入一个健身函数。但知道什么是好的什么是坏的是国外的知识,它与电网机制无关。 如果你想把故事从MLPs转移到递归网格上。 但是,你的假设是(IMHO)的cotopoe。显然,神经网络对你来说由一个定义组成--Perseptron。IMHO,你甚至没有意识到这只是可见的冰山一角,而且是一个很小的冰山。 而过度训练还没有被任何人打败。你对国防部没有太多的了解。 Maxim Dmitrievsky 2018.01.30 07:05 #6267 尼古拉-德姆科。你混淆了温暖和柔软。提供净结果数据是一种不好的做法。 你只会混淆网格,它将无法理解为什么同样的图案在一种情况下上升,在另一种情况下下降。 这是因为数据已经与以前的结果值混在一起。这指的是之前交易的结果和股权。 你试图在网格本身的主体中插入一个健身函数。但知道什么是好的什么是坏的是国外的知识,它与电网机制无关。 如果你想把故事从MLPs转移到递归网格上。 但是,你的假设是(IMHO)的cotopoe。我想做一个备份电网的模拟。不幸的是,循环网没有环境的概念,也没有反应。有强化作用的网子确实如此。你怎么做? 我想到的第一件事是,如果它在外面的表现不令人满意,就把它踢出去,例如通过eq。 也许是Cotopec,我自己也不知道,我认为......它只是很有趣:)而且它很容易使用,不需要很长时间。 Maxim Dmitrievsky 2018.01.30 07:07 #6268 尼古拉-德姆科。是的,当我在写的时候,你写到有一个过度训练的问题。现代NS科学很早就解决了这个问题。 最简单、最清晰、最有效的方法是交叉验证法(谷歌)。我知道这一切,交叉验证也是一种拟合,但更微妙。 复发也是自我循环的,有时无法学习 我不太明白--你说你不能把网络的输出反馈给输入,然后你又告诉我用递归法......:) 这就是它所做的一切,它吃了它的产出。 在最简单的情况下,递归就是一个普通的MLP,它自己吃掉自己。 Mykola Demko 2018.01.30 08:00 #6269 马克西姆-德米特里耶夫斯基。我知道这一切,交叉验证也是一个合适的,但更复杂的方法。 复发也是自我循环的,有时无法学习 我不明白--你说你不能把网络的输出端送入输入端,然后你告诉我用递归法......:) 这就是它所做的一切,它吃了它的产出。 复发基本上就是一个吃自己的MLP。不,我说的是,你不能把市场数据和网络产出混在一起。 换句话说,你的网络处理报价,而你给它提供关于以前的交易是否成功的数据。 而一般来说,网络工作得好坏,这是一个独立的单元(我习惯于在GA中称其为健身函数,在NS中称其为误差函数,但想法是一样的)。 假设你用backprop训练一个网络,结果发现你有一个错误成为数据的一部分,黄油手。我希望你能理解我的意思。 Mykola Demko 2018.01.30 08:02 #6270 阿列克谢-特伦特夫。对你来说,所有神经网络的判断由一个定义组成--Perseptron。IMHO,你甚至不知道这只是可见的冰山一角,甚至这也是一个小小的冰山。 而且从来没有人打败过再培训。你对国防部的领域了解甚少。我说的是马克西姆提出的具体网络。 如果你不理解三个句子......。你知道,我为什么要告诉你))。 1...620621622623624625626627628629630631632633634...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我想知道他为什么要删除第一个帖子。他在博客上写下了这个计划。=)
是的,只是厌倦了在论坛上搜索自己的帖子:D,所以我至少可以给你一个链接。
我还不想在这里做文章,但如果结果很有趣,我可以以后再做。
我很懒,慢慢做,有一个星期的休息时间 :)
我还不想在这里做文章,但如果结果很有趣,我可以以后再做。
我很懒,慢慢做,有一个星期的休息时间 :)
勾勒出一个新的网络图,这是第一个描述。以后会有一个续集(希望如此)。
我为纪念馆创建了一个博客,因为我已经厌倦了在论坛上寻找零碎的想法。
https://rationatrix.blogspot.ru/2018/01/blog-post.html
你混淆了温暖和柔软。输送净结果数据是一种有缺陷的做法。
你只会让网络混乱,它无法理解为什么同样的模式在一种情况下上升,在另一种情况下下降。
这是因为数据已经与以前的结果值混在一起。这指的是之前交易的结果和股权。
你试图在网格本身的主体中插入一个健身函数。但知道什么是好的什么是坏的是国外的知识,它与电网机制无关。
如果你想把故事从MLPs转移到递归网格上。
但你的假设是(IMHO)kotopedo。
ZS 是的,在你写的时候,你写道,再培训有问题。现代NS科学很早就解决了这个问题。
最简单、最清晰、最有效的方法是交叉验证法(谷歌)。
你混淆了温暖和柔软。提供净结果数据是一种不好的做法。
你只会混淆网格,它将无法理解为什么同样的图案在一种情况下上升,在另一种情况下下降。
这是因为数据已经与以前的结果值混在一起。这指的是之前交易的结果和股权。
你试图在网格本身的主体中插入一个健身函数。但知道什么是好的什么是坏的是国外的知识,它与电网机制无关。
如果你想把故事从MLPs转移到递归网格上。
但是,你的假设是(IMHO)的cotopoe。
显然,神经网络对你来说由一个定义组成--Perseptron。IMHO,你甚至没有意识到这只是可见的冰山一角,而且是一个很小的冰山。
而过度训练还没有被任何人打败。你对国防部没有太多的了解。你混淆了温暖和柔软。提供净结果数据是一种不好的做法。
你只会混淆网格,它将无法理解为什么同样的图案在一种情况下上升,在另一种情况下下降。
这是因为数据已经与以前的结果值混在一起。这指的是之前交易的结果和股权。
你试图在网格本身的主体中插入一个健身函数。但知道什么是好的什么是坏的是国外的知识,它与电网机制无关。
如果你想把故事从MLPs转移到递归网格上。
但是,你的假设是(IMHO)的cotopoe。
我想做一个备份电网的模拟。不幸的是,循环网没有环境的概念,也没有反应。有强化作用的网子确实如此。你怎么做? 我想到的第一件事是,如果它在外面的表现不令人满意,就把它踢出去,例如通过eq。
也许是Cotopec,我自己也不知道,我认为......它只是很有趣:)而且它很容易使用,不需要很长时间。
是的,当我在写的时候,你写到有一个过度训练的问题。现代NS科学很早就解决了这个问题。
最简单、最清晰、最有效的方法是交叉验证法(谷歌)。
我知道这一切,交叉验证也是一种拟合,但更微妙。
复发也是自我循环的,有时无法学习
我不太明白--你说你不能把网络的输出反馈给输入,然后你又告诉我用递归法......:) 这就是它所做的一切,它吃了它的产出。
在最简单的情况下,递归就是一个普通的MLP,它自己吃掉自己。
我知道这一切,交叉验证也是一个合适的,但更复杂的方法。
复发也是自我循环的,有时无法学习
我不明白--你说你不能把网络的输出端送入输入端,然后你告诉我用递归法......:) 这就是它所做的一切,它吃了它的产出。
复发基本上就是一个吃自己的MLP。
不,我说的是,你不能把市场数据和网络产出混在一起。
换句话说,你的网络处理报价,而你给它提供关于以前的交易是否成功的数据。
而一般来说,网络工作得好坏,这是一个独立的单元(我习惯于在GA中称其为健身函数,在NS中称其为误差函数,但想法是一样的)。
假设你用backprop训练一个网络,结果发现你有一个错误成为数据的一部分,黄油手。我希望你能理解我的意思。
对你来说,所有神经网络的判断由一个定义组成--Perseptron。IMHO,你甚至不知道这只是可见的冰山一角,甚至这也是一个小小的冰山。
而且从来没有人打败过再培训。你对国防部的领域了解甚少。我说的是马克西姆提出的具体网络。
如果你不理解三个句子......。你知道,我为什么要告诉你))。