交易中的机器学习:理论、模型、实践和算法交易 - 页 632 1...625626627628629630631632633634635636637638639...3399 新评论 Forester 2018.02.01 20:43 #6311 马克西姆-德米特里耶夫斯基。我一直在想重新学习信息的问题,所以我发现了一篇有趣的文章,并试图购买它,也许会把它添加到机器人中。 https://hackernoon.com/the-self-learning-quant-d3329fcc9915 只有他在最后有某种毒品,只是出于某种原因学会了购买。我也有同样的情况--NS分类器经常在一个类别中陷入僵局。各个班级需要统一起来。但我有一个班级的95%,另一个班级的5%。*20卷的行数是不可取的。 这与那篇文章中的内容差不多,我明白了。 我想我要改用回归/预测来做实验,看看会发生什么...... Aleksey Terentev 2018.02.01 21:42 #6312 马克西姆-德米特里耶夫斯基。我一直在想重新学习信息的问题,所以我发现了一篇有趣的文章,并试图购买它,也许会把它添加到机器人中。 https://hackernoon.com/the-self-learning-quant-d3329fcc9915 我想买一个机器人,但他有某种兴奋剂,不知道为什么,他只在最后学会了买。 好吧,他自己在那里解释说这是可以的,因为那里有一个明显的看涨趋势。那里的一位评论员也说,他的经纪人更喜欢持有多头头寸。是的,而且作者自己也谈到了故事的小长度。另外,在代码中,他没有使用伽马来调节奖励的价值随时间变化。 而总的来说,这篇文章是有用的,因为他在代码中给出了两个好的库的参考。 一个用于加载各种市场数据,另一个用于在数据上应用各种指标。为自己拿的。https://www.quandl.com/tools/pythonhttps://mrjbq7.github.io/ta-lib/ Aleksey Terentev 2018.02.01 22:14 #6313 elibrarius。我也有同样的情况--NS分类器经常进入同一个类别。班级需要统一起来。但我有一个班级的95%,另一个班级的5%。*20卷的行数是不可取的。 这和那篇文章中的内容差不多,我明白了。 我正在考虑改用回归/预测法来进行实验,看看会发生什么。我也面临这种情况。 特征选择、正则化和大量辍学,使模型更加稳定。所有这些都没有对齐,纯粹的时间序列流。 出于某种原因,我一直在摆弄类的东西。在我的案例中(ml-assistant),信号的持久性是一个单一的数字[-1,1]。也就是说,在理论上,人们可以立即建立回归(结果也很好),但预测在那里的 "可读性 "较差。 为了进行分类,我们需要将它们分为不同的类别,而softmax的想法是将类别之和等同于1.0。但最后发现只是将它们相对除以0是最正确的,模型本身将类的总和规范化为1,而不考虑目标的设定。 但是当我增加了第三通课时,由于某些原因,就会不断地进行过度训练。也许我的准备工作不正确。=) Yuriy Asaulenko 2018.02.01 23:19 #6314 elibrarius。我也有同样的情况--NS分类器经常进入一个类别。班级需要平等化。但我有一个班级的95%,另一个班级的5%。*20卷的行数是不可取的。 这与那篇文章中的内容大致相同,我也得到了。 我正在考虑切换到回归/预测--进行实验,看看会发生什么。在10-12000个样本中:~800个是1级,其余是0级。这就是现实)。 我在一本聪明的书中读到,训练序列中的课程数量比例应该接近现实。 Maxim Dmitrievsky 2018.02.02 03:17 #6315 尤里-阿索连科。在10-12,000个样本中:~800个是1级,其余是0级。这就是现实)。 我在一本聪明的书中读到,训练序列中的课程数量比例应该接近现实。和其他聪明的书中说,各门类必须平衡/结合起来。 即在外汇中,我们不知道人口的情况,按理说,类中的元素数量应该是大致相等的。 Mihail Marchukajtes 2018.02.02 03:21 #6316 大家好!!!。谁能解释清楚负熵的含义?简单地说,...... Maxim Dmitrievsky 2018.02.02 03:21 #6317 只是一个聪明人关于随机性的有趣视频 Alexander_K2 2018.02.02 04:11 #6318 Mihail Marchukajtes: 大家好!!谁能解释一下负熵的含义?简单地说,......下面是聪明人写的东西。"非熵 "θ对应于一些 "结构 "值。这是由过去记忆的特征量决定的。当θ大时,会出现大范围的复杂层次结构,当θ小时,会出现小范围的结构,而当θ→0时,即没有关于过去的信息时,会出现向马尔科夫过程的边际过渡"。 事实上,这是表征过程的非标记性的数值。由于我从事概率分布 的工作,我发现这个东西负责分布的那种 "尾巴"。 Yousufkhodja Sultonov 2018.02.02 04:34 #6319 Mihail Marchukajtes: 大家好!!谁能解释一下负熵的含义?简单地说,......熵是对无序或混乱的衡量,非熵(负熵)是对体面和自组织程度的衡量。烧杯系统中未溶解的糖具有最小的熵,一旦完全溶解--系统具有最大的熵。为了使系统回到其初始状态,必须从外部输入 熵--创造一个结晶条件。在NS的情况下,系统必须不断从外部吸收新的信息并摆脱不必要的信息,否则,熵的增加将导致其死亡。 Alexander_K2 2018.02.02 04:38 #6320 尤苏夫霍贾-苏尔托诺夫。熵是对无序或混乱的衡量,非熵(负熵)是对有序性和自组织程度的衡量。烧杯系统中未溶解的糖的熵最小,完全溶解后,系统的熵最大。为了使系统回到其初始状态,必须从外部输入熵--创造一个结晶条件。对于NS来说,系统必须不断从外部吸收新的信息,并摆脱不必要的信息,否则,熵的增加将导致其死亡。优秀的评论。正是如此。 1...625626627628629630631632633634635636637638639...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我一直在想重新学习信息的问题,所以我发现了一篇有趣的文章,并试图购买它,也许会把它添加到机器人中。
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
只有他在最后有某种毒品,只是出于某种原因学会了购买。
我也有同样的情况--NS分类器经常在一个类别中陷入僵局。各个班级需要统一起来。但我有一个班级的95%,另一个班级的5%。*20卷的行数是不可取的。
这与那篇文章中的内容差不多,我明白了。
我想我要改用回归/预测来做实验,看看会发生什么......
我一直在想重新学习信息的问题,所以我发现了一篇有趣的文章,并试图购买它,也许会把它添加到机器人中。
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
我想买一个机器人,但他有某种兴奋剂,不知道为什么,他只在最后学会了买。
而总的来说,这篇文章是有用的,因为他在代码中给出了两个好的库的参考。
一个用于加载各种市场数据,另一个用于在数据上应用各种指标。为自己拿的。
https://www.quandl.com/tools/python
https://mrjbq7.github.io/ta-lib/
我也有同样的情况--NS分类器经常进入同一个类别。班级需要统一起来。但我有一个班级的95%,另一个班级的5%。*20卷的行数是不可取的。
这和那篇文章中的内容差不多,我明白了。
我正在考虑改用回归/预测法来进行实验,看看会发生什么。
我也面临这种情况。
特征选择、正则化和大量辍学,使模型更加稳定。所有这些都没有对齐,纯粹的时间序列流。
出于某种原因,我一直在摆弄类的东西。在我的案例中(ml-assistant),信号的持久性是一个单一的数字[-1,1]。也就是说,在理论上,人们可以立即建立回归(结果也很好),但预测在那里的 "可读性 "较差。
为了进行分类,我们需要将它们分为不同的类别,而softmax的想法是将类别之和等同于1.0。但最后发现只是将它们相对除以0是最正确的,模型本身将类的总和规范化为1,而不考虑目标的设定。
但是当我增加了第三通课时,由于某些原因,就会不断地进行过度训练。也许我的准备工作不正确。=)
我也有同样的情况--NS分类器经常进入一个类别。班级需要平等化。但我有一个班级的95%,另一个班级的5%。*20卷的行数是不可取的。
这与那篇文章中的内容大致相同,我也得到了。
我正在考虑切换到回归/预测--进行实验,看看会发生什么。
在10-12000个样本中:~800个是1级,其余是0级。这就是现实)。
我在一本聪明的书中读到,训练序列中的课程数量比例应该接近现实。
在10-12,000个样本中:~800个是1级,其余是0级。这就是现实)。
我在一本聪明的书中读到,训练序列中的课程数量比例应该接近现实。
和其他聪明的书中说,各门类必须平衡/结合起来。
即在外汇中,我们不知道人口的情况,按理说,类中的元素数量应该是大致相等的。
只是一个聪明人关于随机性的有趣视频
大家好!!谁能解释一下负熵的含义?简单地说,......
下面是聪明人写的东西。
"非熵 "θ对应于一些 "结构 "值。这是由过去记忆的特征量决定的。当θ大时,会出现大范围的复杂层次结构,当θ小时,会出现小范围的结构,而当θ→0时,即没有关于过去的信息时,会出现向马尔科夫过程的边际过渡"。
事实上,这是表征过程的非标记性的数值。由于我从事概率分布 的工作,我发现这个东西负责分布的那种 "尾巴"。大家好!!谁能解释一下负熵的含义?简单地说,......
熵是对无序或混乱的衡量,非熵(负熵)是对体面和自组织程度的衡量。烧杯系统中未溶解的糖具有最小的熵,一旦完全溶解--系统具有最大的熵。为了使系统回到其初始状态,必须从外部输入 熵--创造一个结晶条件。在NS的情况下,系统必须不断从外部吸收新的信息并摆脱不必要的信息,否则,熵的增加将导致其死亡。
熵是对无序或混乱的衡量,非熵(负熵)是对有序性和自组织程度的衡量。烧杯系统中未溶解的糖的熵最小,完全溶解后,系统的熵最大。为了使系统回到其初始状态,必须从外部输入熵--创造一个结晶条件。对于NS来说,系统必须不断从外部吸收新的信息,并摆脱不必要的信息,否则,熵的增加将导致其死亡。
优秀的评论。正是如此。