交易中的机器学习:理论、模型、实践和算法交易 - 页 586 1...579580581582583584585586587588589590591592593...3399 新评论 Aleksey Terentev 2018.01.18 14:56 #5851 尤里-阿索连科。 所以尽量找一个。))这样的MLP将是最佳的。 正规化和辍学是你的一切)。 Dmitriy Skub 2018.01.18 17:11 #5852 尤里-阿索连科。昨天我发现了一个卷积NS--通常用于图像识别。自然,所有的公用设施都可以使用--培训等。为在Python中使用而制作。还有反复出现的等等,但还不是很有趣。由于卷积网络不是完全网格化的,我们可以大大增加神经元的数量而不损失性能。但有必要了解细节,我还没有讲到细节。 一个流行的描述 -https://geektimes.ru/post/74326/仔细看看HTM--我之前写给你的。它的结构意味着对背景的使用。并且有一个Python的实现。 Maxim Dmitrievsky 2018.01.18 18:04 #5853 关于海金的非稳态性这就是我(不仅仅是)所写的,好像一切都在很久以前就被证明了 :) Dr. Trader 2018.01.18 18:36 #5854 我碰巧知道有一个新版本的gbm包,它还没有进入cran仓库。https://github.com/gbm-developers/gbm3安装。install.packages("devtools") library("devtools") install_github("gbm-developers/gbm3")之后,R中更新的库被称为gbm3。library("gbm3")我只是在r脚本代码中把库的名字从gbm改成了gbm3,其余的代码没有改动就工作了。 当我在搜索gbm模型的参数时,有时会发生训练时消耗了大量的内存,整个电脑挂了十几分钟。在这个新版本中,这种情况还没有发生,我建议尝试一下。 СанСаныч Фоменко 2018.01.18 18:44 #5855 马克西姆-德米特里耶夫斯基。关于海金的非稳态性关于我(不仅是)和写的东西,在这里,好像一切都早已被证明了:)我完全不明白关于非平稳性的文字:新的观察结果的到来破坏了以前揭示的关系?这可能是由于我对NS的无知,但在树上正好有一条观察线考虑,而且不可能破坏以前构建的树。它们可能不会出现在未来,完全相同的树木可能会出现在未来,但它们将属于不同的类别,但旧的树木将全部保持不变。PS。有的树在建树的时候会考虑几条线...但这似乎并不改变其本质 Maxim Dmitrievsky 2018.01.18 18:50 #5856 桑桑尼茨-弗门科。我完全不明白关于非平稳性的文字:新的观察结果的到来破坏了以前确定的关系?这可能是由于我对NS的无知,但在树上正好有一条观察线被考虑,而且不可能破坏以前构建的树。它们可能不会出现在未来,完全相同的树木可能会出现在未来,但它们将属于不同的类别,但旧的树木将全部保持不变。PS。有的树在建树的时候会考虑几条线...但这似乎并不能改变问题的关键。不,它归结为持续建立伪稳定系列,尽可能地重新学习......这基本上就是我正在做的事情或者建立线性/非线性过滤器......我的理解是,在此之前,你需要考虑预测因子对目标影响的动态变化,并尝试通过过滤器的系数来调整输出,这取决于环境的变化。嗯,一般来说没有什么特别的。至少在这一章。 Alexander_K2 2018.01.18 19:50 #5857 马克西姆-德米特里耶夫斯基。关于海金的非稳态性这是我(不仅是)写的,在这里,好像一切都已经被证明了很久了:) 很明显,海金先生不是一个傻瓜。第133页的摘录直接谈到了这个事实。 Yuriy Asaulenko 2018.01.18 20:03 #5858 马克西姆-德米特里耶夫斯基。关于海金的非稳态性这是我(不仅是)写的,在这里,好像一切都已经被证明了很久了:) 最后马克西姆开始阅读理论,而不是胡说八道,试图重新发明自行车)。 Yuriy Asaulenko 2018.01.18 20:56 #5859 Dmitriy Skub:看一下HTM - 我之前给你写过信。其结构利用了背景。而且在Python中也有一个实现。我在我们的通信中没有发现任何东西。什么是HTM,它是什么?事实上,我在2-3天前开始学习Python。我还不太明白)。因此,我需要一段时间来做正事。 Dmitriy Skub 2018.01.19 07:49 #5860 尤里-阿索连科。我在我们的通信中没有发现任何东西。什么是HTM,它是什么?事实上,我在2-3天前开始学习Python。我还不太明白)。因此,在我进入正题之前有一段时间。在这里,你可以从这里开始:https://numenta.org/implementations/有一本俄文的书--翻译几乎是足够的。 Implementations Numentanumenta.org Numenta.org • Home of the HTM Community 1...579580581582583584585586587588589590591592593...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
所以尽量找一个。))这样的MLP将是最佳的。
昨天我发现了一个卷积NS--通常用于图像识别。自然,所有的公用设施都可以使用--培训等。为在Python中使用而制作。
还有反复出现的等等,但还不是很有趣。
由于卷积网络不是完全网格化的,我们可以大大增加神经元的数量而不损失性能。但有必要了解细节,我还没有讲到细节。
一个流行的描述 -https://geektimes.ru/post/74326/仔细看看HTM--我之前写给你的。它的结构意味着对背景的使用。并且有一个Python的实现。
关于海金的非稳态性
这就是我(不仅仅是)所写的,好像一切都在很久以前就被证明了 :)
我碰巧知道有一个新版本的gbm包,它还没有进入cran仓库。
https://github.com/gbm-developers/gbm3
安装。
之后,R中更新的库被称为gbm3。
我只是在r脚本代码中把库的名字从gbm改成了gbm3,其余的代码没有改动就工作了。
当我在搜索gbm模型的参数时,有时会发生训练时消耗了大量的内存,整个电脑挂了十几分钟。在这个新版本中,这种情况还没有发生,我建议尝试一下。
关于海金的非稳态性
关于我(不仅是)和写的东西,在这里,好像一切都早已被证明了:)
我完全不明白关于非平稳性的文字:新的观察结果的到来破坏了以前揭示的关系?这可能是由于我对NS的无知,但在树上正好有一条观察线考虑,而且不可能破坏以前构建的树。它们可能不会出现在未来,完全相同的树木可能会出现在未来,但它们将属于不同的类别,但旧的树木将全部保持不变。
PS。
有的树在建树的时候会考虑几条线...但这似乎并不改变其本质
我完全不明白关于非平稳性的文字:新的观察结果的到来破坏了以前确定的关系?这可能是由于我对NS的无知,但在树上正好有一条观察线被考虑,而且不可能破坏以前构建的树。它们可能不会出现在未来,完全相同的树木可能会出现在未来,但它们将属于不同的类别,但旧的树木将全部保持不变。
PS。
有的树在建树的时候会考虑几条线...但这似乎并不能改变问题的关键。
不,它归结为持续建立伪稳定系列,尽可能地重新学习......这基本上就是我正在做的事情
或者建立线性/非线性过滤器......我的理解是,在此之前,你需要考虑预测因子对目标影响的动态变化,并尝试通过过滤器的系数来调整输出,这取决于环境的变化。
嗯,一般来说没有什么特别的。至少在这一章。
关于海金的非稳态性
这是我(不仅是)写的,在这里,好像一切都已经被证明了很久了:)
关于海金的非稳态性
这是我(不仅是)写的,在这里,好像一切都已经被证明了很久了:)
看一下HTM - 我之前给你写过信。其结构利用了背景。而且在Python中也有一个实现。
我在我们的通信中没有发现任何东西。什么是HTM,它是什么?
事实上,我在2-3天前开始学习Python。我还不太明白)。因此,我需要一段时间来做正事。
我在我们的通信中没有发现任何东西。什么是HTM,它是什么?
事实上,我在2-3天前开始学习Python。我还不太明白)。因此,在我进入正题之前有一段时间。
在这里,你可以从这里开始:https://numenta.org/implementations/
有一本俄文的书--翻译几乎是足够的。