交易中的机器学习:理论、模型、实践和算法交易 - 页 586

 
尤里-阿索连科
所以尽量找一个。))这样的MLP将是最佳的。
正规化和辍学是你的一切)。
 
尤里-阿索连科

昨天我发现了一个卷积NS--通常用于图像识别。自然,所有的公用设施都可以使用--培训等。为在Python中使用而制作。

还有反复出现的等等,但还不是很有趣。

由于卷积网络不是完全网格化的,我们可以大大增加神经元的数量而不损失性能。但有必要了解细节,我还没有讲到细节。

一个流行的描述 -https://geektimes.ru/post/74326/

仔细看看HTM--我之前写给你的。它的结构意味着对背景的使用。并且有一个Python的实现。

 

关于海金的非稳态性

这就是我(不仅仅是)所写的,好像一切都在很久以前就被证明了 :)


 

我碰巧知道有一个新版本的gbm包,它还没有进入cran仓库。
https://github.com/gbm-developers/gbm3

安装。

install.packages("devtools")
library("devtools")
install_github("gbm-developers/gbm3")


之后,R中更新的库被称为gbm3。

library("gbm3")

我只是在r脚本代码中把库的名字从gbm改成了gbm3,其余的代码没有改动就工作了。
当我在搜索gbm模型的参数时,有时会发生训练时消耗了大量的内存,整个电脑挂了十几分钟。在这个新版本中,这种情况还没有发生,我建议尝试一下。

 
马克西姆-德米特里耶夫斯基

关于海金的非稳态性

关于我(不仅是)和写的东西,在这里,好像一切都早已被证明了:)


我完全不明白关于非平稳性的文字:新的观察结果的到来破坏了以前揭示的关系?这可能是由于我对NS的无知,但在树上正好有一条观察线考虑,而且不可能破坏以前构建的树。它们可能不会出现在未来,完全相同的树木可能会出现在未来,但它们将属于不同的类别,但旧的树木将全部保持不变。


PS。

有的树在建树的时候会考虑几条线...但这似乎并不改变其本质

 
桑桑尼茨-弗门科

我完全不明白关于非平稳性的文字:新的观察结果的到来破坏了以前确定的关系?这可能是由于我对NS的无知,但在树上正好有一条观察线被考虑,而且不可能破坏以前构建的树。它们可能不会出现在未来,完全相同的树木可能会出现在未来,但它们将属于不同的类别,但旧的树木将全部保持不变。


PS。

有的树在建树的时候会考虑几条线...但这似乎并不能改变问题的关键。


不,它归结为持续建立伪稳定系列,尽可能地重新学习......这基本上就是我正在做的事情

或者建立线性/非线性过滤器......我的理解是,在此之前,你需要考虑预测因子对目标影响的动态变化,并尝试通过过滤器的系数来调整输出,这取决于环境的变化。

嗯,一般来说没有什么特别的。至少在这一章。

 
马克西姆-德米特里耶夫斯基

关于海金的非稳态性

这是我(不仅是)写的,在这里,好像一切都已经被证明了很久了:)


很明显,海金先生不是一个傻瓜。第133页的摘录直接谈到了这个事实。
 
马克西姆-德米特里耶夫斯基

关于海金的非稳态性

这是我(不仅是)写的,在这里,好像一切都已经被证明了很久了:)

最后马克西姆开始阅读理论,而不是胡说八道,试图重新发明自行车)。
 
Dmitriy Skub:

看一下HTM - 我之前给你写过信。其结构利用了背景。而且在Python中也有一个实现。

我在我们的通信中没有发现任何东西。什么是HTM,它是什么?

事实上,我在2-3天前开始学习Python。我还不太明白)。因此,我需要一段时间来做正事。

 
尤里-阿索连科

我在我们的通信中没有发现任何东西。什么是HTM,它是什么?

事实上,我在2-3天前开始学习Python。我还不太明白)。因此,在我进入正题之前有一段时间。

在这里,你可以从这里开始:https://numenta.org/implementations/

有一本俄文的书--翻译几乎是足够的。

Implementations
  • Numenta
  • numenta.org
Numenta.org • Home of the HTM Community