交易中的机器学习:理论、模型、实践和算法交易 - 页 1205

 
阿列克谢-尼古拉耶夫

为什么是价格而不是增量?

我不知道如何做得更好......而且样本长度可以变化......这一切都有很多猫腻

还有更多关于可解释性的问题......比如有什么可解释的? 只有一个指标
 
FxTrader562:

嗨,格言

你在这里讨论的是什么新文章吗?

如果你能提供给我链接?

你好,尚未发表,正在等待审核

 
FxTrader562:

好的,如果你愿意,那么你可以把代码提供给我,让我看一下。

你最好等着看文章,因为我有太多的版本。

 
mytarmailS:

而且有一种依赖性...

我对回归者进行了 "SMM"(隐马尔可夫模型)训练,将其分为10个状态,并在没有老师的情况下进行教学。


状态分布。


在这里,我将回报按州分组,即每一行是一个单独的市场状态。

有些状态(1,4,6,8,9)的观察值太少,所以根本不能被察觉

而现在我将尝试再生系列,也就是做一个累积的总和,如果在某些状态中发现一些趋势--方向上的规律性

我做了一个累积性的总结。

5号和7号州有一个一致的模式,5号是海湾,7号是村庄。

你终于开始向正确的方向发展了 :)

只需用简单的蛮力就能将整个事情解决,并选择最佳模式。

用逻辑推理和伟大的推理方法,永远不可能找到一个有利可图的方案,有太多的变化了
 
马克西姆-德米特里耶夫斯基

你终于开始向正确的方向发展了 :)

你所要做的就是用简单的暴力搜索来破解整个事情,并选择最好的模型。

你永远无法通过逻辑推理和伟大的推理方法找到一个有利可图的方案,有太多的变种了

但有趣的是,这些状态5和7是最经常变化的,它们在时间上并不连续,另一件事是它们在自己之间切换)。


状态转换的图形


这就是你交易它们时的样子。红色是卖,蓝色是买


 
马克西姆-德米特里耶夫斯基

现在我想在优化的参数中加入信号对分布的依赖性,我在开始时已经做了,看看

如果峰度高于某个值(我们可以选择它),那么我们就有一个平坦的情况,有可能以相同的概率买入/卖出(然后修复所有错误的)。

在不对称性方面,如果有某一方,那么买入或卖出的信号的概率就会发生变化。

这是一个原始的,但它大约是优化器可以选择目标的方式

你需要从度量衡中得到的是测试样本上的分类误差(要在训练样本上进行训练)。超参数在优化器中被列举出来,并选择误差最小的模型这里有什么是不可解释的呢? 你只需要通过观察测试数据上的误差来知道这样的模型是否可以归纳。

我只是做了一个如何处理这种垃圾的例子。


问题在于最终选择的模型的可解释性(将实际交易)。

 
mytarmailS:

但有趣的是,这些状态5和7的变化最为频繁,它们在时间上并不连续,而且有趣的是,它们之间的切换也是如此)


状态转换图


这就是你交易它们时的样子。红色卖出,蓝色买入


用RL做,马尔科夫的模型需要近似值

 
阿列克谢-尼古拉耶夫

问题是所产生的模型的可解释性(将实际交易)。

归纳模型通常是不可解释的,无论是遗传编程还是神经网络......都需要很长时间才能恢复原状。

python和r可能有相应的软件包

树木 的例子
How to visualize decision tree
How to visualize decision tree
  • explained.ai
Decision trees are the fundamental building block of gradient boosting machines and Random Forests(tm), probably the two most popular machine learning models for structured data. Visualizing decision trees is a tremendous aid when learning how these models work and when interpreting models. Unfortunately, current visualization packages are rudimentary and not immediately helpful to the novice. For example, we couldn't find a library that visualizes how decision nodes split up the feature space. So, we've created a general package (part of the animl library) for scikit-learn decision tree visualization and model interpretation.
 
马克西姆-德米特里耶夫斯基

好吧,通过RL来做,马尔可夫模型必须通过一些东西来近似。

为什么要近似呢? 它已经被维特比算法分成了10个状态,本质上就像一个集群。

我认为在做退货之前应该近似于价格,还是不做退货?

 

顺便说一下,如果有人想涉足 "cmm",这里有一篇文章,有R语言的代码和例子

http://gekkoquant.com/2014/09/07/hidden-markov-models-examples-in-r-part-3-of-4/

Hidden Markov Models – Examples In R – Part 3 of 4
Hidden Markov Models – Examples In R – Part 3 of 4
  • 2014.09.07
  • GekkoQuant
  • gekkoquant.com
This post will explore how to train hidden markov models in R. The previous posts in this series detailed the maths that power the HMM, fortunately all of this has been implemented for us in the RHmm package. HMMs can be used in two ways for regime detection, the first is to use a single HMM where each state in the HMM is considered a “regime”...