交易中的机器学习:理论、模型、实践和算法交易 - 页 588

 
尤里-阿索连科

我记得你有大约70%的充分预测。我写了上面的帖子。

嗯,70%的正确率根本不算什么。在那些70%正确进入交易的人中,至少有三分之一左右。这样,我们就有23%。这并不反对30%的错误预测(我们事先不知道它们是对还是错)。而错误的预测就像它在拐点(改变方向)的区域,而这些区域恰恰是最适合交易的。

在此基础上,我认为进行预测是徒劳的,而是要进行分类。即确定某一时刻是否适合进行交易。使用模型,你会得到20-40%的入口误差 更确切的数字,我在这个主题的早期给出。


分类是对类别成员资格的预测,或成员资格的概率。

它与回归的效果相同,你也可以从中提取成员资格。

 
桑桑尼茨-弗门科

他让我相信,非平稳性问题与MO无关。由于我从未与NS打过交道,我没有任何论据来反驳他的观点。此外,还有一个直观的认识,即除NS外,各种树和其他树在非稳态预测因素下都能完美地工作。

我依靠的公理是,价格行为有一些规律性,它是一个非马尔科夫过程。而我试图用MO来找到它们。

各种模型确实可以将小麦从谷壳中分离出来,并在主要由噪音和交易中心有意扭曲的价格流中找到规律。
问题是要找到这样的参数来训练模型(对于神经元来说--权重的数量、学习速度等;对于森林来说--例如树的数量),使模型不会只是记住最初的例子,在克服了非平稳性之后,它会在所有的噪音中找到一些稳定的模式。我通过多次交叉验证为模型训练找到好的参数。
因此,我的模型在训练和新数据上都显示出一个非常小但积极的结果(R2 ~0.003)。但我还没有打过差价。

 
交易员博士

我依靠的公理是,价格的行为有永久的模式,它是一个非马尔科夫过程。而我试图用MO来找到它们。

各种模型可以将麦子从谷壳中分离出来,并在主要由噪音和交易中心有意扭曲的价格流中找到模式。
问题是要找到这样的参数来训练模型(对于神经元来说--权重的数量、学习速度等;对于森林来说--例如树的数量),使模型不会只是记住最初的例子,在克服了非平稳性之后,它会在所有的噪音中找到一些稳定的模式。我通过多次交叉验证为模型训练找到好的参数。
因此,该模型在训练和新数据上都显示出一个非常小但积极的结果(R2 ~0.003)。但我还没有打过差价。

我也没有赢过,到目前为止还没有光。但该系统对FORTS起作用。

SanSanych预测提前一小时。他并不关心这种传播)。

 

对于分类问题,不存在非平稳性问题。它对回归问题是真实的。

不要混淆预报和预测。预报和预测是不同的事情。预测的结果是一个带有置信区间 的数值。分类预测实例属于哪一类,实例属于该类的概率,或对该实例属于该类的假设的支持。

祝好运

 
弗拉基米尔-佩雷文科

对于分类问题,不存在非平稳性问题。它 对回归问题是真实的。

不要混淆预报和预测。预报和预测是不同的事情。预测的结果是一个带有置信区间 的数值。分类预测实例属于哪一类,实例属于该类的概率,或对该实例属于该类的假设的支持。

祝好运


我在哪里可以读到这些废话呢?:)

 
马克西姆-德米特里耶夫斯基

你的意思是,我在哪里可以读到这些无稽之谈?:)

在你看来什么是荒谬的?
 
弗拉基米尔-佩雷文科
在你看来什么是荒谬的?

由于非稳态性,预测者/目标和类别预测之间的模式将打破,就像在预测的情况下一样。

 
马克西姆-德米特里耶夫斯基

由于非稳态性,预测者/目标和类别预测之间的模式将打破,就像在预测的情况下一样。

你能给我看一个例子吗?还是说这是一个猜测性的结论?

在众多关于使用NN/DNN进行分类的文献中,没有一处提到非平稳性是一个影响因素。我的无数次实验告诉我同样的事情。

当然,你可以自由地对此事有自己的看法。

祝好运

 
弗拉基米尔-佩雷文科

你能给我看一个例子吗?还是说这是一个猜测性的结论?

在众多关于使用NN/DNN进行分类的文献中,没有一处提到非平稳性是一个影响因素。我的无数次实验告诉我同样的事情。

当然,你可以自由地对此事有自己的看法。

祝好运


而分类或回归...有什么区别?

 

有一本关于深度学习的新鲜好书。不幸的是,我不能公开链接到它,它在Rutracker.org上。

深度学习
出版年份: 2018
作者: Nikolenko S. I., Kadurin A.A., Arkhangelskaya E.O.
种类或主题神经网络
出版商:Peter
系列:程序员图书馆
ISBN:978-5-496-02536-2
语言:俄语
格式: PDF
质量: 识别出有错误的文本 (OCR)
交互式目录: 无
页数: 479