交易中的机器学习:理论、模型、实践和算法交易 - 页 1539

 
伊戈尔-马卡努

语音和音乐文件是用DTW压缩的,而这些文件也是VR的。

;)

伊戈尔-马卡努

我研究过这个话题,用我自己的话说,是这样的。

你在那里研究的东西并不清楚,但绝对不是这样的

马克西姆-德米特里耶夫斯基

为什么你需要压缩金融。卢布:)

为什么呢?:))

 
elibrarius

你可以简单地将输入数据离散化,例如将5位数转换为4位数。而数据已经会以10为一组。
或者就像我之前建议的那样,你可以在alglib森林中建立一个分支,当达到所需的深度或一个工作表中的例子数量时停止分支。

抽样调查的效果比猫咪小说+vanhot好,没有明显的改善

 
mytarmailS:

和真的,为什么?:))

你可以将引文压缩成zip档案,看看它们的大小,这将是一部新的小说。

 
mytarmailS:

))压缩是什么鬼东西? 我不知道你在研究什么,但这绝对不是一回事。

认为自己受过教育,至少在发帖前阅读维基百科吧

dtw算法分析信号的时间分量,并将其调整为一个恒定值。 知道这个值后,你可以简单地删除信号的信息部分之间的停顿--结果,你会得到没有时间分量的数据包+恒定时间轴转换算法。


马克西姆-德米特里耶夫斯基

你可以将报价压缩成zip档案,看看它们的大小,它们将是新的特征。

不可能,zip算法是一种严格的转换算法,你不可能把相差1个字节的数据认定为是同一个数据。

你不需要严格的数据处理算法,它们在原始数据中都有损失。 如果你不编,那就是jpg--它的压缩有损失,内容接近的数据最后会恢复得几乎一样,但视觉上是一样的- 校验和将是不同的,字节本身将有不同的值....。

但作为NS的训练例子,也许这就是你所需要的,即一个JPG的任意数据(不是图片)。

 
伊戈尔-马卡努

这是不可能的,压缩算法是一种严格的转换算法,你不能把相差1个字节的数据识别为相同的数据。

你不需要严格的算法来处理数据,它们都有原始数据的损失,如果你不编的话--它是jpg--它的压缩有损失,内容接近的数据最后会恢复得大致相同,但视觉上!- 校验和将是不同的,字节本身将有不同的值....。

但作为NS的训练例子,这可能是我们需要的,即一个JPG文件,用于任意数据(不是图片)。

开玩笑的))。那么自动编码器或卷积可以很好地完成这项工作。Vladimir关于编码器的文章有编码器,卷积没有。

seq2seq本质上也是一个解码器-编码器。例如,在机器翻译中,俄语和英语单词之间有不同的字母数量。在那里,一切都被压缩,分析,然后解压缩。

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4
Seq2Seq model using Convolutional Neural Network
Seq2Seq model using Convolutional Neural Network
  • Gautam Karmakar
  • medium.com
Seq2seq model maps variable input sequence to variable length output sequence using encoder -decoder that is typically implemented as RNN/LSTM model. But this paper https://arxiv.org/pdf/1705.03122.pdf shows application of convolutional neural network for seq2seq learning which is state of the art for computer vision using deep learning. There...
 
马克西姆-德米特里耶夫斯基

我开始读一些关于DTW的文章,但不明白如何将其应用于金融系列,以及为什么我需要它)但这是一个有趣的话题,我想

有一个概念,即DTW是对寻找情节的相似性过程的延伸,但最终可能是使用小波更容易(也可能不是)。

 
马克西姆-德米特里耶夫斯基

那是一个笑话))。那么自动编码器或卷积可以很好地完成这项工作。Vladimir的文章有编码器,而不是卷积。

seq2seq本质上也是一个解码器-编码器。例如,在机器翻译中,俄语和英语单词之间有不同的字母数量。这些都是经过压缩、分析,然后再解压缩的。

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4

我去年读过关于编码器的文章,我想,一切都像往常一样,取决于价格图表上的大螺柱--它们破坏了任何转换,如果没有螺柱,那么MA就能工作,卡尔曼滤波就能工作,一切都能正常工作))))。

例如,如果我一开始就有一个平坦的样本量,我会尝试解压,尖峰就会变小。


PS:是的,论坛上有一个DTW,甚至搜索https://www.mql5.com/ru/code/10755

我曾经旋转它,但...都应在使用前进行文件处理)))

 
超越梦想者

有一个概念,即DTW是图象搜索过程的延伸,但最后可能小波更容易(也可能不是)。

伊戈尔-马卡努

PS:是的,论坛上有一个DTW,甚至搜索了https://www.mql5.com/ru/code/10755

我曾经旋转它,但...使用前均应归档 ))))

哦,不,让它见鬼去吧,我接着说扭曲的神经网络。我不相信有这样的事情。

 
马克西姆-德米特里耶夫斯基

哦,不,他妈的,我要回到神经网络。我不相信有这样的事情。

我也不想轮换NS,我正忙于MT5测试器和它的GA,GA工作得相当充分,你可以快速(测试了4.5×10^142个变体!!--大约2-3小时)建立自动TS,然后在前向测试,结果是相当可以接受的,imho

HH:但GA还需要一个文件来定稿,很难拿起输入参数--给了很多将是一个5年的测试,你开始削减作为不正确的输入数据--这里作为运气或刚发现的地方停止,是否根本不会发现

 
伊戈尔-马卡努

我也不想做NS,我采取了MT5测试器和它的GA,GA工作得相当充分,你可以快速(测试了4.5×10^142个变体!!--大约2-3小时)建立自动TS,然后在前锋上测试,结果相当可以接受,我认为

我很快就会做监测,或者写一篇文章......我太懒了,懒得去写文章,打字太多。

现在都是用Python。节省了大量的时间。

GA的缺点是,它不能归纳出