交易中的机器学习:理论、模型、实践和算法交易 - 页 3007

 
Aleksey Nikolayev #:

这种模式不符合对一组价格模式的分析。

将 "牛奶"、"奶酪 "和 "啤酒 "替换为 "价格"。和 "啤酒 "替换为 "价格"、"价格"价格"、"突破 "和"模式"

一切都会水到渠成。

 
我自己是如何确定哪些输入数据是好数据,哪些是坏数据的:再训练期间的前向行为。如果资产负债表立即滚到最深的峡谷底部 - phi,那么数据就不好。通常是按时间顺序排列的收盘价之间的差额。

在我的记忆中,最好的数据(当余额试图上升时)是输入上下收盘蜡烛的数量,而不是一些差值或指标读数。我试过 6500 根蜡烛(一年)--反应微弱,没有变化(平均有 3200 根)。我试过 10 根 - 变化太大,价格可以向上/向下收盘 20 次。我试过 100 根,这是最佳变体。
然后,在重新训练时,天平试图在前进时上升。

我同意阿列克谢-尼古拉耶夫(Alexei Nikolaev)的观点,大约 15 年前,我从 VTE 的批评者那里研究了三波,结果发现这是最符合逻辑的--没有什么比脉冲-修正-脉冲或 ABC 更能将价格分割成矩阵了。

现在,我想尝试向神经网络输入这些运动的开始和结束的输入价格,以及它们之间的差异和条数(分钟条数),以便以某种方式在图表上为神经网络 "绘制 "这些运动的图像。
 
Slava #:

控制示例不适合。

分类交叉熵用于有两个以上类别的分类模型。而在 softmax 之后。Softmax 将一组值转换为一组概率,其总和为 1。

试试这样的控制示例

pred: 0.1, 0.1, 0.2, 0.5, 0.1

true: 0, 0, 1, 0, 0, 0

我举的例子来自分类交叉熵部分(你显然没有注意到,在该部分中,每个实例的值之和都是 1)。在 Keras 中无法正常工作这一事实对我来说是一个指标,这意味着 MQL5 中 CCE 的实现或描述与预期不符。因此需要详细说明。顺便说一句,在 pytorch 中,CrossEntropyLoss 包含一个初步的 softmax。但总的来说,由于 MQL5 中关于矩阵的文档包含了界面与 python 界面相似的想法,这就意味着行为的重合。如果不一致,就会产生问题和困惑。

拥有许多类意味着要使用矩阵(当我们有一堆样本/行时,每个样本/行都有类),因此您使用向量的示例仍然无法回答问题。

 
Aleksey Nikolayev #:

我没有想过这个问题,但我认为不太可能,因为价格的变动顺序很重要。

为了以防万一,我想用一幅图来说明曼德布罗特的想法。如果可能的话,每个价格走势都会被分成三个走势(通过选择其中的最大修正),然后成为树的一个节点。如果运动中没有修正(或修正小于给定值),则成为树的叶子。


这不是更酷吗?

拉默-道格拉斯-佩克算法 - 维基百科 (wikipedia.org)

同样的算法可以帮助你将历史数据分解成趋势段和平面段。

诗人的梦想,其实....

因为

因为任何计量经济学理论都可以应用。

以及每个人都喜欢的新浦

 
Renat Akhtyamov #:

是不是更酷?

拉默-道格拉斯-佩克算法 - 维基百科 (wikipedia.org)

同样的算法有助于将历史数据分成趋势段和持平段。

诗人的梦想,property....

因为

任何计量经济学理论都已经可以应用

和每个人都喜欢的 Neura。

好极了。

我得研究研究。

 
再创造的重采样
 
Ivan Butko 指标读数。我试过 6500 根蜡烛(一年)--反应微弱,没有变化(平均有 3200 根)。我试过 10 根 - 变化太大,价格可以向上/向下收盘 20 次。我试过 100 根,这是最佳变体。 然后,在重新训练时,天平试图在前进时上升。 我同意阿列克谢-尼古拉耶夫(Alexei Nikolaev)的观点,大约 15 年前,我从 VTE 的批评者那里研究了三波,结果发现这是最符合逻辑的--没有什么比脉冲-修正-脉冲或 ABC 更能将价格分割成矩阵了。 现在,我想尝试向神经网络输入这些运动的开始和结束的输入价格,以及它们之间的差异和条数(分钟条),以便以某种方式在图表上 "绘制 "这些运动的神经网络图像。




这就是在地球仪上画猫头鹰。首先要想出一个特定的策略,然后再对神经网络进行训练。神经网络只是用来组装 TS,但并不带来任何新东西。你可以这样漫无目的地走很长时间:)

然后,你开始尝试理解我所做的工作:分析特征、目标特征、蛮力、调整等等,结果完全一样。因为 NS 又没有用于它的预期目的。

对交易和标志进行随机 semiling 会更容易,什么都不会改变,但搜索会更快。出于某种原因,我从一开始就意识到了这一点。啊,因为我读过书,书上也是这么说的:)

在你用一个正常的老师代替比目鱼之前,情况会是这样的。正常的老师就是已经教过准备好的模式的老师。

而你没有这方面的知识和敏捷性。因此,对于初学者来说,显而易见的选择就是把准备好的 T/信号作为老师。
 
Maxim Dmitrievsky #:
我从不进行严格的预处理,也不热衷于预处理:)如果是外部特征,您需要谨慎选择。如果它们是原始系列的衍生物,我不认为有什么意义,只需添加一些变体即可。

我已经在上面写了为什么这些对 Fin BP 没用。在那里,阿尔法被来自 BP 其他部分的其他不具参考价值的例子堵塞了。你得到的是记忆而不是概括。恰恰相反,强正则化也会破坏TC,因为不仅是无信息的例子,好的例子也会被无差别地消灭。

清理冗余。长篇文字通常要么被亵渎,要么被当地的怪人看不懂:)

你的经验证实了你的话,我的经验证实了我的话。

矛盾是有的,但与其在这个问题上争论不休,不如加入到努力的行列中来,用对方的成就来充实自己,这不是更明智的做法吗?

 
Aleksey Vyazmikin #:

你的经验证明了你的话,我的经验证明了我的话。

矛盾是有的,但与其在这个问题上争论不休,不如联合起来,用对方的成就充实自己,从中受益,这难道不是更明智的做法吗?

不是更合理,我不需要帮助。这个论坛与其说是提供线索,不如说是分散注意力。只是泛泛地说说我的经验。有时我也会卖弄一下:)谁听了都会因继承它而节省时间。


对征兆的过度关注是一种有缺陷的策略,非常无效,这对我来说已经是一条公理了。我想说的是 IMHO,但它更像是一个公理。

 
Maxim Dmitrievsky #:

过度瞄准标志是一种有缺陷的战术,效果很差,这对我来说已经是公理了。我想说的是 IMHO,但它更像是一个公理。

现在我们要选择目标了,我们要去 RL 了。