再培训 - 页 2

 
Dmitry Fedoseev:
而我认为 "胡说八道 "的评判标准不是人,而是他们写的东西。

我通常不回复被激怒的帖子,但我将亲自回复你。

所以,我所说的 "胡说八道 "是什么意思。

案例1.

假设你写了一个机器人,用测试仪找到了它的参数,然后在不改变参数的情况下,在新的报价区,最好是在其他符号和TF上试运行。我们得到了一个积极的结果。

问题是:我们能在多大程度上相信这个结果?它到底会不会下降?

作为对这个问题的回答,看看网站上的 "信号 "选项卡,你会发现盈利能力高于银行存款且寿命超过一年的信号相当罕见:几千个信号中甚至没有一百个。因此,我个人的结论是,开发一个稳定的TS是一门艺术,而测试器是开发这样一个稳定的TS的工具之一。但最重要的结论是:测试员并不能保证利润损失。

这是测试人员确认TS时我认为的情况。

案例2

在 "胡说八道 "的意义上,这是一个更有趣的案例- 这是指测试器给出的结果是阴性。该怎么做?毕竟,测试人员没有给出任何挖掘方向的想法,最重要的是没有回答这个问题:为什么会出现负面结果。测试人员陈述了这一事实--它很糟糕。然后是使用一种叫做TYKA METHOD或胡说八道的通用方法,这通常意味着直观地改变指标,试图得到能使我们达到上述情况1的指标集。

是否有任何想法、工具,可以使案例2的过程更有意义,并确保在测试器中获得的结果将在未来的真实账户上获得?

有的,我给了一个平行主题的链接。它涉及到分析初始输入数据集(预测器)的此类工具,这不会导致TS的重新训练(过度拟合)。这些都不是 "胡说八道"。- 这些都是具体的工具,有其有效性的数学论证,没有直观的圣杯搜索,在找到这样的圣杯后,排空了库房。

 
Stanislav Korotky:
如果使用正向测试,"过度训练 "将通过优化期之外的结果退化而显现。不幸的是,MT没有提供任何内置的方法来比较优化 和正向测试的结果,也就是说,建议通过外部程序或脚本来手动(通过眼睛)进行,由自己决定。
"再培训 "这个词本身就很傻,它是为了证明EA本身的非功能性,在volking-forwarding的情况下完全失去了意义。事实上,一个变量是过度学习还是学习不足,从退化中是不明显的。只有在不同的优化和测试条件下比较 正向结果时,才能看出这一点。在每个案例中,都会亲自选择历史深度和前进步骤,然后就可以看到什么是过度 训练,什么是训练不足
 
СанСаныч Фоменко:

...

案例2.

测试者陈述了一个事实--不好。然后是应用一种叫做TYKA METHOD或胡说八道的通用方法,通常是凭直觉改变一组指标,试图得到一组指标,使我们达到上述的情况1。

是否有任何想法、工具,可以使案例2的过程更有意义,并确保在测试器中获得的结果将在未来的真实账户上获得?

有的,我给了一个平行主题的链接。它涉及到分析初始输入数据集(预测器)的此类工具,这不会导致TS的再训练(过拟合)。这些都不是 "胡说八道"。- 这些都是具体的工具,有其有效性的数学论证,没有直观的圣杯搜索,在找到这样的圣杯后,排空了库房。

如果这种捅破的方法是自动的呢!?这个方向的想法很有意思。指标在变化,它们的相互作用也在变化,相互作用被表示为独立的函数,所以参数的数量可能会改变,只是根据它们发生最简单的优化。这就是为什么我对这个主题中提出的问题感兴趣,一个更普遍的方法,这将不取决于战略参数。你所提议的分支有完全不同的目标。但如果你能说明这些方法对这个问题的适用性,我们欢迎你。

 
Youri Tarshecki:
"再培训 "这个词本身就很愚蠢,旨在为EA本身的不可操作性进行辩解,而且随着volking的推进完全失去了意义。一个变量是过度训练还是训练不足,事实上,你无法从退化中看出。只有在不同的优化和测试条件下比较 正向结果时,才能看出这一点。在每个案例中,都会亲自选择历史深度和前进步骤,然后就可以看到什么是过度 训练,什么是训练不足

在这种情况下,"过度训练 "一词是适用的,训练不仅指参数设置,也指策略构建。

我想估计一下过度训练的概率,这样搜索系统至少可以 "绕过 "有疑问的地方,如果只是与正向历史图进行比较,可能会发生系统将两个历史图(训练,测试)视为一个训练图。听取意见))。

 
Aliaksandr Hryshyn:

在这种情况下,"过度训练 "一词是适用的,训练不仅指参数设置,也指策略构建。

我想估计一下过度训练的概率,这样搜索系统至少可以 "绕过 "有疑问的地方,如果只是与正向历史图进行比较,可能会发生系统将两个历史图(训练,测试)视为一个训练图。听取意见))。

在构建策略时,"过度训练 "这个词就更不适用了,因为我们只是在相同的训练条件下比较测试结果来选择代码变体。这些条件如何选择并不重要,主要的是它们对代码的所有变体都是一样的。否则,选择是没有意义的。
 

"过度训练 "或 "过度优化 "这个词是由调整者发明的,因为确实,你在历史的某一部分上对EA的优化越多,优化参数越多,训练的效果就越好。

出于某种原因,有一种观点认为与测试结果存在反相关,即越少越好,但我的经验表明,这不是真的。测试结果并不取决于选择通过的数量,而是取决于专家顾问本身的质量以及训练和测试运行的最佳选择。对故事进行最小化优化的方案的结果并不是我所见过的最好的。

例如,在4个月的训练-1个月的测试中,每个历史区间被优化4次,但在2个月的训练-2个月的测试方案中,只有一次。是太多还是太少?谁知道呢!我们只需要看一下测试结果。如果前锋的总和更好,那么这就是最好的选择。

 
Youri Tarshecki:
在建立一个策略时,"过度训练 "这个词就更不适用了,因为我们只是在相同的训练条件下比较测试结果,以选择代码的变体。这些条件如何选择并不重要,主要的是它们对代码的所有变体都是一样的。否则,选择是没有意义的。

这个词用得很频繁:"过度训练过度拟合是一种不良现象,在基于先例的学习任务中当训练过的算法在测试样本对象上的错误概率明显高于训练样本上的平均错误 时,就会出现这种现象"

根据该定义,训练条件的同一性并不妨碍该术语对我们的问题的适用性。

 
Nikkk:

再培训就像反革命这个词。那么,如果你必须重新培训,为什么还要教书。而如果再培训是有意义的,那么你就知道再培训的浮动限制,否则最后还是一样的轮盘赌。既然有关于何时/多长时间/哪些参数......需要重新训练的决策点,为什么不从一开始就把这种理解放到训练/算法本身的逻辑中。

从价格分析转向培训和现实(价格)之间的反馈分析。从不同的角度看同样的事情。

只需将学习与记忆相比较。你又不是在想,如果你无论如何都要忘记,为什么要记住呢?问题是,EA一般没有独立的长期记忆和工作记忆。此外,对其业绩的评估也非常原始。因此,我们最好对每一个permenent分别进行教学(给予记忆)(顺便说一下,这也是我努力做的),并且不在训练段上测试,而是在测试段上测试。
 
Aliaksandr Hryshyn:

这个词用得很频繁:"过度训练过度拟合基于先例的学习任务中出现的一种不良现象,当训练过的算法在测试样本对象上的错误概率明显高于训练样本上的平均错误"

根据该定义,训练条件的同一性并不妨碍该术语对我们的问题的适用性。

因此,当建立一个战略时,任务是不同的。不是先例,不是优化,而是写代码。

此外,我不同意这个定义。根据它,如果我们根本没有优化,而测试中的失败概率大于训练中的失败概率(这是很常见的事情)--这也将被认为是过度优化。那么它在实质上意味着什么呢?两次?按十倍计算?

 
Youri Tarshecki:
只需将学习与记忆相比较。你又不是在想,如果你无论如何都要忘记,为什么要记住呢?问题是,EA一般不会有长期和短期的记忆分别。此外,对其业绩的评估也非常原始。因此,我们最好把每一个permenent分开来教(顺便说一下,我正在尝试这样做),并且不在训练段上检查,而在测试段上检查。

你别忘了,只是把对发生训练的那一节的记忆转化为对该节训练结果的记忆。这就像我们过滤了一个区域,后来用过滤后的信息进行分析,再过滤后用另一个区域,以此类推,而这些过滤的性质/区域之间存在着联系。

那里没有什么被遗忘,从不同的角度对历史进行同样的分析。不管你怎么称呼它,过度学习/过度优化/适应/适合/过度适应。