交易中的机器学习:理论、模型、实践和算法交易 - 页 3317

 
Andrey Dik #:

待在原地别动每个人都很蠢,除了你,所以你才是那个回答问题的人。

那是什么?那边的红晕是什么?圆圆的,红红的,在下面


我从没见过这样的图

虚构主义者,你在胡编乱造,强行讨论不存在的东西。

其实,从某个模型中得到这样的图形是很正常的,而不是在这里胡言乱语好几年。

 
因此,在你图表上的全球低点,会出现巨大的过度训练,因为轴曲线会尽可能地向上。
 
Andrey Dik #:

我是否正确理解了您的理解,即学习是在没有函数的某些成员的情况下找到函数的答案?

例如,我们有 A+B+C=Y 的观测值,A 和 B 是预测因子,C 是未知数,通过优化熟悉样本的答案(标记)后,我们选择 C 值的补偿,补偿可以通过操作来表达,包括在 NS 的情况下乘以系数,或者通过相互规则。也就是说,为了替换缺失的变量并获得正确的答案,需要对函数进行积极的研究。假定样本中的函数计算结果具有足够的代表性,其结果可用于新数据。

然而,在测试仪中进行优化时,我们可以改变变量值(实质上是将其表示为函数),假设我们不知道这些变量,甚至知道哪些变量会以近似 Y 值的规则形式给我们的补偿函数带来更大权重。

 

chatGPT 的进一步提问。


Max, [2023 年 10 月 26 日 18:59:31]:

位移-分散困境与寻找全局最小值有什么关系?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 18:59:38]:

偏置-分散困境指的是机器学习中的模型选择问题。它表明,随着模型复杂度的增加(如增加新特征或增加参数数量),模型预测的方差(分散性)也会增加,但可能会偏向于更简单的模型(误差)。


另一方面,寻找全局最小值指的是优化模型参数。目标是选择误差函数达到最小值的参数值。然而,由于参数数量多,模型复杂,找到全局最小值可能很难甚至不可能。


因此,偏差-离散困境和寻找全局最小值是相关的,即为机器学习问题选择过于复杂的模型会导致过度训练问题(高方差),而使用过于简单的模型则会导致训练不足问题(高偏差)。这会导致难以找到全局最小值,从而导致次优结果。因此,必须在模型的复杂性和泛化数据的能力之间找到平衡点,以获得最佳结果。

 

Max, [2023 年 10 月 26 日 19:03:50]:

在这种情况下,最优模型应该对应于全局最小值,还是不对应?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 19:03:54]:

不,最优模型并不一定对应于全局最小值。在某些情况下,尤其是在数据存在噪声的情况下,可以通过重新训练模型来达到全局最小值。这样的模型在训练数据上可能显示出很高的准确性,但对新示例的泛化能力却很差。


相反,最佳模型应接近全局最小值,但方差和偏差较小。这样的模型能对新数据做出稳定而准确的预测。因此,在选择最佳模型时,不仅要考虑模型在训练数据上的准确性,还要考虑它对新示例的泛化能力。

 
Aleksey Vyazmikin #:

我的理解是否正确,您将学习表述为在不包含函数部分成员的情况下找到函数的答案?

例如,我们有 A+B+C=Y 的观测值,A 和 B 是预测因子,C 是未知数,通过优化熟悉样本的答案(标记)后,我们选择补偿 C 值,补偿可以通过操作来表示,包括在 NS 的情况下乘以系数,或者通过相互规则来表示。也就是说,为了替换缺失的变量并获得正确答案,需要对函数进行积极的研究。此外,还假定样本中的函数计算结果具有足够的代表性,这样才能将结果用于新数据。

然而,在测试仪中进行优化时,我们可以改变变量值(实质上是将它们表示为函数),假设我们不知道它们,甚至不知道哪些变量会以近似 Y 值规则的形式给我们的补偿函数带来更大权重。

我不太理解这个问题。请澄清一下。

 
Maxim Dmitrievsky chatGPT。


Max, [2023 年 10 月 26 日 18:59:31]:

位移-分散困境与寻找全局最小值有何关系?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 18:59:38]:

偏差-分散困境指的是机器学习中的模型选择问题。它表明,随着模型复杂性的增加(如增加新特征或增加参数数量),模型预测的方差(分散性)也会增加,但可能会偏向于更简单的模型(误差)。

如何建议在分类而不是回归中考虑误差的方差(扩散)?

 
Maxim Dmitrievsky #:

麦克斯,[2023 年 10 月 26 日 19:03:50]:

在这种情况下,最优模型是否应该对应于全局最小值?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 19:03:54]:

不,最优模型并不一定对应于全局最小值。在某些情况下,尤其是在数据存在噪声的情况下,可以通过重新训练模型来达到全局最小值。这样的模型可能在训练数据上显示出很高的准确性,但对新示例的泛化能力却很差。


相反,最佳模型应接近全局最小值,但方差和偏差较小。这样的模型能对新数据做出稳定而准确的预测。因此,在选择最佳模型时,不仅要考虑模型在训练数据上的准确性,还要考虑它对新示例的泛化能力。

请问 GPT,什么时候应该停止训练?你自己还没有回答这个问题。

 
Andrey Dik #:

我不太明白这个问题。请澄清一下。

所以我的计算不正确,答案是 "不"--你对过程有不同的理解。