交易中的机器学习:理论、模型、实践和算法交易 - 页 3317 1...331033113312331333143315331633173318331933203321332233233324...3399 新评论 СанСаныч Фоменко 2023.10.26 11:27 #33161 Andrey Dik #:待在原地别动每个人都很蠢,除了你,所以你才是那个回答问题的人。那是什么?那边的红晕是什么?圆圆的,红红的,在下面 我从没见过这样的图 虚构主义者,你在胡编乱造,强行讨论不存在的东西。 其实,从某个模型中得到这样的图形是很正常的,而不是在这里胡言乱语好几年。 Maxim Dmitrievsky 2023.10.26 11:29 #33162 因此,在你图表上的全球低点,会出现巨大的过度训练,因为轴曲线会尽可能地向上。 Aleksey Vyazmikin 2023.10.26 11:54 #33163 Andrey Dik #: 我是否正确理解了您的理解,即学习是在没有函数的某些成员的情况下找到函数的答案? 例如,我们有 A+B+C=Y 的观测值,A 和 B 是预测因子,C 是未知数,通过优化熟悉样本的答案(标记)后,我们选择 C 值的补偿,补偿可以通过操作来表达,包括在 NS 的情况下乘以系数,或者通过相互规则。也就是说,为了替换缺失的变量并获得正确的答案,需要对函数进行积极的研究。假定样本中的函数计算结果具有足够的代表性,其结果可用于新数据。 然而,在测试仪中进行优化时,我们可以改变变量值(实质上是将其表示为函数),假设我们不知道这些变量,甚至知道哪些变量会以近似 Y 值的规则形式给我们的补偿函数带来更大权重。 Maxim Dmitrievsky 2023.10.26 11:58 #33164 既然我们已经知道了什么是教师,现在再一次为安德鲁提供图片 https://ru.wikipedia.org/wiki/%D0%94%D0%B8%D0%BB%D0%B5%D0%BC%D0%BC%D0%B0_%D1%81%D0%BC%D0%B5%D1%89%D0%B5%D0%BD%D0%B8%D1%8F%E2%80%93%D0%B4%D0%B8%D1%81%D0%BF%D0%B5%D1%80%D1%81%D0%B8%D0%B8 Maxim Dmitrievsky 2023.10.26 12:00 #33165 chatGPT 的进一步提问。 Max, [2023 年 10 月 26 日 18:59:31]: 位移-分散困境与寻找全局最小值有什么关系? ChatGPT & Midjourney | AI bot, [26 Oct 2023, 18:59:38]: 偏置-分散困境指的是机器学习中的模型选择问题。它表明,随着模型复杂度的增加(如增加新特征或增加参数数量),模型预测的方差(分散性)也会增加,但可能会偏向于更简单的模型(误差)。 另一方面,寻找全局最小值指的是优化模型参数。目标是选择误差函数达到最小值的参数值。然而,由于参数数量多,模型复杂,找到全局最小值可能很难甚至不可能。 因此,偏差-离散困境和寻找全局最小值是相关的,即为机器学习问题选择过于复杂的模型会导致过度训练问题(高方差),而使用过于简单的模型则会导致训练不足问题(高偏差)。这会导致难以找到全局最小值,从而导致次优结果。因此,必须在模型的复杂性和泛化数据的能力之间找到平衡点,以获得最佳结果。 Maxim Dmitrievsky 2023.10.26 12:04 #33166 Max, [2023 年 10 月 26 日 19:03:50]: 在这种情况下,最优模型应该对应于全局最小值,还是不对应? ChatGPT & Midjourney | AI bot, [26 Oct 2023, 19:03:54]: 不,最优模型并不一定对应于全局最小值。在某些情况下,尤其是在数据存在噪声的情况下,可以通过重新训练模型来达到全局最小值。这样的模型在训练数据上可能显示出很高的准确性,但对新示例的泛化能力却很差。 相反,最佳模型应接近全局最小值,但方差和偏差较小。这样的模型能对新数据做出稳定而准确的预测。因此,在选择最佳模型时,不仅要考虑模型在训练数据上的准确性,还要考虑它对新示例的泛化能力。 Andrey Dik 2023.10.26 12:04 #33167 Aleksey Vyazmikin #:我的理解是否正确,您将学习表述为在不包含函数部分成员的情况下找到函数的答案?例如,我们有 A+B+C=Y 的观测值,A 和 B 是预测因子,C 是未知数,通过优化熟悉样本的答案(标记)后,我们选择补偿 C 值,补偿可以通过操作来表示,包括在 NS 的情况下乘以系数,或者通过相互规则来表示。也就是说,为了替换缺失的变量并获得正确答案,需要对函数进行积极的研究。此外,还假定样本中的函数计算结果具有足够的代表性,这样才能将结果用于新数据。然而,在测试仪中进行优化时,我们可以改变变量值(实质上是将它们表示为函数),假设我们不知道它们,甚至不知道哪些变量会以近似 Y 值规则的形式给我们的补偿函数带来更大权重。 我不太理解这个问题。请澄清一下。 Aleksey Vyazmikin 2023.10.26 12:06 #33168 Maxim Dmitrievsky chatGPT。 Max, [2023 年 10 月 26 日 18:59:31]:位移-分散困境与寻找全局最小值有何关系?ChatGPT & Midjourney | AI bot, [26 Oct 2023, 18:59:38]:偏差-分散困境指的是机器学习中的模型选择问题。它表明,随着模型复杂性的增加(如增加新特征或增加参数数量),模型预测的方差(分散性)也会增加,但可能会偏向于更简单的模型(误差)。 如何建议在分类而不是回归中考虑误差的方差(扩散)? Andrey Dik 2023.10.26 12:06 #33169 Maxim Dmitrievsky #:麦克斯,[2023 年 10 月 26 日 19:03:50]:在这种情况下,最优模型是否应该对应于全局最小值?ChatGPT & Midjourney | AI bot, [26 Oct 2023, 19:03:54]:不,最优模型并不一定对应于全局最小值。在某些情况下,尤其是在数据存在噪声的情况下,可以通过重新训练模型来达到全局最小值。这样的模型可能在训练数据上显示出很高的准确性,但对新示例的泛化能力却很差。相反,最佳模型应接近全局最小值,但方差和偏差较小。这样的模型能对新数据做出稳定而准确的预测。因此,在选择最佳模型时,不仅要考虑模型在训练数据上的准确性,还要考虑它对新示例的泛化能力。 请问 GPT,什么时候应该停止训练?你自己还没有回答这个问题。 Aleksey Vyazmikin 2023.10.26 12:06 #33170 Andrey Dik #:我不太明白这个问题。请澄清一下。 所以我的计算不正确,答案是 "不"--你对过程有不同的理解。 1...331033113312331333143315331633173318331933203321332233233324...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
待在原地别动每个人都很蠢,除了你,所以你才是那个回答问题的人。
那是什么?那边的红晕是什么?圆圆的,红红的,在下面
我从没见过这样的图
虚构主义者,你在胡编乱造,强行讨论不存在的东西。
其实,从某个模型中得到这样的图形是很正常的,而不是在这里胡言乱语好几年。
我是否正确理解了您的理解,即学习是在没有函数的某些成员的情况下找到函数的答案?
例如,我们有 A+B+C=Y 的观测值,A 和 B 是预测因子,C 是未知数,通过优化熟悉样本的答案(标记)后,我们选择 C 值的补偿,补偿可以通过操作来表达,包括在 NS 的情况下乘以系数,或者通过相互规则。也就是说,为了替换缺失的变量并获得正确的答案,需要对函数进行积极的研究。假定样本中的函数计算结果具有足够的代表性,其结果可用于新数据。
然而,在测试仪中进行优化时,我们可以改变变量值(实质上是将其表示为函数),假设我们不知道这些变量,甚至知道哪些变量会以近似 Y 值的规则形式给我们的补偿函数带来更大权重。
既然我们已经知道了什么是教师,现在再一次为安德鲁提供图片
https://ru.wikipedia.org/wiki/%D0%94%D0%B8%D0%BB%D0%B5%D0%BC%D0%BC%D0%B0_%D1%81%D0%BC%D0%B5%D1%89%D0%B5%D0%BD%D0%B8%D1%8F%E2%80%93%D0%B4%D0%B8%D1%81%D0%BF%D0%B5%D1%80%D1%81%D0%B8%D0%B8
chatGPT 的进一步提问。
Max, [2023 年 10 月 26 日 18:59:31]:
位移-分散困境与寻找全局最小值有什么关系?
ChatGPT & Midjourney | AI bot, [26 Oct 2023, 18:59:38]:
偏置-分散困境指的是机器学习中的模型选择问题。它表明,随着模型复杂度的增加(如增加新特征或增加参数数量),模型预测的方差(分散性)也会增加,但可能会偏向于更简单的模型(误差)。
另一方面,寻找全局最小值指的是优化模型参数。目标是选择误差函数达到最小值的参数值。然而,由于参数数量多,模型复杂,找到全局最小值可能很难甚至不可能。
因此,偏差-离散困境和寻找全局最小值是相关的,即为机器学习问题选择过于复杂的模型会导致过度训练问题(高方差),而使用过于简单的模型则会导致训练不足问题(高偏差)。这会导致难以找到全局最小值,从而导致次优结果。因此,必须在模型的复杂性和泛化数据的能力之间找到平衡点,以获得最佳结果。
Max, [2023 年 10 月 26 日 19:03:50]:
在这种情况下,最优模型应该对应于全局最小值,还是不对应?
ChatGPT & Midjourney | AI bot, [26 Oct 2023, 19:03:54]:
不,最优模型并不一定对应于全局最小值。在某些情况下,尤其是在数据存在噪声的情况下,可以通过重新训练模型来达到全局最小值。这样的模型在训练数据上可能显示出很高的准确性,但对新示例的泛化能力却很差。
相反,最佳模型应接近全局最小值,但方差和偏差较小。这样的模型能对新数据做出稳定而准确的预测。因此,在选择最佳模型时,不仅要考虑模型在训练数据上的准确性,还要考虑它对新示例的泛化能力。
我的理解是否正确,您将学习表述为在不包含函数部分成员的情况下找到函数的答案?
例如,我们有 A+B+C=Y 的观测值,A 和 B 是预测因子,C 是未知数,通过优化熟悉样本的答案(标记)后,我们选择补偿 C 值,补偿可以通过操作来表示,包括在 NS 的情况下乘以系数,或者通过相互规则来表示。也就是说,为了替换缺失的变量并获得正确答案,需要对函数进行积极的研究。此外,还假定样本中的函数计算结果具有足够的代表性,这样才能将结果用于新数据。
然而,在测试仪中进行优化时,我们可以改变变量值(实质上是将它们表示为函数),假设我们不知道它们,甚至不知道哪些变量会以近似 Y 值规则的形式给我们的补偿函数带来更大权重。
我不太理解这个问题。请澄清一下。
Max, [2023 年 10 月 26 日 18:59:31]:
位移-分散困境与寻找全局最小值有何关系?
ChatGPT & Midjourney | AI bot, [26 Oct 2023, 18:59:38]:
偏差-分散困境指的是机器学习中的模型选择问题。它表明,随着模型复杂性的增加(如增加新特征或增加参数数量),模型预测的方差(分散性)也会增加,但可能会偏向于更简单的模型(误差)。
如何建议在分类而不是回归中考虑误差的方差(扩散)?
麦克斯,[2023 年 10 月 26 日 19:03:50]:
在这种情况下,最优模型是否应该对应于全局最小值?
ChatGPT & Midjourney | AI bot, [26 Oct 2023, 19:03:54]:
不,最优模型并不一定对应于全局最小值。在某些情况下,尤其是在数据存在噪声的情况下,可以通过重新训练模型来达到全局最小值。这样的模型可能在训练数据上显示出很高的准确性,但对新示例的泛化能力却很差。
相反,最佳模型应接近全局最小值,但方差和偏差较小。这样的模型能对新数据做出稳定而准确的预测。因此,在选择最佳模型时,不仅要考虑模型在训练数据上的准确性,还要考虑它对新示例的泛化能力。
请问 GPT,什么时候应该停止训练?你自己还没有回答这个问题。
我不太明白这个问题。请澄清一下。
所以我的计算不正确,答案是 "不"--你对过程有不同的理解。