LeoV>>: Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно, делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем?До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно(для "академических целей"), делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?
До минимальной ошибки. Чтобы "переобучения" (слово совершенно не отражающее смысл явления) не было, количество нейронов в сети должно быть минимально возможным. После обучения существует такие процедуры, как анализ влияния отдельных входов сети и удаление слабовлиящих, и такая процедура, как сокращение количества нейронов. Как бы так образно ... чтобы в этом электронном мозге не оставалась пустых мест не затронутых обучением.
直到什么时候我们才会训练她?达到最小误差?必须明白,这将是100%的过度训练。没有达到最小误差?然后直到什么?利润是什么?究竟为什么会出现这种错误呢?如果我们稍微减少误差,利润是增加还是减少?如果你增加误差呢?
像这样.....))))
直到最小误差为止。为了避免 "过度训练"(这个词完全没有反映出这一现象的含义),网络中的神经元数量必须尽可能地少。训练结束后,有一些程序,如分析网络中单个输入的影响,并删除弱的神经元,以及减少神经元的数量这样的程序。仿佛把它比喻成......。因此,在这个电子脑中,没有不受训练影响的空位。
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно, делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?
如何不是一个答案。答案是。
joo 写道>>
比方说,你对TS尽可能多地发放利润感兴趣,也就是试图增加盈利交易的百分比,当然还有MO。
从这个原则训练出来的网络,你可以预期在OOS上也会有利润。你需要应用一个均方根误差,在 有助于这些目标的模式上突出网络。也就是说,该网络专注于导致某种后果的特定模式。
然而,如果你使用均方根误差,就会出现模式的 "平均化",而不是强调。
你需要训练到最小的平均根误差。而如果你使用均方根误差(不用于近似),过度训练就会发生。对于近似,有效值误差越小越好。
当然,没有人可能对你的问题给出具体的答案,即使他们想这样做。我只是想表明,选择健身函数几乎是一项更重要的任务,它将决定我们问题的答案,而不是选择网格的输入值。而作为一项规则,它仅限于对输入数据进行令人痛苦和耗时的列举......。
而Integer在我写的时候就有点超前了。我同意他的观点。
直到最小误差为止。为了避免 "过度训练"(这个词完全没有反映出这一现象的含义),网络中的神经元数量必须尽可能地少。训练结束后,有一些程序,如分析网络中单个输入的影响,并去除弱的输入,以及减少神经元的数量这样的程序。仿佛把它比喻成......。因此,在这个电子脑中,没有不受训练影响的空位。
那你说的 "再培训 "是什么意思?
我同意你的观点,就像我同意Integer 的观点一样。
那么你对 "再培训 "一词的理解是什么?
在神经网络的应用和训练方面,我完全不理解,它没有反映出这个现象的意义。正如他们所写的神经网络,例如这里(不仅如此)--http://www.exponenta.ru/soft/others/mvs/stud3/3.asp。
太少的例子会导致网络的 "过度训练",当它在训练样本例子上表现良好,但在受相同统计分布影响的测试例子上表现不佳。
可以理解为在比它能容纳的更少的例子上训练网络。如果情况不完全类似于参差不齐的经验,就会变得参差不齐,令人困惑。"缺口 "来自 "死记硬背 "一词--熟记于心,但不理解或不能应用这些信息。
Я с вами согласен, точно так же как и с Integer. Но вы сами написали -
))))嗯,还是那句话,我的意思是在具体数字上不太可能。:)
在神经网络的应用和训练方面,我完全不理解,它没有反映出这个现象的意义。正如他们所写的神经网络,例如这里(不仅如此)--http://www.exponenta.ru/soft/others/mvs/stud3/3.asp。
我把它理解为在比它能容纳的更少的例子上训练一个网络。如果情况不完全像参差不齐的经验,它就会变得参差不齐,令人困惑。"死记硬背 "来自 "死记硬背 "一词--熟记于心,但不理解或不能应用这些信息。
在我看来,"过度学习 "这个词更适用于神经网络在金融市场的应用。我们知道,市场随着时间的推移而变化,模式也在变化,未来的市场不会和过去完全一样。因此,当一个网络学得太好时,它就把市场学得太好,并且在未来不再能够充分地工作--在一个已经改变的市场中。这就是 "过度学习"。减少神经元的数量当然是避免 "再训练 "的一种方法。但它并不单独起作用。
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно(для "академических целей"), делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?
Ну вот как-то так.....))))
网络被训练到测试样本上的最小误差,调整训练样本上的权重。
网络被训练到测试样本上的最小误差,调整训练样本上的权重。
这是可以理解的。误差越小,利润越大?或者说有什么关联性?
До минимальной ошибки. Чтобы "переобучения" (слово совершенно не отражающее смысл явления) не было, количество нейронов в сети должно быть минимально возможным. После обучения существует такие процедуры, как анализ влияния отдельных входов сети и удаление слабовлиящих, и такая процедура, как сокращение количества нейронов. Как бы так образно ... чтобы в этом электронном мозге не оставалась пустых мест не затронутых обучением.
神经元的数量并不总是起到决定性的作用,尽管选择神经元的数量(在大多数情况下是最小的而不损失准确性)会导致误差的减少。
影响输入和去除不必要的输入,往往比在一个层中选择神经元有更大的效果。