神经网络。来自专家的问题。 - 页 9

 
LeoV писал(а)>>

直到什么时候我们才会训练她?达到最小误差?必须明白,这将是100%的过度训练。没有达到最小误差?然后直到什么?利润是什么?究竟为什么会出现这种错误呢?如果我们稍微减少误差,利润是增加还是减少?如果你增加误差呢?

像这样.....))))

直到最小误差为止。为了避免 "过度训练"(这个词完全没有反映出这一现象的含义),网络中的神经元数量必须尽可能地少。训练结束后,有一些程序,如分析网络中单个输入的影响,并删除弱的神经元,以及减少神经元的数量这样的程序。仿佛把它比喻成......。因此,在这个电子脑中,没有不受训练影响的空位。

 
LeoV >>:
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно, делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

如何不是一个答案。答案是。

joo 写道>>

比方说,你对TS尽可能多地发放利润感兴趣,也就是试图增加盈利交易的百分比,当然还有MO。

从这个原则训练出来的网络,你可以预期在OOS上也会有利润。你需要应用一个均方根误差,在 有助于这些目标的模式上突出网络。也就是说,该网络专注于导致某种后果的特定模式。

然而,如果你使用均方根误差,就会出现模式的 "平均化",而不是强调。

你需要训练到最小的平均根误差。而如果你使用均方根误差(不用于近似),过度训练就会发生。对于近似,有效值误差越小越好。

当然,没有人可能对你的问题给出具体的答案,即使他们想这样做。我只是想表明,选择健身函数几乎是一项更重要的任务,它将决定我们问题的答案,而不是选择网格的输入值。而作为一项规则,它仅限于对输入数据进行令人痛苦和耗时的列举......。

而Integer在我写的时候就有点超前了。我同意他的观点。

 
Integer писал(а)>>

直到最小误差为止。为了避免 "过度训练"(这个词完全没有反映出这一现象的含义),网络中的神经元数量必须尽可能地少。训练结束后,有一些程序,如分析网络中单个输入的影响,并去除弱的输入,以及减少神经元的数量这样的程序。仿佛把它比喻成......。因此,在这个电子脑中,没有不受训练影响的空位。

那你说的 "再培训 "是什么意思?

 
joo писал(а)>>

我同意你的观点,就像我同意Integer 的观点一样。

>>没有 人可以给你的问题提供具体答案。
))))
 
LeoV писал(а)>>

那么你对 "再培训 "一词的理解是什么?

在神经网络的应用和训练方面,我完全不理解,它没有反映出这个现象的意义。正如他们所写的神经网络,例如这里(不仅如此)--http://www.exponenta.ru/soft/others/mvs/stud3/3.asp。

太少的例子会导致网络的 "过度训练",当它在训练样本例子上表现良好,但在受相同统计分布影响的测试例子上表现不佳。

可以理解为在比它能容纳的更少的例子上训练网络。如果情况不完全类似于参差不齐的经验,就会变得参差不齐,令人困惑。"缺口 "来自 "死记硬背 "一词--熟记于心,但不理解或不能应用这些信息。

 
LeoV >>:

Я с вами согласен, точно так же как и с Integer. Но вы сами написали -

))))

嗯,还是那句话,我的意思是在具体数字上不太可能。:)

 
Integer писал(а)>>

在神经网络的应用和训练方面,我完全不理解,它没有反映出这个现象的意义。正如他们所写的神经网络,例如这里(不仅如此)--http://www.exponenta.ru/soft/others/mvs/stud3/3.asp。

我把它理解为在比它能容纳的更少的例子上训练一个网络。如果情况不完全像参差不齐的经验,它就会变得参差不齐,令人困惑。"死记硬背 "来自 "死记硬背 "一词--熟记于心,但不理解或不能应用这些信息。

在我看来,"过度学习 "这个词更适用于神经网络在金融市场的应用。我们知道,市场随着时间的推移而变化,模式也在变化,未来的市场不会和过去完全一样。因此,当一个网络学得太好时,它就把市场学得太好,并且在未来不再能够充分地工作--在一个已经改变的市场中。这就是 "过度学习"。减少神经元的数量当然是避免 "再训练 "的一种方法。但它并不单独起作用。

 
LeoV >>:

Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно(для "академических целей"), делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Ну вот как-то так.....))))

网络被训练到测试样本上的最小误差,调整训练样本上的权重。

 
StatBars писал(а)>>

网络被训练到测试样本上的最小误差,调整训练样本上的权重。

这是可以理解的。误差越小,利润越大?或者说有什么关联性?

 
Integer >>:

До минимальной ошибки. Чтобы "переобучения" (слово совершенно не отражающее смысл явления) не было, количество нейронов в сети должно быть минимально возможным. После обучения существует такие процедуры, как анализ влияния отдельных входов сети и удаление слабовлиящих, и такая процедура, как сокращение количества нейронов. Как бы так образно ... чтобы в этом электронном мозге не оставалась пустых мест не затронутых обучением.

神经元的数量并不总是起到决定性的作用,尽管选择神经元的数量(在大多数情况下是最小的而不损失准确性)会导致误差的减少。

影响输入和去除不必要的输入,往往比在一个层中选择神经元有更大的效果。