神经网络。来自专家的问题。 - 页 5

 
joo писал(а)>> 使用哪种误差标准(健身函数,如果你愿意)直接决定了学习结果。

同意。这就是我想问的,误差和利润之间有什么关系,最好是在OOS....))

 

Too joo你说过,有问题的结果可能是由于数据正常化造成的,我回答说没有。

我同意Leo的观点,决定最终利润的并不总是错误标准,但在我现在面临的任务中,错误才是最重要的。我将在今晚发布网格所做的预测,以获得其他人对预测质量的意见和可能的改进)

 
好的,稍后(2-3小时后),我将尝试合理地展示利润(或任何东西,我们想从网络中得到的东西)如何取决于健身函数。当然,也没有人能够保证我们在未来能够获得利润。但是,网络应该以什么为目标,也许应该毫不含糊地确定。
 
joo >>:

Хорошо, чуть позже (часа через 2-3), попробую обоснованно показать, каким образом профит (или что то другое, не важно, что мы хотим получить от сети) зависит от фитнес функции.

А гарантию того, что мы получим профит в будующем, конечно, никто дать никогда не сможет. А вот к чему стремится должна сетка, пожалуй, мы должны определять для неё однозначно.

你不必浪费你的时间,因为 "想要 "和 "得到 "之间的区别根本不是哲学问题,尽管它是用 "主观 "和 "客观 "的哲学概念制定的。


拟合上的结果与均方根误差成反比,这一点不用你说我们也知道。


毫不含糊地说,净值必须以OOS的利润为目标。否则就没有意义了。

 
Reshetov >>:

То, что результаты на подгонке обратно пропорциональны среднеквадратичной ошибке - это мы и без Вас знаем.

你也在使用均方根误差吗?你是emc网络之父。:)

雷舍托夫 写道(a)>>

肯定的是,网络必须以OOS的利润为目标。否则就没有意义了。

这是可以理解的。另一个问题是它应该如何争取。

 
joo >>:

Вы тоже что ли используете среднеквадратичную ошибку? Отец эмкуэльных сетей Вы наш. :)

Это и ежу понятно. Другой вопрос, как она должна к этому стремится.

我不使用均方根误差进行交易,因为它只表征拟合的质量。


因此,样本中的误差决不应倾向于

 

如同承诺的那样,我在这里贴出一张图片和对它的解释。网络:MLP一个隐藏层。训练中的2000分。1000在出样器上)我从第一张图片中收到了电流和预EMA,从第一张和第二张中收到了预关闭。就这样吧!为什么是所有的,而不是那么少?因为增加神经元、层、输入等的数量根本不影响结果。这就是让我害怕的地方)而显示为预测的东西,你可以得到,嗯,一个非常简单的公式,是用手计算的。为什么我这么不清楚。我应该改变什么?能否做得更好?

 
mrstock >>:

Как и обещал выкладываю картинку и пояснения к ней. Сеть: MLP один скрытый слой. 2000 точек в обучении. 1000 на аут оф сампле) На вход были даны текущее и пред значение ЕМА с первой картинки, а также пред клоуз с первой и второй картинки. Все! Почему все и так мало? Да потому, что увеличение кол-ва нейронов, слоев, входов и т.д. на результат ВООБЩЕ не влияет. Это меня и пугает) Причем, то, что изображено в качестве прогноза, можно получить, ну очень простой формулой, которая ручками считается. Почему так мне непонятно. Что нужно менять? Можно ли сделать лучше?

你已经描述了近似的问题。两个 "参考 "点并不足以描述形状。此外,你还提供了每个人的一个克隆点,它不仅没有描述曲率,而且还是一条直线。从每组输入参数中至少尝试3个点。即三个EMA点和三个子句点,所以有6个输入神经元,隐藏层有6到12个神经元。对于这个问题,隐藏层中更多的神经元数量是不合理的。

 
最初,我从第一个和第二个图表中给出了40个最后一个条款,以及第一个图表中的40个em值--结果相同,几乎完全一样我给了%的增量,而不是abs值--一样的!只有百分之一的差异。如果最后的 "预报 "更顺利,但我没有注意到任何区别。你可以输入一个预EMA值,这是你想在输出端得到的东西。在这种情况下,预测是100%,因为你记得EMA公式是递归的,但在这种情况下,网络不需要)))))。这就是我想不通的地方,我错在哪里了。
 
mrstock >>:
Изначально я давал 40 последних клоузов с первого и второго чарта, а также 40 значений ема с первого чарта - результат тот же, почти один в один! Давал вместо абс значений %-ые приращения - тоже самое! Разница лишь в сотых долях %. Если итоговый "прогноз" и был более плавный, но я разницы на заметил. Можно подать одино из пред значений ЕМА, которую и нужно получить на выходе. В этом случае прогноз 100% т.к. формула ЕМА как Вы помните реккурентная, но в этом случае сети не нужны))))) Вот я и не могу понять, что такое, где я ошибаюсь.

在这里给我一个样本,我在Statistica里试试