一个快速和免费的MT4资料库,让神经网络人非常高兴。 - 页 13

 
Figar0 >> :

其结果只是一个理智的,它被使用,但我不能说这是ZZ的优点)。

发出的不是承诺,只是一些(kol'ton集)网选择了最小的错误,但Statistisu不应该喂养没有准备的数据是一种错觉。当然,为了寻求决定,可以尝试不同的东西,但把所有东西都倒在一个格子里,让它沸腾,是不可能的,这里的任何人都会这样告诉你。

请告诉我,如果你的工作成果不向公众保密,那么在什么方向工作是值得的呢?

 
Kharin >> :

你们确定图书馆不是 "歪 "的吗?

情况是这样的:错误信息定期弹出,终端将被关闭。

阅读该主题。它是用俄语写的。

static bool Parallel = true;

Если параллельный режим не поддерживается процессором, то это может привести к тому, что терминал выгрузится с сообщением об ошибке
 
lasso >> :

去他妈的议员。 没有必要重写和处理它。

有一种怀疑是图书馆本身的不正确操作,有必要查明是否是这种情况。否则就没有必要继续前进。

我对你的情况进行了模拟。事实上,当使用ann_train时,即使用~10,000个信号训练网络后,反应也是一样的。使用ann_train_fast时,网络的反应有时不同,有时不一样。

我认为确实存在一个问题,至少在天平的随机化方面。

 

尝试注释掉f2M_randomize_weights。如果网的反应不同,那么FANN2MQL中就会出现错误。如果它们仍然相同,则FANN中存在错误。

默认是随机化(-0.1 ... 0.1)。


UPD: 我自己检查过了。在这两种情况下都有随机性。只有一个奇怪的现象--连续2至5个网的反应相同,然后是一组其他相同的网。因此,每16个网有5个不同的答案。如果不纠正错误,一个由N个成员组成的委员会需要3*N个网,其余的是压舱物。

 
Henry_White >> :

阅读该主题。这是用俄语写的。

谁告诉你我用平行模式的?

你为什么要以说教的方式 "扔大便 "呢?如果你不能说出堆栈中写的是什么,以及错误到底是什么。

不要说什么。是的,现在我们将开始谈论心灵感应等等,我警告这哭:给出了错误信息。

其全文,使用的功能与Yury Reshetov的相同,没有使用并行模式。

这个消息的原因是什么?

 
Kharin >> :

谁告诉你我在使用平行模式?

请您原谅))。

 
Kharin писал(а)>>

这就是为什么我认为你的最后一句话是无稽之谈。

你这么想是因为你针对我,而我只是想说这个库没有一个强大的错误处理程序,不能原谅对对象和指向对象的不正确处理。 所以,让我们成为朋友吧! )))

你试过雷舍托夫的专家顾问吗? 它也会反弹终端吗?

 
Dali писал(а)>>

UPD: 我自己检查过了。在这两种情况下都有随机性。只是有一个奇怪的现象--连续2至5个网的答案相同,然后是一组其他相同的网。因此,每16个网有5个不同的答案。如果不纠正错误,由N个成员组成的委员会需要3*N个网,其余的是压舱物。

注意到了。随机化从-1到1,在网络配置文件中,权重从-10.0e-003到10.0e-003。

例子。(12, -7.35577636217311400000e-003) (13, 7.63970005423449810000e-002)

这是否正确?

.....

是的,发生了同样的事情,即前两个或四个网的输出值与后面的网不同。

试着用不同的系数乘以输入。这并不能解决这个问题。

 
lasso >> :

你这么想是因为你针对我,而我只是想说这个库没有一个强大的错误处理程序,不能原谅对对象和指向对象的不正确处理。 所以,让我们成为朋友吧! )))

你试过雷舍托夫的专家顾问吗? 它是否也会反弹到终端?

我更喜欢友谊)))。

雷舍托夫的专家顾问在我废除并行计算之前就敲定了终端。

现在,我在所有方向上尝试我的专家顾问,并通过打印检查操作的成功。

我注意到以下特点:创建网格可能不成功(()。

a = f2M_create_standard(nn_layer,nn_input,nn_hidden1,nn_hidden2,nn_output)。

这一行经常返回-1。

更准确地说,有些时候它返回的不是-1,然后只有-1。

摆脱它的唯一方法是重新启动计算机。我想原因是之前的网格不会被删除,而新的网格又没有地方可供删除。

而新的一个没有地方可去,所以我做了这段代码。

for (int i=0;i<1024;i++)
{ann_destroy (ann[i]);}
int a=-1;
while(a<0)
{
a = f2M_create_standard (nn_layer,nn_input,nn_hidden1,nn_hidden2,nn_output);
Print(a);
}


那么现在可以肯定的是,前1024个网应该被删除!(我可能是错的)。

但同样,它在日志中写的是-1。在重新启动之前...

 

好吧,我想我也会加入FANN的奇特之处...

作为一个实验,我决定用暴力训练一个由46个30/N/N/1维度的网组成的委员会(即在每个条上:~300k)。每个数据通道有一个NS。 一个时间模式被送入输入。我搞乱了维度,这就是为什么我指定N/N(我试过不同的)。我还玩起了图层。
启动器 - FANN_SIGMOID_SYMMETRIC_STEPWISE。试过其他的,但网络收敛的速度没有这个快。
我只教1或-1。在每个迭代中学习。
学习的正负迭代次数几乎相等。确切地说,是132522/112221。
数据被规范化为1:1的范围。
几乎所有的网格在训练结束时都收敛到了0.09以内的有效值。 这当然是很多的,但这不是重点。

但奇怪的是,在测试部分,整个委员会得出的数值都接近-1。我认为,这对NS来说是不健康的行为。也许库中也有一个算法错误...

还有一个观察...通过正常的训练(只有信号部分),委员会仍然倾向于在负值中堆积,尽管不像在Bruteforce中那么明显。

有没有人在自己身上观察到类似的现象?也许你有一些想法?


可视化输入数据的例子(如下)。