如何正确形成NS的输入值。 - 页 13

 

朋友们,我为 "插嘴 "而道歉。

有人在这个方向上工作过吗?

在没有先验知识的情况下 "捞 "出有用信息的想法似乎很诱人。我想知道这在我们的业务中如何现实地使用?

 
Neutron писал (а)>>

朋友们,我为 "插嘴 "而道歉。

有人在这个方向上工作过吗?

在没有先验知识的情况下 "捞 "出有用信息的想法似乎很诱人。我想知道这在我们的业务中如何现实地使用?

像这样的反馈

 
这看起来像是一种关联。也就是说,你要找的函数是一个从输入到输出或反之亦然的相关函数。
 

互惠信息被作为目标函数提供。也就是说,它是一种没有老师的学习的变体。

这就是最终的结果吗?某种滑动的矢量,即多维的muving

 
YuraZ писал (а)>>

>>像这样的反馈


不,它看起来更像是PCA。

 
lna01 писал (а)>>
不,相互信息是作为一个目标函数提供的。因此,这是一种没有老师的学习的变体。

为什么不呢?如果存在相关性,在训练期间,目标函数就会趋向于1。原则上,我看不出与传统优化有什么区别。

 
sergeev писал (а)>>

2 YuraZ.人 们正在回升,这很好。

你在上述主题中的专家是我的第一个介绍。非常感谢您提供的代码。我将在此粘贴其稍作修正和装饰的版本。对于初学者来说,这已经很不错了。


我严格比较了我的版本与真实版本在测试模式上的输出。

我试过你的版本,我从来没有成功地教过它!

在我的变体中,学习速度更快

 
Neutron писал (а)>>

在没有先验知识的情况下 "捞 "出有用信息的想法似乎很诱人。我想知道这在我们的案例中如何现实地使用?

那么I(X, Y)函数呢?



IMHO,PCA(主成分分析)或MGC(主成分法)和再循环网络是你需要的。
 
FION писал (а)>>

为什么不呢?如果存在相关性,在训练期间,目标函数就会趋向于1。原则上,我看不出与传统优化有什么区别。

"不 "指的是反馈:)。至于作为目标函数的相关性,它似乎确实与相互信息有关。但由于公式不同,学习的轨迹也可能不同。一般来说,对于一个或多或少复杂的系统,很难指望达到全球极值。而由此产生的局部极值对于不同的学习路径可能是不同的。

 
Neutron писал (а)>>

朋友们,我为 "插嘴 "而道歉。

有人在这个方向上工作过吗?

在没有先验知识的情况下 "捞 "出有用信息的想法似乎很诱人。我想知道这在我们的案例中如何现实地使用?

我可以问一下这段摘录是出自哪里吗?我曾经尝试过从噪声中提取一个有用的信号,但工作仍未完成。