Представляем первую статью в серии, задуманной, чтобы помочь быстро разобраться в технологии глубокого обучения; мы будем двигаться от базовых принципов к нетривиальным особенностям с целью получить достойную производительность на двух наборах данных: MNIST (классификация рукописных цифр) и CIFAR-10 (классификация небольших изображений по...
我明白了,我想这里没有人在实践中进行过比较 :) 我会寻找资料,以便在发现外交不比脚手架有优势的情况下不至于被骗。由于那里的组成部分是一个MLP,因此很可能它不...
顺便说一下,任何有2层以上的东西都被称为diplerning, 有2个隐藏层的MLP也是diplerning。我指的是深网,弗拉基米尔在上述链接的文章中描述了深网。
完全错了。你从哪里得到这些信息?
虽然他们说预测因子是最重要的,因为模型的工作原理是一样的......但那是理论,在实践中,事实证明,模型的选择也是非常重要的,例如在速度和质量之间的妥协,因为NS往往是长...
DNN 它非常快,经过测试。
我想从MT5 直接连接到P服务器,或者从MT5直接连接到P服务器,但直接连接更好。你需要1次用C++重写你在mql上需要的神经网络,就这样。
你如何检查?这对我来说很有效。
啊,忘了加上IMHO
基于实践的IMHO
祝好运
深度学习(也被称为深度结构化学习 或分层学习)是将包含一个以上隐藏层 的人工神经网络(ANN)应用于学习任务。深度学习是更广泛的机器学习 方法系列的一部分,它基于学习数据表征,而不是具体的任务算法。学习可以是监督的、部分监督的或无监督的。
关于用自动编码器的浸渍,是的,它很快,但我还没有到它们,所以有一个逻辑问题--与射频相比,是否有优势?
p.s. 它在优化器中也能工作吗? 或者在云端?
https://en.wikipedia.org/wiki/Deep_learning
深度学习(也被称为深度结构化学习 或分层学习)是将包含一个以上隐藏层 的人工神经网络(ANN)应用于学习任务。深度学习是更广泛的机器学习 方法系列的一部分,它基于学习数据表征,而不是具体的任务算法。学习可以是监督的、部分监督的或无监督的。
关于带自动编码器的外交是的,速度很快,但我还没有接触到它们,所以这是一个合乎逻辑的问题--与射频相比有什么优势吗?
p.s. 它在优化器中飞行吗? 在云中呢?
https://en.wikipedia.org/wiki/Deep_learning
1.你在哪里找到这个定义的?你是认真的吗?当我有时间时,我会找到严肃来源的链接。
2.带有预学习的DNN的主要优势是转移学习。明显更快、更准确和...使用darch 包。
3.任何优化都必须在R中完成。更快、更透明、更灵活。
祝好运
1.你在哪里找到这个定义的?你是认真的吗?当我有时间时,我会找到严肃来源的链接。
2.带有预学习的DNN的主要优势是转移学习。明显更快、更准确和...使用darch 包。
3.任何优化都必须在R中完成。更快、更透明、更灵活。
祝好运
尽管 "深度学习 "一词可以在更广泛的意义上被理解,但它大多被应用于(人工)神经网络 领域。
https://habrahabr.ru/company/wunderfund/blog/314242/
和这里
他们可能都在撒谎,我不知道 )
当然,是IMHO。
预测器有什么用?一个时间序列就是一个预测器。
他们忘了放(c):))
忘了放(c):))
你引用了谁的话?)
虽然 "深度学习 "一词可以在更广泛的意义上理解,但在大多数情况下,它被应用于(人工)神经网络领域。
https://habrahabr.ru/company/wunderfund/blog/314242/
而看吧。
也许他们都在撒谎,我没有意识到这一点 )
当然,是IMHO。
不,他们没有。以下是一个解释(来自一篇我永远也无法完成的文章:(
简介
主要的研究领域和应用
目前,在深度神经网络的研究和应用中(我们只谈多层全链路神经网络--MLP),出现了两种主要的潮流,它们在隐蔽层中神经元权重的初始化方法上有所不同。
第一:众所周知,神经网络对隐藏层中神经元的初始化方式极为敏感,特别是当隐藏层的数量大于3时。这个问题的最初推动力是由G. Hynton教授提出的。这个想法是,神经网络隐藏层的神经元的权重可以通过由RBM(受限玻尔兹曼机)或AE(自动编码器)组成的自动关联网络的无监督训练得到的权重来初始化。这些堆积式RBM(SRBM)和堆积式AE(SAE)是在一个大的无标签数据集上以某种方式训练的。这种训练的目的是为了识别数据中的隐藏结构(表征、图像)和依赖关系。用预训练期间获得的权重初始化MLP神经元,使MLP处于最接近最优的解空间。这使得MLP的后续微调(训练)有可能应用较少的标记数据和较少的训练周期。对于许多实际应用(尤其是在 "大数据 "处理方面),这些都是至关重要的优势。
第二: 一组科学家(Benjio等人)把主要精力放在开发和研究隐藏神经元的初始化、特殊激活函数、稳定和学习方法的具体方法上。这一方向的成功主要归功于深度卷积和递归神经网络(DCNN、RNN)的快速发展,它们在图像识别、文本分析和分类以及将现场语音从一种语言翻译成另一种语言方面显示出惊人的成果。为这些神经网络开发的想法和方法已被应用于MLP,并取得了同样的成功。
今天,这两个方向在实践中都被积极使用。两种方法的比较实验[]并没有发现一种方法比另一种方法有明显的优势,但有一点是清楚的。预训练的神经网络需要的训练和计算资源 要少得多,而得到的结果几乎相同。对于某些领域来说,这是一个非常重要的优势。
祝好运
今天,这两种方法在实践中都被积极使用。两种方法的比较实验[]并没有显示出一种方法比另一种方法有明显的优势,但有一个优势。带有预训练的神经网络需要的训练实例和计算资源 要少得多,但结果几乎相同。对于某些领域来说,这是一个非常重要的优势。
祝好运
最近,我又回到了以前熟悉的GARCH。在迷恋机器学习数年之后,让我极为惊讶的是大量关于GARCH在金融时间序列(包括货币)中的应用的出版物。
你有类似于深度网络的东西吗?