В данном режиме происходит полный перебор всех возможных комбинаций значений входных переменных, выбранных для оптимизации на соответствующей вкладке. Быстрая (генетический алгоритм) В основу данного типа оптимизации заложен генетический алгоритм подбора наилучших значений входных параметров. Данный тип оптимизации значительно быстрее полного...
darch()函数里面默认有seed = NULL参数。 将其设置为某种状态,例如seed = 12345。
这是一个小的学习率值。开始时,RBM和NN的学习率=0.7,numEpochs=10。但这是上限数据。你需要为特定的数据集进行优化。
祝好运
而如果想做一个合集,那么set.seed()最好是删除,对吗?这样,网格就会不同。或者set.seed(N mesh)--为了整个集合的可重复性。
是的,这是正确的。一个如此复杂的模型(我指的是达奇)的合奏可以包含不超过3-5件。而且他们一定是非常不同的。也就是说,它们必须有不同的参数值(层数、神经元、激活函数等),或者(许多其他的变体,我现在不会描述)。用不同的初始化训练的相同结构的集合变体可能是可能的,但它很弱。至少要让初始化的类型不同。
祝好运
是的,这是正确的。一个如此复杂的模型(我指的是达奇)的合奏可以包含不超过3-5件。而且他们一定是非常不同的。也就是说,它们必须有不同的参数值(层数、神经元、激活函数等),或者(许多其他的变体,我现在不会描述)。用不同的初始化训练的相同结构的集合变体可能是可能的,但它很弱。至少要让初始化的类型不同。
祝好运
如果你在一个相同的数据上对一组训练进行竞赛处理,以确定最佳结构,你最好把结果放在集合中。如果你想使用最简单的选项--网格的神经元间隔为5或百分比(这个间隔的模型会非常好),然后取3-5或10个最好的结果,并按这些结果取平均值。反正模型会被建立和计算出来,那么我们为什么要浪费我们的努力呢?))
如果我们必须在相同的数据上对CPU进行大量的训练以确定最佳结构,那么最好将结果放在一个集合体中。如果我们假设最简单的选择--神经元间距为5或百分比的网格(有这样的间距,模型也会有很大的不同),然后取3-5或10个最佳结果,用它们进行平均。反正模型会被建立和计算出来,那么我们为什么要浪费我们的努力呢?))
你对这些模型的总体情况如何? 是否值得上手?:) 讨论正在进行,但没有人谈及结果。
也许有些长椅与Perseptrone或gbm相比。当然,对于外汇而言。
:) 因为有讨论但没有人宣布结果。
你对这些模型的总体情况如何? 是否值得上手?:) 讨论正在进行,但没有人说出结果。
我和大多数人一样,有一个濒临50%的错误。但至少它的计数比Alglib快十倍。如果在这里计算模型需要40-100分钟,我在Alglib上等待同样的结构超过二十四小时,没有等待,并禁用了计算。
但是,如果现在我必须在循环中捡起模型,这将再次花费大量时间....。我还必须对整个事情进行编程。
一般来说,这是一个很长的时间,因为你不把自己的时间限制在MO上。
有意思--所以我挖)
如果你认为利润图是一个结果,就不会有结果。而大多数人,甚至在这个主题中,除了利润表,不需要任何东西。唯一的证据是,我们根本不理解别人。
你又没有参与腹地的工作。
在测试现场,与大多数人一样,误差接近50%。但至少它的计数比Alglib快几十倍。如果在这里进行40-100分钟的模型计算,则Alglib-e超过一天等待相同的结构,没有等待而禁用该计算。
但是,如果现在我必须在循环中捡起模型,这将再次花费大量时间....。你还必须对它进行编程。
我的意思是,特征的选择仍然是主要问题:)但至少它学习起来比较快,这很好。
也就是说,属性的选择仍然是主要问题 :)
和模型的特点和结构原来是太
1.你说的是什么优化?哪个高原?哪种模式?如果你说的是神经网络,在使用前不对DNN进行训练(优化参数)是很奇怪的。
2.什么模型参数(?)应该是稳定的?
我不明白你的想法。
我说的是DNN的超参数的优化,这必须要做,而不是在测试器中。
你在说什么呢?
该模型作为其他一切的优化标准 的有效性。
什么样的高原?
效率高点。
什么型号?
任何型号。
如果你说的是神经网络,在使用前不对DNN进行训练(优化参数)是很奇怪的。
这就是我曾经问过你的主要问题:训练(参数优化)的结果如何取决于输入预测器的非平稳性。你的回答是:没有。我不清楚,因为NS必须不断地重新训练,所以它们对非平稳性有反应,所以模型的参数是随机变量,所以有一个参数的平稳性问题。因此,这就是GARCH中讨论的、但由于某种原因在分类中没有讨论的一切的全貌。