市场礼仪或雷区中的良好风度 - 页 14 1...789101112131415161718192021...104 新评论 [Supprimé] 2009.05.06 08:44 #131 Neutron >> : 这是最大的错误。市场会惩罚你的无礼行为! 你只能与市场一起玩,并遵守其规则。如果它喜欢这个游戏,它就会奖励你。 你是否将个人素质归于市场,而且是大写的个人素质?:) 市场是一片荒野,与海洋的比喻在我看来是非常恰当的。 Neutron 2009.05.06 10:17 #132 我是在开玩笑:-) 我知道,市场只是一个随机的和某个地方的准稳定的过程。而TS的任务归结为寻找和利用某种静止性的模样。 sealdo писал(а)>> 我想知道是否有办法计算目标(TP、SL),例如从 "天"、"周 "或其他的波动中计算,以便它们可以随市场平稳变化。 这些数值是市场的特征,只能通过在历史上运行TS来评估。 paralocus 2009.05.06 11:41 #133 Neutron >> : 我是在开玩笑:-) 这里有很多严肃的帅哥!开玩笑...>>:) 中子,我有一些关于ORO的问题。我是否正确地理解,当一个误差值被输入到一个神经元时,它在其输入的所有权重之间划分这个误差,根据它们在这些权重的总和中的份额? 也就是说,我们取误差值+/- Er,然后将所有传入突触的权重相加 Sw1 = SUM(w1+w2+w3+...wn),并计算出每个突触的比例(在总权重中)。 Dw1 = w1/(Sw1/100),然后根据所有权重在总重量中的比例在所有权重之间分配+/-Er:wi = wi +/- Dwi *Er 这是否正确?如果是的话,有没有可能使这个分布不是线性的,而是,比如说,指数的?毕竟,在生命系统中,"奖金 "和 "巴掌",即错误和奖金在 "第一 "和 "最后 "之间完全不是线性分布的。 第二个问题。 误差值从何而来?这个值的符号是什么?前一笔交易的损失值可以是一个 "错误值 "吗? TheXpert 2009.05.06 11:54 #134 paralocus >> : 我是否正确地理解,当一个误差值被输入到一个神经元时,它将这个误差在其输入的所有权重中按其在这些权重总和中的份额进行划分? 不,它没有分割它--它分配了它。它这样做并不是因为有人想这样做,而是因为目标函数最小化的结果。 有鉴于此 -- 如果是这样,是否有可能使这种分布不是线性的,而是,比如说,指数的?毕竟,在生命系统中,"奖金 "和 "巴掌",即错误和奖金在 "第一 "和 "最后 "之间的分布根本不是线性的。 这种假设很可能导致学习速度变慢或总误差的差异。 paralocus 2009.05.06 12:01 #135 TheXpert >> : 不,它没有--它传播了。而且,它这样做不是因为有人想这样做,而是目标函数最小化的结果。 有鉴于此 -- 这种假设很可能导致学习速度变慢或总误差的差异。 可预测性是否会增加? Neutron 2009.05.06 12:01 #136 paralocus писал(а)>>中子,我有关于ORO的问题。我是否正确地理解,当一个误差值被输入到一个神经元时,它在其输入的所有权重之间划分这个误差,根据它们在这些权重的总和中的份额? 也就是说,我们取误差+/-Er 的值,然后将所有输入突触的权重相加Sw1 = SUM(w1+w2+w3+...wn),并计算出每个突触的份额(在总权重中)。 Dw1 = w1/(Sw1/100) 然后根据所有权重在总重量中的份额在所有权重之间分配+/-Er:wi=wi +/- Dwi *Er 是真的吗?如果是的话,有没有可能使这个分布不是线性的,而是说指数的?毕竟,在生命系统中,"奖金 "和 "巴掌",即错误和奖金在 "第一 "和 "最后 "之间完全不是线性分布的。 第二个问题。 误差值首先从哪里来的?这个值的符号是什么?以前的交易中的损失值能否作为 "错误值"? 不,不是这样的。 让我们考虑的不是像你这样的网格委员会,而是一个普通的两层网格。然后你就可以归纳了。 你有一个长度为n个样本的输入信号向量(让它是一维的),让n+1 个样本作为对网格训练质量的检查。你给它这个向量(n个 样本),将所有的权重等同于范围为+/-1的随机值,具有均匀的概率密度分布,然后看到网格的输出。假设你设置了+5.1,并检查n+1 计数(训练向量上的训练网格应该追求的值)+1.1。然后你取得到的值和期望的+4之间的差值,并把这个值,保持其符号加到输出神经元的每个权重上(如果它没有FA),或从这个值中找到FA的导数,并把它加到输入神经元的权重上(如果它有FA)。以此类推。 如果你消化了这一块,我会告诉你如何将误差进一步推到第一层(输入)的输入权重。 TheXpert 2009.05.06 12:06 #137 Neutron >> : 不,不是的。 你难道不愿意用公式来做吗?这里的数学原理并不复杂。 焦点>> 。 可预测性是否会增加? 不太可能。 paralocus 2009.05.06 12:08 #138 TheXpert >> : 不,它没有--它传播了。而且,它这样做不是因为有人想这样做,而是目标函数最小化的结果。 有鉴于此 -- 这种假设很可能导致学习速度变慢或总误差的差异。 而如果Er=e(w1*x)+e(w2*x)+...,为什么总误差会有差异呢?e(wn*x)?不,累积误差将等于传入误差。 Neutron 2009.05.06 12:09 #139 TheXpert писал(а)>> 你难道不愿意用公式来做吗?这里的数学原理并不复杂。 你可以自己在文献中查找这些公式,互联网上有很多这样的文献。 我们不要太草率。也不要试图用各种计谋使你的生活复杂化,如 "非线性学习 "之类的,那是来自邪恶的。在简单与和谐中体现出美丽与可靠! paralocus 2009.05.06 12:14 #140 Neutron >> : 如果你消化了这一块,接下来我会告诉你如何将误差推给第一层(输入)的输入权重。 要去酿酒了... 1...789101112131415161718192021...104 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
这是最大的错误。市场会惩罚你的无礼行为!
你只能与市场一起玩,并遵守其规则。如果它喜欢这个游戏,它就会奖励你。
你是否将个人素质归于市场,而且是大写的个人素质?:)
市场是一片荒野,与海洋的比喻在我看来是非常恰当的。
我是在开玩笑:-)
我知道,市场只是一个随机的和某个地方的准稳定的过程。而TS的任务归结为寻找和利用某种静止性的模样。
我想知道是否有办法计算目标(TP、SL),例如从 "天"、"周 "或其他的波动中计算,以便它们可以随市场平稳变化。
我是在开玩笑:-)
这里有很多严肃的帅哥!开玩笑...>>:)
中子,我有一些关于ORO的问题。我是否正确地理解,当一个误差值被输入到一个神经元时,它在其输入的所有权重之间划分这个误差,根据它们在这些权重的总和中的份额?
也就是说,我们取误差值+/- Er,然后将所有传入突触的权重相加 Sw1 = SUM(w1+w2+w3+...wn),并计算出每个突触的比例(在总权重中)。
Dw1 = w1/(Sw1/100),然后根据所有权重在总重量中的比例在所有权重之间分配+/-Er:wi = wi +/- Dwi *Er 这是否正确?如果是的话,有没有可能使这个分布不是线性的,而是,比如说,指数的?毕竟,在生命系统中,"奖金 "和 "巴掌",即错误和奖金在 "第一 "和 "最后 "之间完全不是线性分布的。
第二个问题。
误差值从何而来?这个值的符号是什么?前一笔交易的损失值可以是一个 "错误值 "吗?
我是否正确地理解,当一个误差值被输入到一个神经元时,它将这个误差在其输入的所有权重中按其在这些权重总和中的份额进行划分?
不,它没有分割它--它分配了它。它这样做并不是因为有人想这样做,而是因为目标函数最小化的结果。
有鉴于此 --
如果是这样,是否有可能使这种分布不是线性的,而是,比如说,指数的?毕竟,在生命系统中,"奖金 "和 "巴掌",即错误和奖金在 "第一 "和 "最后 "之间的分布根本不是线性的。
这种假设很可能导致学习速度变慢或总误差的差异。
不,它没有--它传播了。而且,它这样做不是因为有人想这样做,而是目标函数最小化的结果。
有鉴于此 --
这种假设很可能导致学习速度变慢或总误差的差异。
可预测性是否会增加?
中子,我有关于ORO的问题。我是否正确地理解,当一个误差值被输入到一个神经元时,它在其输入的所有权重之间划分这个误差,根据它们在这些权重的总和中的份额?
也就是说,我们取误差+/-Er 的值,然后将所有输入突触的权重相加Sw1 = SUM(w1+w2+w3+...wn),并计算出每个突触的份额(在总权重中)。
Dw1 = w1/(Sw1/100) 然后根据所有权重在总重量中的份额在所有权重之间分配+/-Er:wi=wi +/- Dwi *Er 是真的吗?如果是的话,有没有可能使这个分布不是线性的,而是说指数的?毕竟,在生命系统中,"奖金 "和 "巴掌",即错误和奖金在 "第一 "和 "最后 "之间完全不是线性分布的。
第二个问题。
误差值首先从哪里来的?这个值的符号是什么?以前的交易中的损失值能否作为 "错误值"?
不,不是这样的。
让我们考虑的不是像你这样的网格委员会,而是一个普通的两层网格。然后你就可以归纳了。
你有一个长度为n个样本的输入信号向量(让它是一维的),让n+1 个样本作为对网格训练质量的检查。你给它这个向量(n个 样本),将所有的权重等同于范围为+/-1的随机值,具有均匀的概率密度分布,然后看到网格的输出。假设你设置了+5.1,并检查n+1 计数(训练向量上的训练网格应该追求的值)+1.1。然后你取得到的值和期望的+4之间的差值,并把这个值,保持其符号加到输出神经元的每个权重上(如果它没有FA),或从这个值中找到FA的导数,并把它加到输入神经元的权重上(如果它有FA)。以此类推。
如果你消化了这一块,我会告诉你如何将误差进一步推到第一层(输入)的输入权重。
不,不是的。
你难道不愿意用公式来做吗?这里的数学原理并不复杂。
可预测性是否会增加?
不太可能。
不,它没有--它传播了。而且,它这样做不是因为有人想这样做,而是目标函数最小化的结果。
有鉴于此 --
这种假设很可能导致学习速度变慢或总误差的差异。
而如果Er=e(w1*x)+e(w2*x)+...,为什么总误差会有差异呢?e(wn*x)?不,累积误差将等于传入误差。
你难道不愿意用公式来做吗?这里的数学原理并不复杂。
你可以自己在文献中查找这些公式,互联网上有很多这样的文献。
我们不要太草率。也不要试图用各种计谋使你的生活复杂化,如 "非线性学习 "之类的,那是来自邪恶的。在简单与和谐中体现出美丽与可靠!
如果你消化了这一块,接下来我会告诉你如何将误差推给第一层(输入)的输入权重。
要去酿酒了...