交易中的机器学习:理论、模型、实践和算法交易 - 页 3030 1...302330243025302630273028302930303031303230333034303530363037...3399 新评论 Aleksey Vyazmikin 2023.04.14 12:12 #30291 Forester #:这是一个复杂的描述。对列进行排序,然后将其分成 32 份,例如,如果有重复,那么所有的重复都会被扔进量子中。如果列中只有 0 和 1,那么就会有 2 个量子,而不是 32 个(因为有重复的)。 你指的是方法,而我指的是目标。方法可以不同。让我这么说吧--经验方法往往比数学方法更好。也许是因为我们没有一般样本的完整数据。 Aleksey Vyazmikin 2023.04.14 12:14 #30292 Aleksey Nikolayev #:从根本上说,树是根据每个预测因子分别建立的。 没错,C4.5 树就是这样为离散值构建的。一次分割 СанСаныч Фоменко 2023.04.14 12:31 #30293 Aleksey Vyazmikin #:你说的是方法,我说的是目标。可以有不同的方法。让我这么说吧:经验方法往往比数学方法更好。可能是因为我们没有 一般样本 的完整数据。 对于非平稳数据,根本没有 "主样本 "的概念,只有尾数。这就是问题所在,这也是为什么从训练中得到的任何估计值在未来都极难获得的原因。 Aleksey Vyazmikin 2023.04.14 12:56 #30294 СанСаныч Фоменко #:对于非平稳数据,根本不存在 "主样本 "的概念,只有尾部。这就是整个问题所在,也是为什么在训练中获得的任何估计值在未来都极难获得的原因。 我们不知道。更确切地说,我们不知道分布的真实密度,我们只能观察摘录--这就是为什么会出现这种波动...... 我不是靠概念生存的:) 那么,请告诉我,这种我们无法观察到的现象是如何产生的,因为我们正处于它的产生过程中,而它早已在遥远的太空中完成了....。 Uladzimir Izerski 2023.04.14 13:16 #30295 СанСаныч Фоменко #:对于非平稳数据,根本不存在 "主样本 "的概念,只有尾部。这就是整个问题所在,也是为什么在训练中获得的任何估计值在未来都极难获得的原因。 没错,桑桑尼奇。 非平稳数据总是受到其他非平稳 数据的累积影响。尾数将取决于此。 Maxim Dmitrievsky 2023.04.14 13:30 #30296 Aleksey Vyazmikin #:描述数据的预测值范围。我在这里 对算法进行了实际描述--还有一张 RSI 的图片。我明白了,把所有东西都分开,单独研究。 我不明白为什么它们是量子。 mytarmailS 2023.04.14 13:55 #30297 Maxim Dmitrievsky #: 我不明白为什么是量子。 因为这孩子不守规矩,他写道)。 Aleksey Vyazmikin 2023.04.14 14:01 #30298 Maxim Dmitrievsky #:我明白了,把每件事和每个人都分开,单独研究。 我不明白他们为什么是量子。 嗯,可能是翻译的问题。术语。 有量子化及其不同的方法,包含分割点的表格--量子表格--已经来自 CatBoost 指令。 量子段 - 来自量子表,但极端的量子段是有限制的。这已经是我的发明了。 Maxim Dmitrievsky 2023.04.14 15:07 #30299 Aleksey Vyazmikin #:这可能是译者的错。术语。有量子化及其不同的方法,包含分割点的表格--量子表格--已经来自 CatBoost 指令。量子段 - 来自量子表,但极端的量子段是有限制的。这已经是我的发明了。 不是量子的,可能是量化的,就像这里。 5.4 卷积神经网络的量化 通常,由于明显的优化困难,在对神经网络进行量化时,我们不会只使用整数,而是通过整数对浮点数进行近似。 谷歌 GEMMLOWP 库[59]中提出的算法是文献[52, 54, 60]中广泛使用 的一种通过任意深度整数逼近浮点数的方法。输入数组𝑋、边界值[𝑣,𝑣]、位数𝑀,结果定义如下: 𝑠𝑐𝑎𝑙𝑒=(𝑣 - 𝑣)/2,(14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(-𝑣/𝑐𝑎𝑙𝑒, 0),2)),(15) 𝑜𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑡𝑛)。(16) 因此,对于每个浮点数数组,我们可以得到一个整数数组 𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 , integer 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡,准确表示零,是一个双精度𝑠𝑐𝑎𝑙𝑒数,定义了量化的尺度。 https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y Machine learning in trading: 顾问<咨询市场上的产品所有者> MQL5 中的范畴论 (第 6 Aleksey Vyazmikin 2023.04.14 15:16 #30300 Maxim Dmitrievsky #:不是量子化,而是量化,就像这里一样。 5.4 卷积神经网络的量化 经典上,由于明显的优化困难,神经网络的量化并不仅仅使用整数,而是通过整数来逼近浮点数。 谷歌 GEMMLOWP 库[59]中提出的算法是文献[52, 54, 60]中广泛使用 的一种通过任意深度整数逼近浮点数的方法。输入数组 𝑋、边界值 [𝑣,𝑣]、位数 𝑀,结果定义如下: 𝑠𝑐𝑎𝑙𝑒=(𝑣 - 𝑣)/2,(14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(-𝑣/𝑐𝑎𝑙𝑒, 0),2)),(15) 𝑜𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑡𝑛)。(16) 因此,对于每个浮点数数组,我们可以得到一个整数数组 𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 , integer 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡, 一个精确代表零 的整数,一个双精度𝑠𝑐𝑎𝑙𝑒数,定义了量化的尺度。 https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y 我告诉你,这只是个翻译问题--它们都是同义词。下面是 CatBoost 的设置。 1...302330243025302630273028302930303031303230333034303530363037...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
这是一个复杂的描述。对列进行排序,然后将其分成 32 份,例如,如果有重复,那么所有的重复都会被扔进量子中。如果列中只有 0 和 1,那么就会有 2 个量子,而不是 32 个(因为有重复的)。
你指的是方法,而我指的是目标。方法可以不同。让我这么说吧--经验方法往往比数学方法更好。也许是因为我们没有一般样本的完整数据。
从根本上说,树是根据每个预测因子分别建立的。
没错,C4.5 树就是这样为离散值构建的。一次分割
你说的是方法,我说的是目标。可以有不同的方法。让我这么说吧:经验方法往往比数学方法更好。可能是因为我们没有 一般样本 的完整数据。
对于非平稳数据,根本没有 "主样本 "的概念,只有尾数。这就是问题所在,这也是为什么从训练中得到的任何估计值在未来都极难获得的原因。
对于非平稳数据,根本不存在 "主样本 "的概念,只有尾部。这就是整个问题所在,也是为什么在训练中获得的任何估计值在未来都极难获得的原因。
我们不知道。更确切地说,我们不知道分布的真实密度,我们只能观察摘录--这就是为什么会出现这种波动......
我不是靠概念生存的:)
那么,请告诉我,这种我们无法观察到的现象是如何产生的,因为我们正处于它的产生过程中,而它早已在遥远的太空中完成了....。
对于非平稳数据,根本不存在 "主样本 "的概念,只有尾部。这就是整个问题所在,也是为什么在训练中获得的任何估计值在未来都极难获得的原因。
没错,桑桑尼奇。
非平稳数据总是受到其他非平稳 数据的累积影响。尾数将取决于此。
描述数据的预测值范围。
我在这里 对算法进行了实际描述--还有一张 RSI 的图片。
我明白了,把所有东西都分开,单独研究。
我不明白为什么它们是量子。我不明白为什么是量子。
因为这孩子不守规矩,他写道)。
我明白了,把每件事和每个人都分开,单独研究。
我不明白他们为什么是量子。嗯,可能是翻译的问题。术语。
有量子化及其不同的方法,包含分割点的表格--量子表格--已经来自 CatBoost 指令。
量子段 - 来自量子表,但极端的量子段是有限制的。这已经是我的发明了。
这可能是译者的错。术语。
有量子化及其不同的方法,包含分割点的表格--量子表格--已经来自 CatBoost 指令。
量子段 - 来自量子表,但极端的量子段是有限制的。这已经是我的发明了。
不是量子的,可能是量化的,就像这里。
5.4 卷积神经网络的量化
通常,由于明显的优化困难,在对神经网络进行量化时,我们不会只使用整数,而是通过整数对浮点数进行近似。 谷歌 GEMMLOWP 库[59]中提出的算法是文献[52, 54, 60]中广泛使用 的一种通过任意深度整数逼近浮点数的方法。输入数组𝑋、边界值[𝑣,𝑣]、位数𝑀,结果定义如下:
𝑠𝑐𝑎𝑙𝑒=(𝑣 - 𝑣)/2,(14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(-𝑣/𝑐𝑎𝑙𝑒, 0),2)),(15) 𝑜𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑡𝑛)。(16)
因此,对于每个浮点数数组,我们可以得到一个整数数组 𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 , integer 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡,准确表示零,是一个双精度𝑠𝑐𝑎𝑙𝑒数,定义了量化的尺度。
https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y
不是量子化,而是量化,就像这里一样。
5.4 卷积神经网络的量化
经典上,由于明显的优化困难,神经网络的量化并不仅仅使用整数,而是通过整数来逼近浮点数。 谷歌 GEMMLOWP 库[59]中提出的算法是文献[52, 54, 60]中广泛使用 的一种通过任意深度整数逼近浮点数的方法。输入数组 𝑋、边界值 [𝑣,𝑣]、位数 𝑀,结果定义如下:
𝑠𝑐𝑎𝑙𝑒=(𝑣 - 𝑣)/2,(14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(-𝑣/𝑐𝑎𝑙𝑒, 0),2)),(15) 𝑜𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑡𝑛)。(16)
因此,对于每个浮点数数组,我们可以得到一个整数数组 𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 , integer 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡, 一个精确代表零 的整数,一个双精度𝑠𝑐𝑎𝑙𝑒数,定义了量化的尺度。
https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y
我告诉你,这只是个翻译问题--它们都是同义词。下面是 CatBoost 的设置。