交易中的机器学习:理论、模型、实践和算法交易 - 页 3304

 

以下是网站本身提供的受支持模型列表

https://onnx.ai/sklearn-onnx/supported.html

感谢您在文章中提供了现成的示例。

Supported scikit-learn Models#
  • onnx.ai
, # This version of the operator has been available since version 13. Absolute takes one input data (Tensor ) and produces one output data (Tensor ) where absolute value, y = abs(x), is applied to the tensor elementwise. T tensor(uint8), tensor(uint16), tensor(uint32), tensor(uint64), tensor(int8), tensor(int16), tensor(int32), tensor(int64...
 
Petros Shatakhtsyan #:


那时,经纪人还没有收集刻度值。我是 自己做 的。我收集了真实的刻度值,并将它们分门别类地保存了大约 6 个月。我把它们应用到测试仪上,结果完全不同。


你很幸运,因为你决定做一次明智的生意......现在经纪人不再收集勾选报价,而是从某个地方获取/提供;这可能与 MT 服务器更新有关。

有时你用肉眼就能看到--这里是新的刻度线,这里是一般的废话。即使是几分钟

事实上,真实的刻度存档来自一个特定的 DC - 一种非常昂贵的商品。(甚至通过下划线)

 
Petros Shatakhtsyan #:

我很惊讶你会感到惊讶。

我无法解释,这更准确。为已生成的交易写一个 tick scalper 是一回事,这样可以制作一个 "圣杯"。另一种则完全不是剥头皮,而是通过事先设置好的 SL 进行平仓。在生成的跳动点上,SL 以负滑点执行。但这仍然是一个新工具。
 
Maxim Kuznetsov #:

您很幸运,因为您决定做一次明智的生意......现在经纪人不再收集勾选报价,而是从其他地方获取/提供报价;这可能与 MT 服务器更新有关。

有时你用肉眼就能看到--这里是新的刻度,这里是一般的废话。即使是分钟

事实上,真实的刻度存档来自一个特定的 DC - 一种非常昂贵的商品。(甚至通过下划线)

您错了。每个经纪商本身都会收集真实的刻度线,在第二天的测试仪上,您可以获得前一天的真实刻度线。

正是这些点差,经过过滤后由经纪商提交给 MT5。您可以在 "Every tick based on real ticks"(基于真实点差的每个点差)模式下查看,或复制它。

 

这是一篇关于如何正确进行神经网络 BP 表示的优秀论文。当然,FFT 可以去掉。并进一步比较了不同的模型。

最根本的区别在于,预处理是内置于网络架构中的。但也可以单独进行。

LSTM 在后台烟雾弥漫,因为它没有考虑跨期变化。

根据他们的测试,Bousting 在排名中也接近垫底。
 
Maxim Dmitrievsky #:

这是一篇关于如何正确进行神经网络 BP 表示的优秀论文。当然,FFT 可以去掉。并进一步比较了不同的模型。

最根本的区别在于,预处理是内置于网络架构中的。但也可以单独进行。

LSTM 在后台冒烟,因为它没有考虑跨期变化。

根据他们的测试,Bousting 在排名中也接近垫底。
这篇文章的水平相当高,但他们将其科学应用于具有多期性的序列,而这些显然不是价格。当然,当地的无线电业余爱好者会争论不休)。
 
不久前,论坛上有人给出了这种效应的名称(我还没找到),因为接近 SB 的序列似乎具有周期性。这种效应与科学界许多不光彩的时刻有关,当时通过傅立叶方法 "发现 "了过程中的周期性,无线电爱好者因此在论坛上永垂不朽)。
 
谁能给我解释一下多重测试的问题。
为什么优化过程中迭代次数越多,过度训练的可能性就越大


不,我的理解是,搜索次数越多(迭代次数越多),就越有可能找到一些看起来不是随机的随机.....。

但是,如果我们想出了一个主意,然后用 10 次迭代而不是 10000 次迭代来匹配参数,它能被视为一个未经训练的模型吗?

毕竟,"我们 想到了 "这个短语本身也意味着某种思维过程(迭代)。


最终的模型如何知道是大脑迭代还是计算机迭代,两者之间是否存在差异?


这个问题是在阅读普拉多的文章 后产生的

Pseudo-Mathematics and Financial Charlatanism: The Effects of Backtest Overfitting on Out-of-Sample Performance
  • papers.ssrn.com
We prove that high simulated performance is easily achievable after backtesting a relatively small number of alternative strategy configurations, a practice we
 
Aleksey Nikolayev #:
不久前,论坛上有人给出了这种效应的名称(我还没找到),因为接近 SB 的序列似乎具有周期性。这种效应与科学界许多不光彩的时刻有关,当时通过傅立叶 "发现 "了过程中的周期性,无线电爱好者因此在论坛上永远无法生存)。

如何证明相反的情况呢?

在我看来,有一些事件是与时间联系在一起的--同样的新闻。我认为,如果我们将它们分为三个子样本--预期的、更坏的、更好的,并考虑到背景,我们就会发现市场参与者的行为是相似的。

另一种选择是商品的季节性。

 
mytarmailS 匹配参数,它能被视为一个未经训练的模型吗?

毕竟,"我们 想到了 "这个短语本身也意味着某种思考过程(迭代)。


最终的模型如何知道是大脑迭代还是计算机迭代,两者之间是否存在差异?


这个问题是在阅读普拉多的文章 后产生的

过度学习源于对罕见现象的记忆。由于不存在描述因果关系的模型,这些现象纯粹是统计孤立的。

也就是说,损失并不总是意味着模型训练过度。