交易中的机器学习:理论、模型、实践和算法交易 - 页 2396

 
Maxim Dmitrievsky:
是的,你可以从我的文章中得到。嗯,测试仪是最简单的一个。我可以发给你一些基于Python的机器人的例子。

好吧,我也有一些东西--以快速测试我的想法为基础。但最终在普通的测试器中运行它是一种习惯。你认为值得摆脱这种习惯吗?)

 
Aleksey Nikolayev:

好吧,我也有东西--为了快速测试我的想法而磨练出来的。但最终在常规测试器中运行,已经有点习惯了。你认为值得摆脱这种习惯吗?)

我两者都喜欢,只要你能快速移植模型。
 

MacBooks在国防部的任务中使用新的处理器,正在撕扯和咒骂。坏消息是,CatBoost 还不支持arm架构,但他们正在努力。

总结

从这些测试来看,似乎

  • 训练 MLP LSTM 方面 M1 CPU速度 远远 超过所有测试的高端服务器。
  • 用于训练 CNN M1只 比测试的高端服务器稍慢

当然,这些指标只能考虑到本测试中使用的类似神经网络类型和深度。

对于持续时间超过20分钟的大型培训和密集型计算,我仍然会选择基于云的解决方案,因为它们提供了为这种长时间重负荷而构建的卡片,并能同时发送多个作业。但这种情况只是为了一些特定的研究,只占我工作的10%,主要是为了在一些特定的商业领域的专业用途。

作为一名机器学习工程师,对于我的日常个人研究来说,M1 Mac显然是当今最好和最具成本效益的选择。

https://towardsdatascience.com/benchmark-m1-part-2-vs-20-cores-xeon-vs-amd-epyc-16-and-32-cores-8e394d56003d

Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
  • Fabrice Daniel
  • towardsdatascience.com
In the first part of M1 Benchmark article I was comparing a MacBook Air M1 with an iMac 27" core i5, a 8 cores Xeon(R) Platinum, a K80 GPU instance and a T4 GPU instance on three TensorFlow models. While the GPU was not as efficient as expected, maybe because of the very early version of TensorFlow not yet entirely optimized for M1, it was...
 
那么,猎鹰人做得怎么样了?你的网变得智能了吗?还是你在技术上取得了突破?告诉我!!!!
 

有人熟悉这种教师培训吗?

当老师不是一个标签,而是人本身时,人点击他喜欢的图像,AMO试图将这个图像与其他所有的图像分开,并在图像结构中找到相同的图像,有相同的结果......


有谁知道是否有这样的培训,如果有,它叫什么?

我知道如何实现它,但也许有一个现成的?

 
我也有一种想大声说话的冲动。关于非平稳性问题的一个思考。如何在其条件下使用K-近邻法是很清楚的。我们采取最后N个 模式的时间,从中选择最接近形成模式的K,并在此基础上做出决定。这种简单性来自于基本上没有学习。我想知道是否有其他的MO算法,以类似的方式方便使用。
 
Aleksey Nikolayev:
我也想大声表达一个想法。关于非平稳性话题的思考。如何在其条件下使用K-近邻法是很清楚的。我们从中选择最近的N个 模式,从中选择K个最近的邻居,并根据它们做出决定。这种简单性来自于基本上没有学习。我不知道是否还有其他类似的MO算法可以方便使用?

我对这个方法以及这个方法本身进行了大量的研究和调查,我不知道为什么,但它对我来说是最接近和最直观的......

这种方法属于 "无模型预测 "系列。

它在网上被称为 "通过史前的类似物进行预测","MSUA的复杂类似物方法 "等。

很久以前,它被用于天气预报...

在本质上,它是通常的聚类,只是更精确...不同的是,在通常的聚类中,聚类的中心(原型)是类似物之间的中间部分,而给定的方法中,聚类的中心是当前的价格 或其他,因此有可能更精确地找到当前的类似物......

我甚至搜索了多维模式,我甚至发明了自己的小型方法论来搜索史前的模式,所以我对这个主题非常深入......

 
mytarmailS:

我对这个方法和这个方法本身进行了大量的研究和调查,我不知道为什么,但它对我来说是最接近和最直观的。

它属于 "无模型预测 "系列。

它在网上被称为 "通过史前的类似物进行预测","MSUA的复杂类似物的方法 "等等。

很久以前,它被用于天气预报...

在本质上,它是通常的聚类,只是更精确...不同的是,在通常的聚类中,聚类的中心(原型)是类似物之间的中间部分,而给定的方法中,聚类的中心是当前的价格 或其他,因此有可能在当前时刻下更精确地找到类似物......

我甚至寻找过多维模式,我甚至发明了自己的小方法来寻找史前的模式,所以我对这个问题的研究非常深入......

这个方法在直觉上是很明显的,所以不可能避免。但我希望有某种多样性。例如,一些简单的模型再训练,当一个新的例子被添加,过时的例子被丢弃。

 

阿列克谢-尼古拉耶夫

一些简单的模型再训练,即增加一个新的例子,并把过时的例子扔掉。

或者当时间与其他人相比太重要时,就抛出过时的例子。

 
Aleksey Nikolayev:

或者当时间被证明是与其他特征相比过于重要的时候,扔掉过时的例子。

我不明白你的想法与滑动窗口中不断重新训练AMO之间有什么区别...


你把当前的最后N张图片,按时间排序,根据它们进行预测,这能达到什么目的?

你只是像上面的AMO那样在滑动窗口中重新训练,有什么好处?