交易中的机器学习:理论、模型、实践和算法交易 - 页 481

 
马克西姆-德米特里耶夫斯基

增量可以被赋予一个属于by/sell类的概率估计


不用 "考虑 "就去做。

 
Oleg avtomat:

好吧,不用 "思考 "就去吧。


好吧,我们用一个实验来检验一下......:) 当然,我将尝试2个和更多的2个班级,但我没有看到对我的情况有根本性的区别。

 
马克西姆-德米特里耶夫斯基

马克西姆,我认为你的情况是这样的。

目标是。

a)获得运动方向的概率。

b) 获得对运动强度的估计。

解决方案选项:
1)使用一个输出[0,1]或[-1,1]。或者两个输出[[0,1], [0,1]]。

纳夫!训练数据必须反映出运动的强度,即运动历史必须被归一到有效的范围。

优点:网络模式的设置很容易,很简单。

减:由于价格变化的振幅不同,归一化在整个时间序列中会有异质性。

2)使用二维分类输出[0,1]+[0,1]或[-1,1]+[-1,1]。要么三/四次输出[[0,1],[0,1]+[0,1]],要么[[0,1],[0,1]+[0,1],[0,1]]。一个维度是运动方向的概率,第二个维度是运动强度的概率。

另外:结果的可见性更好。

减:在 "木制 "框架上进行神经网络模型拟合的难度。

3)方案二,将网络模型一分为二。一个模型学习预测方向,第二个模型学习预测运动的强度。

优点:保持可见性;神经网络易于应用

缺点:计算速度可能略有提高;代码更多。

 
阿列克谢-特伦特夫

马克西姆,我认为你的情况是这样的。

目标是。

(a) 得到运动方向的概率。

b) 获得对运动强度的估计。

解决方案的选择。
1) 使用一个输出[0,1],或[-1,1]。或两个输出[[0,1], [0,1]]。

Nuance!训练数据应该反映出运动的强度,也就是说,运动历史需要被归一到所需的范围。

优点:方便和容易拟合网络模型。

减:由于价格变化的振幅不同,归一化在整个时间序列上将是异质的。

所以分配到2个类中的一个的概率值仍将对应于信号强度,如果我最初用信号强度填入输出(例如,只是在0-1的范围内输入归一化的增量,输出将得到分配到特定类的概率越高,预期增量越大?

或者它不像那样工作,我们只得到分配到一个类别的概率,但输出中的增量的大小却丢失了:)

 
Vizard_

如果我们建立一个简单的回归线....i.e.....会比...
而如果我们采取一个具有非线性分类的神经网络...


用一把尺子测量一下,你就知道了。例如,现在流行的Logloss(R - library(MLmetrics))

创建更多的班级不是更好吗?

如你所想的那样方便...



也就是说,关于增量的大小的信息在训练后不会丢失,分配到2个类中第1个类的概率可以用来确定增量的预测强度,而不仅仅是增量会在哪个类中。那么为什么要建立大量的产出,2个就够了 :)

 
马克西姆-德米特里耶夫斯基

也就是说,关于增量的大小的信息在训练后不会丢失,分配到2个类中第1个类的概率可以用来确定增量的预测强度,而不仅仅是增量会出现在哪个类中。那么为什么要用很多输出,2个就够了 :)

如果你对好的结果感兴趣--例如,买入时每个等级的概率可能与卖出时相同等级的概率不同。

恭敬地说。
 
马克西姆-德米特里耶夫斯基

因此,分配到2个类别中的一个的概率值将对应于信号强度,如果最初我用信号强度填充输出(比方说,我只是在0-1的范围内输入归一化的增量,在输出中我们得到分配到这个或那个类别的概率越高,预期增量越大?

或者它不像那样工作,我们只得到分配到一个类别的概率,但输出增量的大小会丢失 :)

神经网络本身并不知道它需要什么。它从你喂它的东西中学习。如果数据中确实存在输入和输出之间的模式,通过适当的训练,模型会发现它。也就是说,是的,概率值可能是一个运动强度的信号。


我会做以下工作:按[0,1]或正弦/唐氏输出[-1,1]将信号分为两个买/卖等级。

 
安德烈-基塞廖夫
每个等级的买入概率可能与同一等级的卖出概率不同,如果你对好的结果感兴趣,你将不得不做一些工作。

注意到。

不,我已经引用了屏幕,增量是静止的,在零的两边对称,所以概率会+-一样的


 
是的,这就是正常化的意义所在。它将反弹,并在不同的时间间隔内对数据进行不同的标准化。

那么,如果你一下子把数据归一化,信号会弱得多。
 
阿列克谢-特伦特夫

神经网络本身并不知道它需要你提供什么。它从你喂它的东西中学习。如果输入和输出之间的数据确实存在一个模式,模型会在正确的训练下发现它。我的意思是,是的,概率值可以提示运动的强度。


我会把信号按[0,1]或正弦/唐氏输出[-1,1]分为两类。


是的,谢谢,这正是我想听到的......因为一个研究神经网络的朋友告诉我,分配到一个班级的概率只是分配到一个班级的概率,关于绝对增量的数据会丢失......我开始和他争论,最后把我们两个人都搞糊涂了:)