交易中的机器学习:理论、模型、实践和算法交易 - 页 640

 
Mihail Marchukajtes:


说实在的,请不要大惊小怪,米哈伊尔。这一刻是至关重要的。如果这个想法,无论出于什么原因(无论是因为缺乏技能还是在新的机会面前完全愚蠢)没有成功,那么下一个想法将很快来到交易者的社区。我确信这一点。

 
Mihail Marchukajtes:

下面是我的七个!!!!用红铅笔在你的日历上记下这一天,因为那是我下载R的日子,并将一点一点地旋转它......

关于Sensei,男孩们的赠品)))))h2o.automl.

响声一般,但所有东西都是自动的...

 
Vizard_
老法站在一个果园里。一棵橘子树在他面前展开。鸟儿到处飞,乱七八糟。
鸟儿不会落在橘子树上,他认为果实是有毒的。他将向旁边走一步,看到
橘子树后面的苹果树,果实上有几只甚至更多的鸟在乱飞。
一定会坐下来...但他只是一直站在一个地方......。饥饿、疲惫、沮丧......。
 到了第六年年底,在胡赳赳看来,他已经深入了解了狩猎艺术的本质。因为这不是猎物,而是这个概念本身,已经成为他的核心。(с)
	          
 

http://playground.tensorflow.org

NS学习的可视化,似乎只是为了好玩或作为一个教学例子

她显然在对螺旋体进行分类时遇到了麻烦 :)


Tensorflow — Neural Network Playground
Tensorflow — Neural Network Playground
  • Daniel Smilkov and Shan Carter
  • playground.tensorflow.org
It’s a technique for building a computer program that learns from data. It is based very loosely on how we think the human brain works. First, a collection of software “neurons” are created and connected together, allowing them to send messages to each other. Next, the network is asked to solve a problem, which it attempts to do over and over...
 

而这样一个架构已经可以

这就像Poincaré--如果特征空间是不连贯的,你至少需要2层,elibrarius已经有一个关于这个问题的问题。


 
马克西姆-德米特里耶夫斯基

而这种架构已经可以


马克西姆,那么特征选择呢?赞成。
另外,当网络开始振动时,让学习速度变慢。

我去年夏天玩过这个东西。非常直观的东西)。
 
阿列克谢-特伦特夫
马克西姆,那么特征选择呢?赞成。
另外,当网络开始振动时,让学习速度变慢。

去年夏天,我玩了这个东西。很能说明问题的东西)。

是的,如果你把正弦波放在一起,它可以用1层。

 

EMVC没有做到我想要的,它没有做到从粗略阅读描述中看到的那样。

EMVC采用一个包含预测因子和目标(仅指类,不允许回归)的表格,并计算每个训练实例是否真的属于某个特定类的概率。可以找到训练表中与大多数训练实例相矛盾的行(离群值、错误),并将其删除,以避免训练中混淆模型。

我本想找到一组能给出最高概率估计的预测器,但找到的预测器组并不令人满意。我不会用这个做实验,有更好的工具来选择预测器。我看不到交叉熵的估计,软件包在内部以某种方式使用它,但没有向用户返回这个答案。

但是,有一个有趣的工具可以筛选出训练实例而不是预测者。


library(EMVC)
data(iris)


trainTable <- iris #таблица  на которой в дальнейшем будет обучаться какая-то модель
PREDICTOR_COLUMNS_SEQ <- 1:4 #номера  колонок с предикторами
TARGET_COLUMN_ID <- 5 #номер  колонки с таргетом

EMVC_MIN_TRUST <- 0.9 #минимально  допустимая вероятность принадлежности к классу посчитанная через emcv. От 0 до 1.

emvcData <- t(as.matrix(trainTable[,PREDICTOR_COLUMNS_SEQ]))
emvcAnnotations <- as.numeric(trainTable[,TARGET_COLUMN_ID])
emvcAnnotationsUnique <- unique(emvcAnnotations)
emvcAnnotationsMatrix <- matrix(0, ncol=ncol(emvcData), nrow = length(emvcAnnotationsUnique))
for(i in 1:length(emvcAnnotationsUnique)){
  emvcAnnotationsMatrix[i, emvcAnnotations == emvcAnnotationsUnique[i]] <- 1
}

set.seed(0)
emvcResult <- EMVC(data = emvcData,
                   annotations = emvcAnnotationsMatrix,
                   #  bootstrap.iter = 20,
                   k.range = 2
                   #  clust.method = "kmeans",
                   #  kmeans.nstart = 1,
                   #  kmeans.iter.max = 10,
                   #  hclust.method = "average",
                   #  hclust.cor.method = "spearman"
)

badSamples <- c()
for(i in 1:ncol(emvcResult)){
  if(max(emvcResult[,i])<EMVC_MIN_TRUST){
    badSamples <- c(badSamples, i)
  }
}
cat("Indexes of bad train samples:", badSamples,"\n") #Это  номера строк в обучающей табличке которые повышают кросс-энтропию данных. Они противоречат большинству других обучающих примеров, и возможно следует их удалить из обучающей таблички
trainTable <- trainTable[-badSamples,]

 
交易员博士

EMVC没有做到我想要的,它没有做到从粗略阅读描述中看到的那样。

EMVC采用一个包含预测因子和目标(仅指类,不允许回归)的表格,并计算每个训练实例是否真的属于某个特定类的概率。可以找到训练表中与大多数训练实例相矛盾的行(离群值、错误),并将其删除,以避免训练中混淆模型。

我本想找到一组能给出最高概率估计的预测器,但找到的预测器组并不令人满意。我不打算做这个实验,有更好的工具来选择预测器。我看不到交叉熵的估计,软件包在内部以某种方式使用它,但没有向用户返回这个答案。

但至少我们得到了一个有趣的工具来筛选出训练的例子而不是预测者。


这是个遗憾。

你再一次证明了奇迹不会发生,你必须从头开始捡起一切的想法。

 
交易员博士
因此,你可以在训练表中找到与其他大多数训练实例(尖峰、错误)相矛盾的行,并将其删除,以避免在训练期间混淆模型。

在难以找到规律性的外汇数据上,这真的重要吗?我认为我们可以通过这个方案筛选出一半的例子。而离群值可以用更简单的方法来搜索:不要删除它们,但是,例如,将它们等同于允许的最大值。