Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2834

 
mytarmailS #:
Não tive sucesso com o xgboost...
Ou melhor, eu consegui, mas o treinamento não funcionou, você precisa fazer boas amizades com gradientes lá, você precisa fazer o gradiente da função de aptidão, com a genética é muito mais fácil

Sim, essa é a parte complicada. Você precisa calcular o gradiente e a matriz de segundas derivadas, a Hessiana. O Hessiano também deve ser positivamente definido.

Para o lucro, por exemplo, o Hessiano é degenerado (igual a zero). É necessário, de alguma forma, ajustar a função de perda a um compromisso razoável entre necessidade e necessidade.

 
Andrey Dik #:

1. meu sobrenome não é declinado
2. a questão não é se o global mudará ou não (ele mudará necessariamente), mas se é possível encontrar o extremo global. se você não se importa, basta inicializar os pesos da rede com números aleatórios e pronto, pois que diferença faz se é global ou não? local.))

1. Sobre o sobrenome, levarei isso em consideração. Você é a única pessoa que conheço com esse sobrenome.

2) Gostaria de objetar que não devemos levar a ideia ao absurdo, mas, na realidade, o caso é o mesmo: não precisamos de nenhum ponto ótimo - precisamos de platôs, quanto mais extensos, melhor, quanto mais lucrativos, melhor. E o extremo é sempre um estado instável, mas precisamos de um estado estável, e no futuro. Portanto, verifica-se que a busca por ótimos é uma atividade prejudicial.

Aqui estou defendendo a ideia de que a estabilidade do lucro no futuro depende das propriedades dos preditores e depende muito pouco do modelo, e menos ainda dos algoritmos de otimização. Ou seja, uma abordagem completamente diferente.

 
СанСаныч Фоменко #:

O que estou defendendo aqui é a ideia de que a sustentabilidade dos lucros no futuro depende das propriedades dos preditores e depende muito pouco do modelo, muito menos dos algoritmos de otimização. Essa é uma abordagem completamente diferente.

Pode me enviar sua amostra? Temos a mesma visão do problema de aprendizado de modelo ruim. Gostaria de comparar o quanto seu método de seleção é melhor que o meu e se ele se ajusta à sua amostra.

 
O que está sendo proposto para substituir o logloss?
 
Aleksey Nikolayev #:

Sim, essa é a parte complicada. Você precisa calcular o gradiente e a matriz de segundas derivadas - o Hessiano. O Hessiano também deve ser definido positivamente.

Para o lucro, por exemplo, o Hessiano é degenerado (igual a zero). É necessário, de alguma forma, ajustar a função de perda a um compromisso razoável entre necessidade e necessidade.

Aqui, pelo que entendi, o Hessiano não é levado em conta de forma alguma.

#  Custom objective function (squared error)
myobjective <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  grad <- (preds-labels)    
  hess <- rep(1, length(labels))                
  return(list(grad = grad, hess = hess))
}

#  Custom Metric
evalerror <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  err <- (preds-labels)^2        
  return(list(metric = "MyError", value = mean(err)))   
}

Ele funciona apenas para reduzir o gradiente.

grad <- (preds-labels)   


Isso é diferente.

logregobj <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  preds <- 1 / (1 + exp(-preds))
  grad <- preds - labels
  hess <- preds * (1 - preds)
  return(list(grad = grad, hess = hess))
}


Lembro que tive muitos problemas com isso, então desisti.

Mas seria legal treinar meu físico).
 
СанСаныч Фоменко #:

Mas, na realidade, esse é o caso: não precisamos de nenhum ponto ótimo - precisamos de platôs, quantomais extensos, melhor, quanto mais lucrativos, melhor. E um extremo é sempre um estado instável, e o

E a função que avalia "quanto platô/não platô" não é a busca pelo máximo?

E uma função que avalia "quanto mais lucrativo, melhor" não é uma busca pelo máximo ?

E a função que avalia "quanto mais extenso, melhor" não é uma busca pelo máximo?

E a função que avalia "estado estável/não estável" não é uma pesquisa máxima?

Ou você também precisa de um platô? )))) Bem, então veja o primeiro ponto ))))

Ah, essas pessoas profanas ...



SanSanych Fomenko #:

Estou defendendo aqui a ideia de que a sustentabilidade dos lucros no futuro depende das propriedades dos preditores e muito pouco do modelo, muito menos dos algoritmos de otimização. Ou seja, uma abordagem completamente diferente.

Você não deve promover a ideia, mas prová-la ou pelo menos justificá-la....

Havia um aqui, defendendo a ideia de que o Mashka é a melhor coisa que pode existir, e qual é a utilidade desse empurrão??????

 
Ainda mais legal seria incluir o corpo ausente e pensar em que tipo de relação poderia descrever o fator de lucro entre chips e tags. Praticamente nenhum 🤤
 
СанСаныч Фоменко #:

1. Vou me lembrar do sobrenome. Você é a única pessoa que conheço com esse sobrenome.

2) Gostaria de objetar que não devemos levar a ideia ao absurdo, mas, na realidade, o caso é o mesmo: não precisamos de nenhum ótimo - precisamos de platôs, quanto mais extensos, melhor, quanto mais lucrativos, melhor. E o extremo é sempre um estado instável, mas precisamos de um estado estável, e no futuro. Portanto, verifica-se que a busca por ótimos é uma ocupação prejudicial.

Aqui estou defendendo a ideia de que a estabilidade do lucro no futuro depende das propriedades dos preditores e depende muito pouco do modelo, e menos ainda dos algoritmos de otimização. Essa é uma abordagem completamente diferente.

1. v

2) Aqui está uma figura, como uma curva de alguma função de aprendizado hipotética.

Você está convencido de que a grade irá parar no extremo local 1? Ou talvez 2? Ou o quê, 3, como no meio? Portanto, não se sabe de antemão quantos extremos locais existem, pode haver 100500 ou até mais. É por isso que é importante tentar encontrar o maior de todos os extremos locais que o algoritmo pode alcançar.

 
Maxim Dmitrievsky #:
O que está sendo proposto para substituir o logloss?

Se for uma pergunta para mim, o lucro ou algum análogo razoável dele. Lucro - que por enquanto seja apenas a soma de todos os (close[i] - open[i])*prognos[i], em que prognos[i] é a previsão da cor da vela e é 1 ou -1. Talvez seja necessário modificá-lo de alguma forma para obter um bom comportamento de gradiente e hessiano.

 
Aleksey Nikolayev #:

Se for uma pergunta para mim, lucro ou algum análogo razoável dele. Lucro - que por enquanto seja apenas a soma de todos os (close[i] - open[i])*prognos[i], em que prognos[i] é a previsão da cor da vela e é 1 ou -1. Talvez seja necessário modificá-lo de alguma forma para obter um bom comportamento de gradiente e hessiano.

Na genética, pegamos as variáveis e as maximizamos por um critério. Não é possível fazer isso aqui, devido à classificação. Não há relação entre lucro e rótulos de classe. Na melhor das hipóteses, você não obterá nada. É por isso que esses critérios são colocados em eval_metrics