Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 386

 

OK, para que 0,8% seja obtido honestamente. Aparentemente, existe um algoritmo incorporado no modelo para proteger contra o sobretreinamento.


Maxim Dmitrievsky:

Bem, em primeiro lugar há um conjunto muito grande, em segundo lugar a natureza das características não é de todo conhecida e modelos lineares como vectores e floresta não são obviamente adequados aqui, precisamos de fazer uma complexa não rede, talvez seja essa a razão.


Os modelos de classificação não se encaixam, sim. Regressão é necessária. Porque o resultado é avaliado não pela precisão do modelo, mas pela função Logloss, que normalmente dá uma estimativa mais alta aos resultados da regressão

MultiLogLoss <- function(act, pred) {
  eps <- 1 e-15
  pred <- pmin(pmax(pred, eps), 1 - eps)
  sum(act * log(pred) + (1 - act) * log(1 - pred)) * -1 / length(act)
}

act (real) - resultado esperado, vector
pred (previsto) - resultado previsto, vector

Quanto menor a pontuação desta função, melhor. Se o resultado da função for maior ou igual a 0,6931472, o modelo é mau e este resultado sugere um palpite aleatório.

E a julgar pelos resultados da 54ª rodada, o vencedor recebeu 0,690467 ao estimar os novos dados, escondidos para os participantes, este é o resultado pelo qual devemos nos esforçar.

 
Dr. Trader:

OK, para que 0,8% seja obtido honestamente. Aparentemente, existe um algoritmo anti-sobrefitting incorporado no modelo.



Os modelos de classificação não se encaixam, sim. Regressão é necessária. Porque o resultado é avaliado não pela precisão do modelo, mas pela função Logloss, que normalmente dá aos resultados da regressão uma pontuação mais alta.

act (real) - resultado esperado, vector
pred (previsto) - resultado previsto, vector

Quanto menor a pontuação desta função, melhor. Se o resultado da função for maior ou igual a 0,6931472, o modelo é mau e este resultado sugere um palpite aleatório.

A julgar pelos resultados da 54ª rodada, o vencedor do concurso recebeu 0,690467 ao estimar os novos dados escondidos dos participantes, este é o resultado pelo qual devemos nos esforçar.


Regressão NS produz isto numa amostra de treino, é também uma amostra de teste, não sei bem como interpretar correctamente, mas também me parece mau para mim ) Isto é, a rede neural simples padrão não dá nenhuma vantagem na regressão sobre a classificação, e também não dá nenhuma vantagem sobre outros métodos de classificação. E há entradas e saídas normalizadas, a regressão não faz sentido para mim, neste caso...


 

Seleção de literatura em um campo competitivo


5087 documentos corresponderam à pesquisa por GARCH, GJR-GARCH, EGARCH, em títulos e palavras-chave.


Os modelos GARCH são supostamente inteligentes, tudo é modelado de forma transparente:

1. a série original é convertida em incrementos como log(Xi/ Xi-1).

2. A média é modelada com o modelo ARIMA

3. nuances em dispersão no sentido de obliquidade e curtose (caudas grossas), etc. são modeladas.

4. A distribuição em si é modelada. Normalmente ou é feita uma distribuição em t enviesada ou uma distribuição em GED enviesada.


Ao considerar a negociação em bolsas, são introduzidos modelos com modos de comutação, quer levem em conta mudanças nos parâmetros do modelo, quer nos spreads.


Nos artigos há muitas vezes código pronto em R.

 
SanSanych Fomenko:

Seleção de literatura em um campo competitivo


5087 documentos corresponderam à pesquisa por GARCH, GJR-GARCH, EGARCH, em títulos e palavras-chave.


Os modelos GARCH são supostamente inteligentes, tudo é modelado de forma transparente:

1. a série original é convertida em incrementos como log(Xi/ Xi-1).

2. A média é modelada com o modelo ARIMA

3. nuances em dispersão no sentido de obliquidade e curtose (caudas grossas), etc. são modeladas.

4. A distribuição em si é modelada. Normalmente ou é feita uma distribuição em t enviesada ou uma distribuição em GED enviesada.


Ao considerar a negociação em bolsas, são introduzidos modelos com modos de comutação, quer levem em conta mudanças nos parâmetros do modelo, quer nos spreads.


Em artigos há muitas vezes código pronto em R.


E quanto ao facto de os incrementos não indicarem tendências de forma alguma? O meu modelo também usa gradientes para precisão a curto prazo, mas também olho para os rácios de tendência de uma forma inteligente

Ah, bem, você pode olhar para os incrementos em diferentes amostras de tempo. Você já tentou treinar ns retorno de TFs diferentes?

 
Maxim Dmitrievsky:



E quanto ao facto de os incrementos não indicarem tendências de forma alguma?

Sim, eles fazem.

Ou o modelo prevê o incremento ou a direção - é para isso que servem os modelos de classificação.

Não tenho conhecimento de nenhum modelo de classificação que reconheça movimentos nas notícias. E para a GARCH este é o objectivo do modelo - trabalhar o movimento ocorrido. Fat tails - este é o movimento nas notícias quando as tendências se quebram e ocorrem inversões bruscas.


Bem, podes ver o aumento em diferentes períodos de tempo.

Existem modelos GARCH interessantes para vários períodos de tempo. O significado é o seguinte.

Suponhamos que prevemos o incremento no H1. O modelo requer dados de entrada que caracterizam a distribuição. Como tais dados de entrada (geralmente volatilidade) não tomamos a hora anterior, mas minutos dentro da hora atual.

 
Dr. Trader:

numerai mudou as regras um par de vezes este ano.

Costumava ser simples e bom - treinar um modelo em uma mesa de trem, verificar o erro na mesa de teste, enviar-lhes previsões, extrapolá-las para sua mesa de teste oculta, contar o erro na mesma. Quem tiver menos erros na mesa escondida, ganha. Foi muito bom e correto que o erro no conjunto de dados do teste realmente coincidiu com o do conjunto de dados oculto, para que você pudesse verificar o seu modelo.

Então eles mudaram alguma coisa, e o erro no conjunto de dados de teste deixou de se correlacionar com o erro no conjunto de dados de verificação oculto. Todos os líderes do topo desapareceram, apenas pessoas aleatórias que tiveram a sorte de colocar o seu modelo na sua mesa de cheques escondida, ganharam. Imho o fracasso da parte do numerai, algumas porcarias aleatórias e não um concurso.

Então eles viram que todas as pessoas adequadas fugiram do seu concurso aleatório, perceberam o seu erro e mudaram alguma coisa. Agora as previsões são avaliadas de acordo com vários critérios. O que mais me irrita é o critério da "singularidade", se alguém enviou resultados semelhantes antes, então o seu será rejeitado como plágio. Ou seja, se várias pessoas usam a mesma estrutura para criar um modelo, aquele que acordou cedo e enviou uma previsão vai receber o dinheiro.
A precisão dos modelos é agora completamente inútil no cálculo dos lucros. Você pode obter erro 0, estar em 1º lugar no topo e não ganhar nada, porque o topo mostra o resultado nos dados de teste que eles mesmos dão para baixar, o topo não mostra mais o resultado de sua tabela de validação oculta.
A actual iteração do concurso deles é um disparate, sem transparência, tudo está confuso. Esperando que eles mudem algo no concurso novamente, espero que seja adequado novamente.

Quanto dinheiro real você ganhou com este site antes que eles mudassem as regras?
 

 
Dr. Trader:

Mais como algum tipo de serviço de descontos )) Não é como pagar a um cientista de dados

 

Cada semana os vencedores dos 100 primeiros recebem um total de $3.600, mas os prémios diminuem em volume de forma muito acentuada. O primeiro lugar recebe $1000, depois $435, depois $257, etc. Mesmo que você chegue ao décimo lugar (geralmente há mais de 500 inscritos), você ganha uns míseros $63. Estás a ser intimidado.

Eu vejo este concurso mais como uma forma de comparar o meu modelo com os líderes e aprender diferentes abordagens à datamining do que como uma forma de ganhar dinheiro.

 

Eu queria saber como a pontuação da tabela de classificação (val logloss, vertical) está relacionada com a pontuação que o modelo obteve nos novos dados (logloss ao vivo, horizontal). (55ª ronda)

Bem feito, só os que estão no rectângulo inferior esquerdo. O resto, apesar de terem chegado à tabela de liderança, perdeu nos novos dados. As melhores loglosses na tabela de classificação (os dois pontos inferiores à direita) foram as piores nos novos dados.

O que tiver o ponto mais à esquerda no gráfico ganha, e parece mais uma aprendizagem de máquina aleatória do que uma aprendizagem de máquina propositada.

Curiosamente, com um logloss de 0,690 - 0,691 em dados de validação, quase todos mostraram bons resultados em novos dados também, não tenho idéia do que isso tem a ver com isso.