Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1977

 

Pena triste, o aumento da TF agrava o resultado, o ranhoso é melhor.

Acrescentei MA e desbaste. Sem MA, o desbaste funciona como uma mudança na TF e torna a distribuição normal. RMS = raiz da etapa de desbaste. Se MA é 2 vezes maior do que o desbaste, então temos a amostragem kosher, a previsão funciona com alta precisão, mas precisamos de um testador para calcular o payoff esperado correto. O ziguezague está pronto, mas eu não sei que forma deve tomar: conjuntos de índices com mínimos e máximos, ou um conjunto de índices, ou um conjunto de preços de uma só vez.

Posso obter qualquer outro filtro em vez do MA, mas só preciso de conhecer a característica de impulso. No código MA é feito como [1/por]*per, que se expandirá para per=4 em [0.25, 0.25, 0.25, 0.25, 0.25].

 
Rorschach:

Floresta: 55,89% de respostas corretas, 2,36 expectativa

Incrementos cumulativos da floresta: 55,89% de respostas corretas, 2,36 expectativa, resultados idênticos

Mas há uma diferença, os incrementos são melhores.

Problemas com o ziguezague, não está claro como limitar a mudança mínima, sempre com micro-cambientes.


 

É mais um disparate, mas eu vou perguntar.


A NS pode prever tais séries?


Como a probabilidade do próximo personagem aparecer. E há alguma dependência da série A, da série B.

 
Evgeniy Chumakov:

É mais um disparate, mas eu vou perguntar.


A NS pode prever tais séries?


Como a probabilidade do próximo personagem aparecer. E existe uma correlação entre a série A e a série B?

Esta é a tarefa directa deles.

 

Depois de mudar para o TensorFlow 2.3, um erro apareceu

"AVISO:fluxo tensor:11 das últimas 11 chamadas para activar o retracing da função tf.function . Orastreamento é caro e o número excessivo de rastreamentos pode ser devido à criação de @tf.function repetidamente em um loop " .

Ou seja, alguma função tf.function está a jurar que está em loop. Eu não tenho nenhuma função tf.function, mas no loop ele enquadra modelos prediction=model.predict(data).
A tf.function é descrita aqui
Esta é claramente alguma entidade desconhecida, alguém entende o que é?

UPD
De qualquer forma, isto é uma coisa fixe, não posso passar sem ela, preciso de investigar. Resolve problemas de compatibilidade de TensorFlow com Python.

 

Acho que acabei com o agente comerciante. Eu monitorizei a demonstração para testes alfa. A lógica é não trivial, por isso pode haver bugs. Vamos testá-lo.

Agora estou interessado em experimentar o LSTM em diferentes variantes e talvez transformadores (mas pode ser difícil de descobrir).
 
Maxim Dmitrievsky:

Acho que já acabei o negociante. Eu monitorizei a demonstração para testes alfa. A lógica é não trivial, por isso pode haver bugs. Vamos testá-lo.

Agora estou interessado em experimentar LSTM em diferentes variantes e talvez transformadores (mas pode quebrar o seu cérebro tentando descobrir isso)

A lógica é mais complexa. Por um lado, é bom. Por outro lado, insectos em áreas desconhecidas. Transformador é o quê?

 
Valeriy Yastremskiy:

A lógica é mais ramificada. Por um lado, isto é uma coisa boa. Por outro lado, há insectos em áreas desconhecidas. Transformador é o quê?

Um novo tipo de rede para trabalhar com seqüências temporais, dito ser melhor que a lstm. No reconhecimento de textos, tradução automática, etc., são utilizados para realçar o contexto das frases. Ou seja, quando uma palavra está relacionada a outras (anteriores) por algum contexto.

transformadores de auto-atenção. Mecanismo - o análogo da atenção humana.

 
Maxim Dmitrievsky:

um novo tipo de rede de sequência temporal, que se diz ser melhor que a lstm. No reconhecimento de textos, tradução automática, etc., são utilizados para realçar o contexto das frases. Ou seja, quando uma palavra está relacionada a outras (anteriores) por algum contexto.

transformadores de auto-atenção. Mecanismo - o análogo da atenção humana.

Complicações tão significativas. Primeiro, a memória é longa e curta, e depois há a semblante de atenção no modelo. O meu cérebro não consegue lidar com tudo ao mesmo tempo). Mas deve funcionar melhor.

 
Valeriy Yastremskiy:

Bem, complicações tão significativas. Primeiro, a memória é longa e curta, e depois há a semblante de atenção no modelo. O cérebro definitivamente não está à altura disso))). Mas deve funcionar melhor.

Funciona melhor, mas nunca se sabe para onde vai.

Em geral, as redes convencionais de propagação traseira como mlp não são adequadas para séries temporais, de forma alguma. No mínimo você precisa do RNN