Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2121

 
Elibrarius:

Eu fiz - não funcionou.

Isso é estranho... OK, vou dar outra vista de olhos a este tópico. Depois digo-te.

 
A propósito, o código CatBoost tem um método de quantificação
GreedyMinEntropy

que não está listada na documentação oficial.

 
Maxim, você pode comparar onde a velocidade de aprendizagem é mais rápida, em python ou na versão de console do CatBoost?
 
Aleksey Vyazmikin:
Maxim, você pode comparar onde a velocidade de aprendizagem é mais rápida, em python ou na versão de console do CatBoost?
O mesmo, é o mesmo programa.
 
Alexander_K:

Estranho... OK, vou dar outra vista de olhos a esta linha - eu volto mais tarde.

Primeiro falou por lembrança e acabou por se revelar errado.

Acabei de verificar agora mesmo com validação cruzada. O tempo ainda dá 1-2% de aumento em novos dados. Enquanto que a prevalência total de previsões bem sucedidas sobre as mal sucedidas é de cerca de 5% na TP=SL. Em outras palavras, de 10 a 30% de contribuição para o sucesso vem do tempo.

No entanto, isto é um teste a um pedaço de história de 2 meses. Em outro pedaço de história, as coisas podem mudar.
 

Eu alimento o tempo como cosseno e seno. Isto já foi discutido aqui https://www.mql5.com/ru/forum/212376#comment_5983502

Simplesmente como 0...5(dia da semana) ou 0...23 (hora) ou 0...59 (minuto) também pode ser alimentada, mas como uma variável categórica.
Seno e co-seno já são numéricos, qualquer algoritmo aceitará.

Обсуждение статьи "Глубокие нейросети (Часть II). Разработка и выбор предикторов"
Обсуждение статьи "Глубокие нейросети (Часть II). Разработка и выбор предикторов"
  • 2017.07.31
  • www.mql5.com
Опубликована статья Глубокие нейросети (Часть II). Разработка и выбор предикторов: Автор: Vladimir Perervenko...
 

há uma tendência relativamente nova chamada aprendizagem activa. Pode auto amostrar os dados da melhor maneira possível. Parece ser adequado para a minha abordagem (amostragem aleatória). Ainda não entrei nisso.

https://libact.readthedocs.io/en/latest/overview.html

https://medium.com/towards-artificial-intelligence/how-to-use-active-learning-to-iteratively-improve-your-machine-learning-models-1c6164bdab99

Overview — libact 0.1.3 documentation
  • libact.readthedocs.io
libact is a Python package designed to make active learning easier for real-world users. The package not only implements several popular active learning strategies, but also features the active-learning-by-learning meta-algorithm that assists the users to automatically select the best strategy on the fly. Furthermore, the package provides a...
 
mytarmailS:

À medida que avançamos, as frequências e possivelmente as fases estão a flutuar... As amplitudes estão a aguentar...

Aqui está a previsão para 500 pontos do modelo montado sobre o histórico de 10k de 4 harmônicas

Podemos ver que a previsão é precisa para todos os 500 pontos, mas as frequências são flutuantes e usando um algoritmo incompreensível.

E isto é apenas um exemplo ilustrativo, às vezes é ainda pior.

Já experimentou com incrementos?

"Uma das propriedades úteis de uma série de incrementos é a maior estabilidade do espectro em comparação com o processo original. ". Isto é Goodman escrevendo.

 
elibrarius:

Eu alimento o tempo como cosseno e seno. Isto já foi discutido aqui https://www.mql5.com/ru/forum/212376#comment_5983502

Igual a 0...5(dia da semana) ou 0...23 (hora) ou 0...59 (minuto) também pode ser alimentada, mas como uma variável categórica.
Seno e co-seno já são numéricos, qualquer algoritmo aceitará.

Você pode postar a função que converte o tempo em seno/coseno? Eu também tentaria este método. No artigo que publiquei, o número de horas acabou por ser um preditor significativo. Pergunto-me se este método é adequado para modelos de madeira ou mais para redes neurais.