Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 979

 

Joguei com NS e kfold também com NS ensembles de algibeira para classificação (softmax), primeira impressão:

1. LBFGS treina muito mais rápido que LM (é irreal esperar pelo segundo), mesmo para um NS sem conjunto.

2. kfold continua mostrando grande erro de aprendizagem, eu não consegui colocar a estratégia em ++ posições mesmo com 2 faltas, para não dizer nada sobre 10. Talvez não seja muito adequado para a minha tarefa, mas vou tentar novamente.

O conjunto de NS baseado em ensacamento e algoritmo LBFGS é da mesma qualidade do conjunto de andaimes, mas treina mais lentamente

3. conjunto de paragem precoce com amostragem de validação (LM é usado por mim): mal posso esperar para aprender de todo.

4) O ajuste dos parâmetros (passo, número de recuperadores) não dá melhorias visíveis. O aumento do número de neurónios em 2-3 vezes dá uma pequena melhoria.

5. Em geral, fiquei com a impressão, de que os NS são treinados da mesma forma, conjunto de NS em buggy treinados um pouco menos do que o comitê da floresta.

Tudo isso foi feito para depois comparar com o xgboost, por exemplo, o que vou investigar mais tarde.

++ empilhamento de modelos comigo não deu mais estabilidade, treina da mesma maneira, às vezes você pode melhorar os resultados em uma bandeja, porque o modelo apenas treina mais

 
Maxim Dmitrievsky:

Olá, um pouco fora de tópico. Uma vez, no fórum, encontrei a sua correspondência com outra pessoa. Lá você estava discutindo que programa é usado para fazer ajuda da Microsoft. (A que aparece ao pressionar F1). Para recolher ali as minhas variantes de código de forma mais conveniente com a pesquisa. Por favor, avise mais uma vez. (espero não me ter enganado e foste tu)))

 
Evgeny Raspaev:

Olá, um pouco fora de tópico. Encontrei a sua correspondência com outra pessoa no fórum no outro dia. Lá você estava discutindo que programa você usa para fazer a ajuda da Microsoft. (A que aparece quando você pressiona F1). Para recolher ali as minhas variantes de código de forma mais conveniente com a pesquisa. Por favor, avise mais uma vez. (espero não me ter enganado e foste tu)))

Eu acho que não fui eu) não me lembro.

 
Maxim Dmitrievsky:

Acho que não fui eu) Eu não me lembro disso.

Desculpe, desculpe))))

 
Evgeny Raspaev:

Pena, peço desculpa))))

Ajuda e tentativa manual.
 
Dmitriy Skub:
Ajuda & Manual experimente.

Oh, exactamente o que eu preciso.

 

Boa tarde ))


Enquanto você está procurando aqui até agora, nós já criamos REE - o elemento inovador russo.

Este é o "quinto elemento" - o graal, a pedra filosofal, o cinábrio, o sistema qi, a conquista dos nossos especialistas científicos em algoritmos.

Agora qualquer projeto econômico-financeiro será otimizado pela análise profunda dos neurônios sobre o RPE.

Ou seja, no futuro, 1 rublo será igual a 1 dólar - através de avanços económicos.


estamos a caminho de um futuro mais brilhante!))

 
Alexander Ivanov:

Boa tarde ))

....

Você deve ser um dos génios da equipa, não é? Espere, as mentes imaturas comuns podem não entender)

 
Maxim Dmitrievsky:

Joguei com NS e kfold também com NS ensembles de algibeira para classificação (softmax), primeira impressão:

1. LBFGS treina muito mais rápido que LM (é irreal esperar pelo segundo), mesmo para um NS sem conjunto.

2. kfold continua mostrando grande erro de aprendizagem, eu não consegui colocar a estratégia em ++ posições mesmo com 2 faltas, para não dizer nada sobre 10. Talvez não seja muito adequado para a minha tarefa, mas vou tentar novamente.

O conjunto de NS baseado em ensacamento e algoritmo LBFGS é da mesma qualidade do conjunto de andaimes, mas treina mais lentamente

3. conjunto de paragem precoce com amostragem de validação (LM é usado por mim): mal posso esperar para aprender de todo.

4) O ajuste dos parâmetros (passo, número de recuperadores) não dá melhorias visíveis. O aumento do número de neurónios em 2-3 vezes dá uma pequena melhoria.

5. Em geral, fiquei com a impressão, de que os NS são treinados da mesma forma, conjunto de NS em buggy treinados um pouco menos do que o comitê da floresta.

Tudo isso foi feito para depois comparar com o xgboost, por exemplo, o que vou investigar mais tarde.

++ empilhamento de modelos comigo não deu mais estabilidade, aprende o mesmo, às vezes você pode melhorar os resultados em uma bandeja, porque o modelo é apenas mais treinável

Também gostaria de saber o nome daquele brinquedo com que estás a brincar.

 
Vladimir Perervenko:

Quem me dera saber o nome do brinquedo com que estás a brincar.

Diz - biblioteca de análise numérica alglib, portada para MT5. Já a usei para cima e para baixo, sem bugs em geral, a biblioteca é boa. Mas sem visualização e modelos mais novos. Parece que a biblioteca não está mais se desenvolvendo, há silêncio em seu site.