Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 979
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Joguei com NS e kfold também com NS ensembles de algibeira para classificação (softmax), primeira impressão:
1. LBFGS treina muito mais rápido que LM (é irreal esperar pelo segundo), mesmo para um NS sem conjunto.
2. kfold continua mostrando grande erro de aprendizagem, eu não consegui colocar a estratégia em ++ posições mesmo com 2 faltas, para não dizer nada sobre 10. Talvez não seja muito adequado para a minha tarefa, mas vou tentar novamente.
O conjunto de NS baseado em ensacamento e algoritmo LBFGS é da mesma qualidade do conjunto de andaimes, mas treina mais lentamente
3. conjunto de paragem precoce com amostragem de validação (LM é usado por mim): mal posso esperar para aprender de todo.
4) O ajuste dos parâmetros (passo, número de recuperadores) não dá melhorias visíveis. O aumento do número de neurónios em 2-3 vezes dá uma pequena melhoria.
5. Em geral, fiquei com a impressão, de que os NS são treinados da mesma forma, conjunto de NS em buggy treinados um pouco menos do que o comitê da floresta.
Tudo isso foi feito para depois comparar com o xgboost, por exemplo, o que vou investigar mais tarde.
++ empilhamento de modelos comigo não deu mais estabilidade, treina da mesma maneira, às vezes você pode melhorar os resultados em uma bandeja, porque o modelo apenas treina mais
Olá, um pouco fora de tópico. Uma vez, no fórum, encontrei a sua correspondência com outra pessoa. Lá você estava discutindo que programa é usado para fazer ajuda da Microsoft. (A que aparece ao pressionar F1). Para recolher ali as minhas variantes de código de forma mais conveniente com a pesquisa. Por favor, avise mais uma vez. (espero não me ter enganado e foste tu)))
Olá, um pouco fora de tópico. Encontrei a sua correspondência com outra pessoa no fórum no outro dia. Lá você estava discutindo que programa você usa para fazer a ajuda da Microsoft. (A que aparece quando você pressiona F1). Para recolher ali as minhas variantes de código de forma mais conveniente com a pesquisa. Por favor, avise mais uma vez. (espero não me ter enganado e foste tu)))
Eu acho que não fui eu) não me lembro.
Acho que não fui eu) Eu não me lembro disso.
Desculpe, desculpe))))
Pena, peço desculpa))))
Ajuda & Manual experimente.
Oh, exactamente o que eu preciso.
Boa tarde ))
Enquanto você está procurando aqui até agora, nós já criamos REE - o elemento inovador russo.
Este é o "quinto elemento" - o graal, a pedra filosofal, o cinábrio, o sistema qi, a conquista dos nossos especialistas científicos em algoritmos.
Agora qualquer projeto econômico-financeiro será otimizado pela análise profunda dos neurônios sobre o RPE.
Ou seja, no futuro, 1 rublo será igual a 1 dólar - através de avanços económicos.
estamos a caminho de um futuro mais brilhante!))
Boa tarde ))
....
Você deve ser um dos génios da equipa, não é? Espere, as mentes imaturas comuns podem não entender)
Joguei com NS e kfold também com NS ensembles de algibeira para classificação (softmax), primeira impressão:
1. LBFGS treina muito mais rápido que LM (é irreal esperar pelo segundo), mesmo para um NS sem conjunto.
2. kfold continua mostrando grande erro de aprendizagem, eu não consegui colocar a estratégia em ++ posições mesmo com 2 faltas, para não dizer nada sobre 10. Talvez não seja muito adequado para a minha tarefa, mas vou tentar novamente.
O conjunto de NS baseado em ensacamento e algoritmo LBFGS é da mesma qualidade do conjunto de andaimes, mas treina mais lentamente
3. conjunto de paragem precoce com amostragem de validação (LM é usado por mim): mal posso esperar para aprender de todo.
4) O ajuste dos parâmetros (passo, número de recuperadores) não dá melhorias visíveis. O aumento do número de neurónios em 2-3 vezes dá uma pequena melhoria.
5. Em geral, fiquei com a impressão, de que os NS são treinados da mesma forma, conjunto de NS em buggy treinados um pouco menos do que o comitê da floresta.
Tudo isso foi feito para depois comparar com o xgboost, por exemplo, o que vou investigar mais tarde.
++ empilhamento de modelos comigo não deu mais estabilidade, aprende o mesmo, às vezes você pode melhorar os resultados em uma bandeja, porque o modelo é apenas mais treinável
Também gostaria de saber o nome daquele brinquedo com que estás a brincar.
Quem me dera saber o nome do brinquedo com que estás a brincar.
Diz - biblioteca de análise numérica alglib, portada para MT5. Já a usei para cima e para baixo, sem bugs em geral, a biblioteca é boa. Mas sem visualização e modelos mais novos. Parece que a biblioteca não está mais se desenvolvendo, há silêncio em seu site.