Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1195
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Digamos que já temos uma curva como a sua - uma distribuição de probabilidade a priori.
Pela fórmula Bayesiana você pode atualizá-la após cada comércio, assim o centro irá mudar e obter uma nova distribuição a posteriori, ou seja, aproximadamente algum fator de mudança que será atualizado após cada comércio. Isto irá ajustar ligeiramente o modelo às novas realidades, embora o modelo em si permaneça o mesmo.
Eu não sei como fazê-lo corretamente, na verdade deveria ser fácil, mas eu nunca o fiz :)
Não é realmente um treinamento modelo, porque não usamos novas leis, mudamos a interpretação das antigas - os preditores no modelo, as divisões nas árvores permanecem as mesmas. Aqui nós precisamos obter informações sobre quais regularidades foram inseridas - há um array no catbust, onde estão as regularidades de todas as folhas, e conseqüentemente editar esse array mudando a regularidade (um número para interpretar a regularidade). O problema é que haverá muitas folhas por entrada, então você precisa distribuí-las proporcionalmente, seja para aquelas que foram a favor da entrada, diminuindo-as, ou para aquelas contra, aumentando-as. A questão é quantas folhas, se houver 100 delas e 1000 de negócios, então você pode usar estatísticas para cada folha.
E se partirmos do pressuposto de que, devido à não-estacionariedade, não são os padrões em si que mudam, mas o modelo simplesmente se desloca e não dá os sinais certos
Não temos de estar sempre debaixo do capô quando queremos fazer uma curva apertada, só precisamos de orientar às vezes... e aqui não vejo muita diferença entre modificar o modelo e modificar a distribuição de saída... é só dizer :)
Você ainda tem que ir debaixo do capô, porque a resposta final é a soma dos valores das folhas e nem sempre são todos usados, mas somente quando há indicadores apropriados para isso. Portanto, 1 folha pode ser usada por entrada, ou 100! Portanto, não podemos mudar a interpretação do modelo deslocando a probabilidade para todas as situações, ou melhor, podemos, mas não é lógico, porque parte das folhas pode continuar a classificar corretamente. Portanto, ou muda os indicadores foliares, ou faz uma interpretação adicional separada de cada folha e a muda dependendo das combinações com outras folhas, mas não tenho certeza se isso é produtivo.... É por isso que prefiro modelos pequenos - se você os combinar, é mais fácil descobrir qual deles está mentindo e se livrar dele.
Se há poucas folhas, então talvez você possa mudar a barreira da probabilidade, mas se há muitas folhas e apenas uma pequena parte delas é usada por entrada, então não faz sentido logicamente.mas, às vezes, só temos de guiar...
affine transformation can steer ;), aqui está um exemplo em KB foihttps://www.mql5.com/ru/code/9378
fez uma coisa parecida, mas para que direcção então, como é que eu descubro? )
de jeito nenhum, só com um testador ((
talvez um filtro Kalman )
google "kalman habrahabr", o artigo foi lido lá há muito tempo, o mais valioso está nos comentários, o autor do artigo em pooh.... Tanto quanto sei, funcionará como todos - apenas com dados que mudam lentamente.
PS: havia exemplos de Kalman no KB - e se? ;)
Talvez, ainda não esteja claro... até você tentar )
Você pode ter uma folha má com um preditor instável em uma combinação de previsão correta e você precisa se livrar dela. Por exemplo, você pode identificar a combinação em 80% das folhas participantes - um determinado quorum, e se uma nova folha com um peso elevado aparecer, você pode filtrá-la. Até me pergunto quantas combinações podem haver com este critério por 1000 transacções... Mas não tenho ideia de como descobrir.
Um truque importante... A lei do Zipf (exponencial). E também demonstra que as variáveis com maior variância (maior defasagem de preço) têm sempre maior importância nos modelos em árvore. Existem muitas características semelhantes (500 no total), por isso o gráfico não é muito demonstrativo. Faço-o novamente mais tarde.
legal!
Pergunta como especialista em Python, me dê algo em Python para experimentos, estou quase terminando com Sharp, ele se conecta ao MT5 sem problemas, C# suporta Python também, eu posso tentar iniciar Python também ;)
Lindo!
Pergunta como um especialista em Pythons, dê-me algo em Python para experimentos, estou quase pronto com Sharp, ele liga com MT5 sem qualquer problema, C# e Python são supostamente suportados, então eu posso mudar para Python ;)
Estou apenas a aprender Python... bem, o que há para aprender, quero dizer, ainda não dominei os modelos MO... o que queres exactamente? Tira um exemplo deste site https://scikit-learn.org/stable/
como Random Forest, por exemplo.
Estou apenas a aprender pitão... ou melhor, o que há para aprender, quero dizer, ainda não o usei... o que é que queres exactamente? Toma um exemplo a partir daqui https://scikit-learn.org/stable/
como Random Forest, por exemplo.
ou de aumento de inclinação, exemplos prontos.
Está bem, obrigado, amanhã vou ver isso.
Os gráficos aqui e aqui e mesmo aqui foram plotados com um erro, os valores não são de zero, portanto a probabilidade de 0,5 não está no ponto 5, mas no ponto 6!
Este é o tipo de erro que pode ocorrer ao analisar dados e tentar dar-lhe sentido, um erro técnico, por assim dizer...