Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1761
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Ocorreu um pensamento, o arquivador pode ser usado como um teste de aleatoriedade. O aleatório não será comprimido pelo arquivador.
Devemos testar cotier, diferentes tamanhos, várias amostras. Tente fazer uma decomposição de componentes para ver se a compressão melhora.
Compressores flácidos piores, embora pareça ser mais adequado para ele. Rorschach: o flac é pior para a compressão, embora pareça ser mais adequado para isso.Por relação de volume, o preço é semelhante ao fractal
Por relação de volume, o preço parece um fractal
Bom começo. Se o preço é semelhante a variações fractais, onde os padrões estão definitivamente lá)))) P com aleatoriedade também é correto))))
Uma coisa que eu não entendo é porque a taxa de compressão é a mais alta na faixa aleatória e P?Uma coisa que eu não entendo é por que a taxa de compressão é a mais alta na faixa aleatória e em Pi?
É o oposto, eles têm a menor taxa de compressão
É o oposto, eles têm a menor taxa de compressão
Entendi, o grau é confuso. esquerda para puxar os padrões e descompactar e ver a diferença com o original.
Ocorreu um pensamento, o arquivador pode ser usado como um teste de aleatoriedade. O aleatório não será comprimido pelo arquivador.
Deveríamos verificar cotier, tamanhos diferentes, algumas amostras. Tente fazer a decomposição em componentes para ver se a compressão melhora.
Compressores flácidos piores, embora pareça ser mais adequado para ele. Rorschach: o flac é pior para a compressão, embora pareça ser mais adequado para este tipo de compressão.Eu já vi esta ideia antes. Como não são permitidos links para recursos de terceiros, vou colá-lo com uma imagem.
Uma idéia interessante é representar imagens como uma onda, 50 ondas para ser exato.
Cada onda poderia ser alimentada com a entrada NS.
Só uma ideia.
Uma idéia interessante é representar imagens como uma onda, 50 ondas para ser exato.
Cada onda poderia ser alimentada com a entrada NS.
Só uma ideia.
interessante, mas sem sentido).
divertido, mas inútil )
Tenho preditores experimentais de "convolução", cujo princípio é quebrar o gráfico em uma grade e informar a acumulação de barras, na verdade o contraste. E, surpreendentemente, os padrões funcionam em algumas folhas. Ainda não desenvolvi mais esta ideia, em vez de me concentrar na estrutura de dados e na capacidade de agregação. O meu ponto é que o princípio da compressão de dados é essencialmente semelhante aqui.
A propósito, a proposta de trabalhar experimentalmente com um conjunto de dados aberto é interessante. No entanto, como você imagina que isso seja possível sem a EA de código aberto com função de particionamento e salvamento de preditores?
Tenho preditores experimentais de "convolução", cujo princípio é quebrar o gráfico em uma grade e informar o agrupamento de barras, na verdade o contraste. E, surpreendentemente, em algumas folhas, os padrões funcionam. Ainda não desenvolvi mais esta ideia, em vez de me concentrar na estrutura de dados e na capacidade de agregação. O meu ponto é que existe essencialmente um princípio semelhante de compressão de dados.
Eu estava a fazer algo semelhante, mas na forma de distribuições, ou em termos mais comerciais - eu estava a construir algo como perfis de volume em vez de gráficos, é uma coisa engraçada... há um ponto na escavação + representação de níveis + algoritmização conveniente
A propósito, a proposta de trabalhar experimentalmente com um conjunto de dados aberto é interessante. Entretanto, como você imagina que seja possível sem a EA de código aberto com a função de marcar e salvar preditores?
Posso imaginar tudo isso em um arquivo txt ou csv, onde as colunas são características/previsão/atributos e a última é um arquivo de destino
Concordamos com o alvo, com o que deve ser e com que parâmetros, e vamos em frente...
Cada participante abre um conjunto de dados no software e tenta reduzir o erro de classificação, se bem sucedido, adiciona ao conjunto de dados aqueles recursos que foram gerados e envia um conjunto de dados melhorado de volta ao público, e assim por diante, um algoritmo genético humano de geração e seleção de recursos aparece.
Quando um erro aceitável é alcançado, podemos pensar em portar tudo para o código mql
é assim que eu vejo as coisas.
Eu acho que o erro aceitável é 95% +, até agora o máximo é 77-83% +-.
Além disso, para evitar a geração de "assinaturas de lixo" eles poderiam estabelecer limites tais que o sinal deveria melhorar o erro em pelo menos 1%, por exemplo, caso contrário eles jogariam 15000 sacos e diriam: Melhorei o erro em 2%))) Sou um herói)
Fiz algo semelhante, mas na forma de distribuições, ou em termos mais comerciais, construí algum tipo de perfis de volume em vez de gráficos, é uma coisa divertida... faz sentido cavar + representação de níveis + algoritmos convenientes
Tenho 16 células 4x4, janela dinâmica e conto quantas barras fechadas em cada célula, para colocar de forma primitiva.
Eu mostro tudo como um arquivo .txt ou csv, onde as colunas são características/protetores/assinaturas e a última é um arquivo alvo
Concordamos imediatamente com o alvo, com o que deve ser e com que parâmetros, e vamos em frente...
O alvo deve ser gerado pelo Expert Advisor, caso contrário não está claro como obter novos preditores - usando os dados.
Os alvos podem então ser carregados com muitos, o que permitirá revelar o poder de previsão dos preditores, porque um bom preditor terá sucesso em diferentes alvos.
O instrumento deve ser o mesmo para todos - o futuro Moex ou cola é melhor. Eu gosto de Si.