Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 193
![MQL5 - Linguagem para estratégias de negociação inseridas no terminal do cliente MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Já ando a brincar com o neurónio da convolução há algum tempo. Até agora não funcionou, mas pelo menos descobri como me preparar e prever com ele. Aqui está um código simples com comentários, e uma tabela para o teste.
Há duas camadas de convolução e uma camada normal escondida. O modelo treinado acaba por produzir sempre "1" na saída (comprar). A idéia é ter dezenas, não duas camadas de convolução, e depois semanas para treinar, e não há nenhuma garantia de sucesso. Mas vale a pena tentar.
Eu repachei forex_mxnet.txt, houve um erro lá, para uma função softmax o número de saídas na última camada deve ser igual ao número de classes. A opção com regressão, neste caso, não é de todo possível.
1) Não tenho a certeza do que queres dizer com "agrupamento". Normalmente você não agrupa um preditor em particular, mas pega uma dúzia deles, e encontra áreas no espaço onde esses pontos se agrupam. Por exemplo, na figura abaixo, tendo dois preditores, o agrupamento em 2 clusters dará apenas clusters azuis e vermelhos.
2) Talvez você esteja falando de padrões? Padrão verde - o preço desce e depois sobe. Amarelo: o preço sobe a partir de baixo. Vermelho: acima-> abaixo. Conseguiste acertar?
Inicialmente não sabemos quais os preditores bons e quais os maus, se os agruparmos todos de uma só vez num modelo (stochastic+rsi+masd.......) = clusters 1,2,3,4,5..... então também vamos contabilizar os preditores desnecessários, nem vamos saber que são desnecessários...
Precisamos de agrupar cada preditor
K1 = (estocástico) = clusters 1,2,3,4,5....
K2 = (rci) = clusters 1,2,3,4,5....
K3 = (massa) = clusters 1,2,3,4,5....
então procuramos combinações por número de clusters entre combinações de modelos
К1
K1 e K2
K2 e K3
K1 e K3
K1, K2 e K3
2) Correcto, Neste contexto, os clusters e padrões são a mesma coisa
Aglomerados e padrões são diferentes. Os clusters em um vetor são intervalos, ou seja, a lista de todos os valores de indicadores permitidos é dividida em várias zonas. Mas neste caso, os intervalos 2 e 3 da sua foto são iguais.
Mas se seu segundo e terceiro clusters são necessariamente coisas diferentes, então eles não são mais clusters, mas sim padrões.
Aglomerados e padrões são diferentes. Os clusters em um vetor são intervalos, ou seja, a lista de todos os valores de indicadores permitidos é dividida em várias zonas. Mas neste caso, os intervalos 2 e 3 da sua foto são iguais.
Mas se o seu segundo e terceiro clusters são necessariamente coisas diferentes, eles não são mais clusters, mas sim padrões.
Se não agruparmos o último valor do indicador, mas, digamos, 10 últimos valores na janela deslizante, obtemos um cluster com um determinado número que considera tanto as características numéricas como geométricas do indicador (inclinações, etc.)
O que é um aglomerado ou um padrão?
Respondi à sua pergunta ou não entendi a pergunta? :)
Eu respondi à sua pergunta ou entendi mal a pergunta? :)
Aqui é onde eu vejo como o comitê de todos os modelos disponíveis se comporta na validação versus aproximações ingênuas: comprar apenas, vender apenas, direções aleatórias.
Bai está a avançar ligeiramente nesta amostra.
Há outra amostra atrasada para validar o comitê de correspondência fina. É possível que a venda seja melhor. Mas o que importa é como o comité de modelos se comporta...
Correlação com o esquema que eu dei:
Bai puxa ligeiramente para a frente nesta amostra.
Se o gráfico de preços estiver a subir nesse período de tempo, estatisticamente será mais rentável, por vezes, apenas abrir um negócio de compra, manter e fechar. Não que seja "rentável", apenas a perda será menor se você também abrir aleatoriamente uma venda e segurá-la por um tempo. É por isso que só compras e só vendas são tão belamente simétricas em torno de negócios aleatórios. Não é o modelo em si que puxa para a frente, é apenas o preço que o acompanha com sucesso.
PS ) Tudo incluindo a propagação. Portanto, a aleatoriedade é distribuída abaixo de zero.
Parece bom em geral, o que será que vai acontecer no final?
Sobre o comitê - postei alguns exemplos, mas há modelos que usam regressão com arredondamento para classificar, e não é tão claro lá. Eu tentei duas formas diferentes de combinar votos:
1) reunir tudo para as aulas, e fazer a aula que conseguir mais votos.
Isto é, ter uma previsão para 4 barras de três modelos
c(0.1, 0.5, 0.4, 0.4) c(0.6, 0.5, 0.7, 0.1) c(0.1, 0.2, 0.5, 0.7) Eu o arredondaria ainda mais para as classes
c(0, 1, 0, 0) c(1,1,1,0) c(0,0,1,1) , e o vetor final com previsões seria c(0, 1, 1, 0) por número de votos.
2) outra opção é encontrar o resultado médio imediatamente, e só depois arredondá-lo para as classes
o resultado seria c((0.1+0.6+0.1)/3, (0.5+0.5+0.2)/3, (0.4+0.7+0.5)/3, (0.4+0.1+0.7)/3)
ou (0,2666667, 0,4000000, 0,5333333, 0,4000000), ou
c(0, 0, 1, 0)
Aqui é onde eu vejo como o comitê de todos os modelos disponíveis se comporta na validação versus aproximações ingênuas: comprar apenas, vender apenas, direções aleatórias.
Bai está a avançar ligeiramente nesta amostra.
Há outra amostra atrasada para validar o comitê de correspondência fina. É possível que a venda seja melhor. Mas o que importa é como o comité de modelos se comporta...
Correlação com o esquema que eu dei: