Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1881
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
O problema é que o esquema de preparação de dados parece ter ficado sem vapor, com não mais do que 65-66% de respostas corretas, e mais é necessário. Estou à procura de uma forma de atravessar esta parede.
Qual é o seu alvo?
Qual é o seu alvo?
65% das respostas corretas é o nível de um bom indicador, isto é o que o neuro está mostrando atualmente. Se a resposta for 70% ou mais, podemos tentar abrir uma posição.
Eu entendo, mas qual é a meta? o que você está prevendo com as redes? uma inversão? uma tendência? se uma tendência, o que você descreveu como uma tendência?
Eu entendo, mas qual é a meta? o que você está prevendo com as redes? uma inversão? uma tendência? se uma tendência, o que você descreveu como uma tendência?
A tarefa, por exemplo, é distinguir um gato de um cão por uma foto. Qual é a opção certa de treino?
1. Mostrar apenas fotos de cães e gatos, ou seja, classificação binária.
2. Separadamente ensinando apenas gatos e "não gatos" (protos caos) + separadamente também cães e "não cães", ou seja, dois ciclos de treinamento e dois padrões na saída.
3. Faça uma classificação de três - gatos, cães e caos. Ou seja, haverá um modelo, mas a resposta é uma classificação de três opções.
Neste momento, tenho a primeira opção e está claramente torta. O problema é que o neuro aprende bem apenas uma das variantes, convencionalmente só vê bem "gatos", e reconhece mal os cães. Por exemplo, nos testes de fundo os modelos são bons a detectar um movimento de preços ascendente e a ignorar um movimento descendente. Se o palpite para cima é de 67%, o mesmo modelo só palpite para baixo é de 55%. "Para cima" e "para baixo" podem mudar de modelo para modelo.
Eu entendo, mas qual é a meta? o que você está prevendo com as redes? uma inversão? uma tendência? se uma tendência, o que você descreveu como uma tendência?
A propósito, talvez os especialistas possam ajudar. Aqui está uma pergunta:
A tarefa, por exemplo, é distinguir um gato de um cão por uma foto. Qual é a maneira certa de aprender?
1. Mostrar apenas fotos de cães e gatos, ou seja, classificação binária.
2. Separadamente ensinando apenas gatos e "não gatos" (protos caos) + separadamente também cães e "não cães", ou seja, dois ciclos de treinamento e dois padrões na saída.
3. Faça uma classificação de três - gatos, cães e caos. Ou seja, haverá um modelo, mas a resposta é uma classificação de três opções.
Neste momento, tenho a primeira opção e está claramente torta. O problema é que o neuro aprende bem apenas uma das variantes, convencionalmente só vê bem "gatos", e reconhece mal os cães. Por exemplo, nos backtests os modelos são bons a identificar o movimento de preços para cima e ignoram o movimento de preços para baixo. Se o modelo adivinha para cima em 67%, o mesmo modelo só adivinha para baixo em 55%. Os padrões "para cima" e "para baixo" podem mudar de lugar de modelo para modelo.
O problema aqui não está nas variantes de classificação, mas no desbalanceamento de exemplos para treinamento, desbalanceamento em número ou em propriedades características dos exemplos.
Uma rede convolucional ?
A propósito, talvez os especialistas possam ajudar. Aqui está uma pergunta:
A tarefa, por exemplo, é distinguir um gato de um cão por uma foto. Qual é a maneira certa de aprender?
1. Mostrar apenas fotos de cães e gatos, ou seja, classificação binária.
2. Separadamente ensinando apenas gatos e "não gatos" (protos caos) + separadamente também cães e "não cães", ou seja, dois ciclos de treinamento e dois padrões na saída.
3. Faça uma classificação de três - gatos, cães e caos. Ou seja, haverá um modelo, mas a resposta é uma classificação de três opções.
Neste momento, tenho a primeira opção e está claramente torta. O problema é que o neuro aprende bem apenas uma das variantes, convencionalmente só vê bem "gatos", e reconhece mal os cães. Por exemplo, nos testes de fundo os modelos são bons a detectar um movimento de preços ascendente e a ignorar um movimento descendente. Se o palpite para cima é de 67%, o mesmo modelo só palpite para baixo é de 55%. "Para cima" e "para baixo" de modelo para modelo pode mudar de lugar.
Há dois conjuntos de pontos, não me lembro como são chamados esses pontos, qualquer reconhecimento da foto é para identificar os pontos dos olhos, nariz, boca, orelhas, área da bochecha e a distância e posição entre eles. É tão simples quanto isso. Então, se mostras um gato, não é isso. Primeiro você tem que treinar para reconhecer um gato de um gato, um cão de um cão, e só depois distinguir.
E sim, não apenas 2 ciclos, mas mais em treinamento se houver mais de 2 aulas.
O problema aqui não é com as opções de classificação, mas com o desequilíbrio dos exemplos de treinamento, desbalanceando o número ou as propriedades características dos exemplos.
Uma rede convolucional ?
Exemplos de aprendizagem desequilibrada podem muito bem ser a causa, mas acho que você tem que mexer com a função de ativação. A resposta cai no buraco errado, e há muitos buracos. Preciso de aprender TensorBoard para a feitiçaria, mas é uma dor tão grande...
Em suma, não tenho conhecimentos suficientes.
Não, não a convolução, eu não mostro fotos reais).
Exemplos de aprendizagem desequilibrada podem muito bem ser a causa, mas acho que você tem que mexer com a função de ativação. A resposta cai no buraco errado, e há muitos buracos. Preciso de aprender TensorBoard para a feitiçaria, mas é uma dor tão grande...
Eu não sei o suficiente.