Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2537

 
Aleksey Vyazmikin #:

E se o alvo não for definido aleatoriamente?

Como? Duplicar uma das entradas para a saída? Vai aprender tudo bem. Acho que até já tentei.

Aleksey Vyazmikin #:

Apenas fiz uma experiência - minha amostra é normalmente dividida em 3 partes, então eu a peguei, combinei em uma amostra e treinei um modelo de 100 árvores, depois vi quais os preditores que não foram usados e os bloqueei. Depois treinei o modelo como de costume com uma paragem no overtraining na segunda amostra, e comparei os resultados na terceira amostra com a variante quando treino sem excluir os preditores. Acontece que os resultados foram melhores nos preditores selecionados, e aqui eu acho difícil concluir este efeito pensamentos como "a seleção de diferentes preditores ocorre devido à diferença nas amostras no intervalo, treinando em toda a amostra selecionamos automaticamente os preditores que não perdem seu significado com o tempo".

Sim, você selecionou algo que terá um impacto no futuro. Pode até ter tido pouca influência no passado, mas devido à sua boa influência no futuro sobre a média de toda a amostra foi seleccionada.

Aleksey Vyazmikin #:

No entanto, isso significa que quanto maior a amostra, mais robusto o modelo num horizonte mais longo? Os preditores podem ser seleccionados para aprender desta forma, ou seja, não encoraja a aprendizagem excessiva?

Como eles dizem - o mercado está a mudar. Novos jogadores entram, criam novos robôs e desactivam os antigos, etc. Eu acho que numa amostra muito grande o modelo chegará a um resultado médio para todas essas mudanças, possivelmente zero. Acho que você precisa ajustar a profundidade do treinamento para a máxima eficiência e reciclagem regularmente. Eu mesmo estou experimentando com o mesmo período (por exemplo, teste de 2 anos, reciclagem aos sábados, tamanho dos dados testados de alguns dias para um ou dois anos).
Teoricamente, seria melhor definir automaticamente o tamanho da amostra de treinamento para cada treinamento de reciclagem. Mas até agora não sei como.

Aleksey Vyazmikin #:
Geralmente eu ouvi uma recomendação dos fundadores do CatBoost que eu deveria encontrar hiperparâmetros do modelo e depois estupidamente treinar em todas as amostras disponíveis para usar o modelo no trabalho.

Os criadores não vão aconselhar mal) Eu pego hiperparâmetros no Walking-Forward (VF), já que a consistência dos dados permanecerá e aqui você pode apenas pegar a profundidade da história para aprender, pela degradação da influência de dados antigos. Você também pode usar a Validação Cruzada (CV), se os dados não mudarem com o tempo, mas não se trata de mercados.
Após a seleção, claro que devemos aprender até o momento atual e usar o modelo pelo tempo que você teve no TP ou TP para frente.
Ao treinar na mesma trama que a trama de teste, você está ajustando o modelo e hiperparâmetros para aquele 1 teste. E ao treinar 10-50 vezes em KV ou VF - você encontra os melhores hiperparâmetros para um grande trecho da história.
Talvez seja melhor, ou talvez eu seja preguiçoso demais para pegar hiperparâmetros uma vez por semana)) Então o que é realmente melhor - a prática vai mostrar.

 
elibrarius #:
Teoricamente, seria melhor determinar automaticamente, de alguma forma, o tamanho da amostra de treino para cada treino de reciclagem. Mas até agora não sei como

PARA DETERMINAR A MÉDIA

se o tamanho do gen. scoop é desconhecido, considere o tamanho da resamplificação

n=(t^2*sigma^2)/delta_y^2

- para amostras aleatórias (para amostras estratificadas e em série, a fórmula torna-se um pouco mais complicada)

ou seja, temos de determinar a probabilidade de confiança requerida P e o seu correspondente coeficiente de fiabilidade t=2 para um nível de confiança de 95%... uma margem de erro máxima admissível (o próprio perito da sucursal deve sabê-lo, se você for um comerciante) no divisor... e variância (sigma) que é desconhecida, mas que pode ser conhecida a partir de observações anteriores.

Na verdade, era sobre isso que eu estava escrevendo quando eu estava falando sobre janela flutuante [em princípio você poderia dizer "tamanho da amostra"] e estatísticas t para definir uma tendência plana e a probabilidade de "onde estamos" - para colocar uma margem de rejeição RS ou absorver RS...

Claro, desde que a sua característica tenha uma distribuição normal, e é o principal factor a influenciar o resultado (pode já ter definido o seu dy/dx->min)... não é um modelo multifactor (acho que neste caso você pode tirar o valor máximo dos calculados... imho)

PARA DETERMINAR A PARTE DO TRAÇO

da mesma forma, mas em vez de erros e valores de variância da média, use erro marginal da ação (delta_w) e variância do traço alternativo w(1-w)

se a freqüência (w) não for sequer aproximadamente conhecida, o cálculo leva em conta o valor máximo da variância da ação, 0,5(1-0,5)=0,25

cboe para opções na avaliação da assimetria incluem minutos antes da data de expiração do 2x K_opt mais próximo (como indicações alternativas)...

ou quaisquer outros sinais de sabor e cor (se não houver opções)

p.s. mais ou menos como aqui

p.p.s. é assim pela lógica, e como implementar o cálculo da adequação da amostra na construção de modelos com população genética desconhecida é uma questão de disponibilidade de dados brutos e lógica... mas 2 anos parece-me ser um intervalo normal para a população... imho

Определение объема выборки
Определение объема выборки
  • 2013.08.16
  • baguzin.ru
Ранее мы рассмотрели методы построения доверительного интервала для математического ожидания генеральной совокупности. В каждом из рассмотренных случаев мы заранее фиксировали объем выборки, не учитывая ширину доверительного интервала. В реальных задачах определить объем выборки довольно сложно. Это зависит от наличия финансовых ресурсов...
 
JeeyCi #:

PARA DETERMINAR A MÉDIA

Se o tamanho do gen. scoop é desconhecido, o volume de reamostragem para uma amostra aleatória é considerado (para amostras estratificadas e em série, a fórmula torna-se ligeiramente mais complicada)

n=(t^2*sigma^2)/delta_y^2

ou seja, é necessário definir uma probabilidade de confiança requerida P e um coeficiente de confiança relevante t=2 para um nível de confiança de 95%... uma margem de erro máxima admissível (o próprio perito da indústria deve sabê-lo, se você é um comerciante) no divisor... e variância (sigma) que é desconhecida, mas que pode ser conhecida a partir de observações anteriores.

Na verdade, era sobre isso que eu estava escrevendo quando eu estava falando sobre janela flutuante [em princípio você poderia dizer "tamanho da amostra"] e estatísticas t para definir uma tendência plana e a probabilidade de "onde estamos" - para colocar uma margem de rejeição RS ou absorver RS...

Claro, desde que a sua característica tenha uma distribuição normal, e é o principal factor a influenciar o resultado (pode já ter definido o seu dy/dx->min)... não é um modelo multifactor (acho que neste caso você pode tirar o valor máximo dos calculados... imho)

PARA DETERMINAR A PARTE DO TRAÇO

o mesmo, mas em vez de valores de erro e variância da média, use erro marginal da ação (delta_w) e variância do traço alternativo w(1-w)

cboe para opções, na estimativa da assimetria coloque minutos até à data de expiração de 2 K_opt mais próximos (como atributos alternativos)...

ou quaisquer outros sinais de sabor e cor (se não houver opção)

p.s. mais ou menos como aqui

p.p.s. é assim pela lógica, e como implementar o cálculo da adequação da amostra na construção de modelos com população genética desconhecida é uma questão de disponibilidade de dados brutos e lógica... mas 2 anos parece-me ser um intervalo normal para a população... imho

Para a determinação da média:
(Alto+Baixo)/2
 
Vladimir Baskakov #:
para definição de média:
(Alto+Baixo)/2

Não quero aborrecê-lo, mas "médio", (alto+baixo)/2, estritamente falando não pode ser chamado, há mais nomes acadêmicos para isso. A época dos eventos é desconhecida e irregular e irregular.

 
Maxim Kuznetsov #:

Não quero aborrecê-lo, mas "médio", (alto+baixo)/2, a rigor, não pode ser chamado, existem mais nomes acadêmicos para tais coisas. O momento dos eventos é desconhecido e irregular e irregular.

Acho que esta é a média mais média das médias.
 
Maxim Kuznetsov #:

O timing dos eventos é desconhecido e desigual e irregular.

Na verdade, por hábito, perco de vista os "acontecimentos" enquanto considero "sinais"... - Eu esqueço-me sempre... Obrigado por me lembrares da palavra...! - é aí que entra o teorema de Bayes, a julgar pela lógica, então acho que

 
Talvez seja parvoíce, mas não gosto de usar nada que não seja perto. Quando tenho uma série de observações (desculpe) de perto, sei sempre que existe um período de tempo fixo entre as observações (é sempre o mesmo, estável e conhecido por mim). Mas quando utilizo cálculos baixos / altos e diferentes com eles, encontro..... um período aleatório de tempo entre observações, que é sempre diferente, de uma observação para outra.
 
LenaTrap #:
Talvez seja parvoíce, mas não gosto de usar nada que não seja perto. Quando tenho uma série de observações (desculpe) de perto, sei sempre que há um período de tempo fixo entre as observações (é sempre o mesmo, estável e conhecido por mim). Mas quando utilizo cálculos baixos / altos e diferentes com eles, encontro..... um período aleatório de tempo entre observações, que é sempre diferente, de uma observação para outra .

sobre aleatoriedade e sempre diferente é, claro, machanuto...esse é, na verdade, todo o propósito de estudar todo esse hullabaloo - para determinar alto/baixo com mais ou menos precisão no tempo e no preço :-)

 
LenaTrap #:
Talvez seja parvoíce, mas não gosto de usar nada que não seja perto. Quando tenho uma série de observações (desculpe) de perto, sei sempre que há um período de tempo fixo entre as observações (é sempre o mesmo, estável e conhecido por mim). Mas quando utilizo cálculos baixos / altos e diferentes com eles, encontro..... um período aleatório de tempo entre observações, que é sempre diferente, de uma observação para outra.

Se a aplicação for estritamente matemática, é necessário usar Open, pois só para ele o momento do recebimento do tick é Markovian - é definido exclusivamente como uma abertura (sob a hipótese de horas ideais e ausência de aspas em falta). Fechar no momento do recebimento do tick não pode ser definido inequivocamente como fechar até o final do segmento de tempo.

Mas é mais comum trabalhar com um close. Provavelmente, é o mesmo que nos dias em que trabalhavam com citações diárias.

 
Aleksey Nikolayev #:

Se a abordagem matemática é rigorosa, então Open deve ser usada, porque só para ela o momento de sua chegada é Markovian - é definida inequivocamente como uma abertura

tecnicamente, fechar é o único preço com tempo confiável, ou seja, no momento da mudança de uma barra por outra, o preço é exatamente igual a fechar.

Se este primeiro tick ocorrer 10 minutos após a mudança do bar, significa que o preço aberto será o preço deste momento.