Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3211

 
mytarmailS #:

Para evitar o peeking, Forester está certo ao dizer que você deve calcular os preditores sem peeking a cada iteração do loop.

Essa é a solução.

No exemplo do ZZ, isso era óbvio.

Mas frequentemente obtenho um erro de classificação de menos de 10% sem o ZZ. Isso acaba sendo uma besteira. Joguei fora.

 
СанСаныч Фоменко #:

E você não pode usar o arquivo INE e viver feliz, como Maxim faz com imagens muito bonitas.

Você sonhará com muitas coisas em seus sonhos
 
Maxim Dmitrievsky #:
Não estou interessado em resolver os problemas mentais de outras pessoas.

Você é responsável por imagens bonitas, mesmo no mercado. Portanto, esse é seu principal problema.

 
СанСаныч Фоменко #:

Você é responsável por imagens bonitas, mesmo no mercado. Portanto, esse é seu principal problema.

Não tenho nenhum problema, inclusive os mentais. Se você quiser tentar criá-los, tente.
 

Há uma aritmética simples que diz que a seleção de recursos é feita a partir de uma pilha de informações heterogêneas, muitas vezes irrelevantes para o assunto do estudo.

Os BPs derivados estão todos relacionados a esse BP, você só pode escolher melhor/pior, o que muitas vezes não faz sentido algum.

Não estou falando de fuçar, esses são alguns problemas infantis. Obviamente, essas brincadeiras não levaram a nada ao longo dos anos. Mas eles persistem em repetir isso.

E os erros ocorrem mesmo na amostra, porque você simplesmente não consegue marcar as negociações corretamente.
Em novos dados, pode haver variantes, como viés devido a tendências, ou retreinamento em flutuações imprevisíveis, confusão. Curado por meio de correção de erro de modelo usando o método cv.

Em que parte de seus artigos há uma única menção a métodos simples e eficazes de correção de erros?

Deixe-me adivinhar: não há nenhuma seta para esse conhecimento sagrado na rubrica P, e não estamos acostumados a pesquisar no Google e pensar :).
 
Maxim Dmitrievsky #:

Há uma aritmética simples que diz que a seleção de recursos é feita a partir de uma pilha de informações heterogêneas, muitas vezes irrelevantes para o assunto do estudo.

Os BPs derivados estão todos relacionados a esse BP, você só pode escolher melhor/pior, o que muitas vezes não faz sentido algum.

Não estou falando de fuçar, esses são alguns problemas infantis. Obviamente, essas brincadeiras não levaram a nada ao longo dos anos. Mas eles persistem em repetir isso.

E os erros ocorrem mesmo na amostra, porque simplesmente não é possível marcar as negociações adequadamente.
Em novos dados, pode haver variantes, como viés devido a tendências, ou retreinamento em flutuações imprevisíveis, confusão. Curado pela correção dos erros do modelo com o método cv.

Em que parte de seus artigos há uma única menção a métodos simples e eficazes de correção de erros?

Os erros de CV não são corrigidos por seu significado, pois são uma busca por parâmetros ideais com minimização de erros. Se um professor e seus preditores estiverem falsamente correlacionados, a CV necessariamente encontrará algo melhor nesse lixo, mas não resolverá o problema do lixo.

O problema do lixo é resolvido pela "capacidade de previsão", ou seja, a capacidade dos valores do preditor de prever uma classe ou outra. Então, fica claro que o erro de classificação é determinado pelo fato de que os mesmos valores preditores preveem uma classe em alguns momentos e outra classe em outros momentos. O Rattle tem até imagens sobre esse tópico.

 
СанСаныч Фоменко #:

A CV não cura erros em seu significado, pois é uma busca por parâmetros ideais com minimização de erros. Se um professor e seus preditores estiverem falsamente correlacionados, a CV certamente encontrará algo melhor nesse lixo, mas não resolverá o problema do lixo.

O problema do lixo é resolvido pela "capacidade preditiva", ou seja, a capacidade dos valores do preditor de prever uma classe ou outra. Fica claro, então, que o erro de classificação é determinado pelo fato de que os mesmos valores preditores preveem uma classe em alguns momentos e outra classe em outros momentos. O Rattle tem até imagens sobre esse tópico.

E daí? Não procure correlações, procure a causalidade por meio de randomização e CV. Ou eu tenho que lhe ensinar, Terver?

Quase todos os modelos em uma amostra fixa serão falhos se você não fizer a correção de erros. Porque você não sabe como marcar um gráfico. Se você soubesse, mas não sabe. Você terá aleatoriamente a parte menor sempre rotulada corretamente, não importa o que você pense sobre isso.
 
СанСаныч Фоменко #:

O problema mencionado acima é que há um modelo que tem excelentes resultados em um arquivo de treinamento e um arquivo OOS. Entendo que o arquivo de treinamento pode ser obtido até mesmo por amostragem aleatória por amostra, e o arquivo OOS é o resíduo do arquivo de treinamento.

Mas ao executar o modelo em um arquivo externo, o resultado é catastroficamente ruim.

Acho que mencionei o OOS algumas vezes recentemente. Mas, segundo sua terminologia, o bom OOS era um "arquivo separado".

SanSanych Fomenko #:

E como detectar olhando para frente?

Se o aprendizado de várias passagens (o próximo estágio usa os cálculos do anterior), a probabilidade de "olhar para frente" é alta. Não há uma receita geral, mas fiz o seguinte em um caso.


Para acelerar o cálculo, foi necessário eliminar os ticks desnecessários. Por exemplo, se você reduzir o número de ticks em 10 vezes, os cálculos serão acelerados na mesma proporção. Essa é uma ação muito exigida.

No meu caso, eu sabia de quais ticks eu precisava e de quais eu quase não precisava. De qualquer forma, criei um símbolo personalizado e iniciei os backtests com o símbolo personalizado e o original.

Aqui era importante ativar a nerdice e obter uma correspondência >99%. Descobri que, inicialmente, eu estava jogando muito fora e obtive um resultado diferente (é claro, melhor do que o original).


Por fim, comecei a descartar menos do que o original e tudo começou a corresponder. Ou seja, eu realmente uso um método de duas passagens ao treinar.


Portanto, provavelmente, para detectar o peeking após a passagem anterior, você pode usar a verificação descrita acima antes mesmo dos cálculos sérios. Bem, e há também o método do avô para detectar o olhar à frente - "bom demais para ser verdade". Os iniciantes se alegram com os resultados legais, enquanto os mais maduros ficam chateados porque percebem que terão de procurar seu próprio erro por um longo tempo.

 
fxsaber #:

Os recém-chegados ficam felizes com os resultados legais, mas os maduros ficam chateados, porque percebem que terão que procurar seus próprios erros por um longo tempo.

E os profissionais olham para eles com pena e condescendência e dizem baixinho para si mesmos: quando vocês pensarão em mudar o conceito, não o cenário?

 
mytarmailS #:

E profissionais...

Não conheci nenhum.