Retreinamento - página 2

 
Dmitry Fedoseev:
E eu pensava que "blá blá" era julgado não pelas pessoas, mas pelo que elas escrevem.

Normalmente não respondo a postos irritados, mas responderei pessoalmente a você.

Portanto, o que quero dizer com "blá blá blá".

CASO 1.

Suponha que você tenha escrito um robô, encontrado seus parâmetros com um TESTER e depois, sem alterá-los, o tenha experimentado em novas áreas de cotações e de preferência em outros símbolos e TFs. Obtivemos um resultado positivo.

A questão é: Em que medida podemos confiar no resultado? Vai cair ou não?

Como resposta à pergunta, olhe a guia "Sinais" aqui no site e veja que os sinais com a rentabilidade maior que o depósito bancário e com a vida útil superior a um ano são bastante raros: não há nem mesmo uma centena em vários milhares. Assim, eu pessoalmente concluo que o desenvolvimento de um TS estável é uma arte, e o testador é uma das ferramentas para desenvolver um TS tão estável. Mas a conclusão mais importante: o testador não dá garantias contra a perda de um depósito.

Foi o que considerei o caso quando o testador confirmou o TS.

CASO 2

Este é um caso mais interessante no sentido de "blá, blá, blá". - isto é quando o testador dá um resultado negativo. O que fazer? Afinal, o testador não dá nenhuma idéia em que direção cavar e o mais importante não responde à pergunta: por que um resultado negativo. O testador afirma o fato - é ruim. Depois vem o uso de um método universal chamado MÉTODO TYKA ou blá-blá, que geralmente significa uma mudança intuitiva dos indicadores na tentativa de obter o conjunto de indicadores que nos conduzirá ao caso 1 descrito acima.

Existem algumas idéias, ferramentas, que possam tornar o processo do caso 2 mais significativo e garantir que os resultados obtidos no testador serão obtidos no futuro na conta real?

Sim, há, eu dei um link para um fio paralelo. Trata de tais ferramentas para analisar o conjunto inicial de dados de entrada (preditores), o que não levará a um reaperfeiçoamento (sobre-ajuste) do TS. Estes não são "blá-blá". - Estas são ferramentas específicas com justificativa matemática de sua eficácia, sem busca intuitiva do graal, e após encontrar tal graal, drenando o depoimento.

 
Stanislav Korotky:
Se for utilizado um teste prévio, o "supertreinamento" será visível pela degradação dos resultados fora do período de otimização. Infelizmente, a MT não fornece nenhum método embutido de comparação dos resultados da otimização e dos testes futuros, ou seja, sugere-se fazê-lo manualmente (a olho nu), por programas ou scripts externos a seu próprio critério.
O próprio termo "requalificação" é uma bobagem, destina-se a justificar a não-funcionalidade da própria EA e perde completamente o seu significado quando se volta para o futuro. Se uma variável é super-aprendida ou sub-aprendida, de fato, não é óbvio pela degradação. Ele só pode ser visto quando se comparam os resultados futuros sob diferentes condições de otimização e teste. Tanto a profundidade da história como o passo em frente são selecionados em cada caso pessoalmente e então já é visível o que está acima e o que está abaixo do treinamento.
 
СанСаныч Фоменко:

...

CASO 2.

O testador afirma um fato - mau. Depois vem a aplicação de um método universal chamado MÉTODO TYKA ou blá-blá, que geralmente envolve a mudança intuitiva de um conjunto de indicadores na tentativa de obter um conjunto de indicadores que nos conduzirá ao caso 1, descrito acima.

Existem algumas idéias, ferramentas, que possam tornar o processo do caso 2 mais significativo e garantir que os resultados obtidos no testador serão obtidos no futuro na conta real?

Sim, há, eu dei um link para um fio paralelo. Trata de tais ferramentas para analisar o conjunto inicial de dados de entrada (preditores), o que não levará ao reaperfeiçoamento (sobreajuste) do TS. Estes não são "blá-blá". - Estas são ferramentas específicas com justificativa matemática de sua eficácia, sem busca intuitiva do graal, e após encontrar tal graal, drenando o depoimento.

E se este método de poke for automatizado! Pensamentos interessantes nesta direção. Os indicadores estão mudando, assim como suas interações, as interações são representadas como funções separadas, de modo que o número de parâmetros pode mudar, apenas a otimização mais simples de acordo com eles ocorre. É por isso que estou interessado na pergunta feita neste tópico, uma abordagem mais universal, que não dependeria de parâmetros estratégicos. O ramo que você está propondo tem objetivos completamente diferentes. Mas se você mostrar a aplicabilidade desses métodos a este problema, você é bem-vindo.

 
Youri Tarshecki:
O próprio termo "reciclagem" é bobo, projetado para justificar a inoperabilidade da própria EA e perde completamente seu significado com um volking forward. Se uma variável é sobretreinada ou subtreinada, na verdade, não se pode dizer da degradação. Ele só pode ser visto quando se comparam os resultados futuros sob diferentes condições de otimização e teste. Tanto a profundidade da história como o passo em frente são selecionados em cada caso pessoalmente e então já é visível o que está acima e o que está abaixo do treinamento.

Nesta situação o termo "overtraining" é aplicável, o treinamento se refere não apenas à definição de parâmetros, mas também à construção de estratégias.

Gostaria de estimar a probabilidade de supertreinamento, para que o sistema de busca possa ao menos "contornar" os lugares duvidosos, se apenas comparar com um gráfico de histórico avançado, pode acontecer que o sistema perceba dois gráficos de histórico (treinamento, teste) como um gráfico de treinamento. Escuta de idéias)).

 
Aliaksandr Hryshyn:

Nesta situação o termo "overtraining" é aplicável, o treinamento se refere não apenas à definição de parâmetros, mas também à construção de estratégias.

Gostaria de estimar a probabilidade de supertreinamento, para que o sistema de busca possa ao menos "contornar" os lugares duvidosos, se apenas comparar com um gráfico de histórico avançado, pode acontecer que o sistema perceba dois gráficos de histórico (treinamento, teste) como um gráfico de treinamento. Escuta de idéias)).

Ao construir uma estratégia, o termo "supertreinamento" é ainda mais inaplicável, uma vez que estamos comparando apenas o resultado do teste sob as mesmas condições de treinamento para selecionar a variante de código. E o quão otimamente estas condições são escolhidas não é tão importante, o principal é que elas são as mesmas para todas as variantes do código. Caso contrário, a escolha não tem sentido.
 

O termo "sobretreinamento" ou "otimização excessiva" foi cunhado por tweakers porque, de fato, quanto mais você otimizar uma EA em uma determinada parte da história e quanto mais parâmetros de otimização houver, melhores serão os resultados no treinamento.

Por alguma razão, há uma opinião de que existe uma correlação inversa com os resultados dos testes, ou seja, quanto menos, melhor, mas minha experiência mostra que isso não é verdade. O resultado do teste não depende do número de passes de optmização, mas da qualidade do próprio Expert Advisor e da escolha ideal de treinamentos e testes. Os resultados de esquemas onde a história é submetida a uma otimização mínima não são os melhores que eu já vi.

Por exemplo, sob o esquema de avanço da pele de lobo em um treinamento de 4 meses - teste de 1 mês, cada intervalo da história é otimizado 4 vezes, mas sob o esquema de treinamento de 2 meses - teste de 2 meses apenas uma vez. É muito ou muito pouco? Quem sabe! Só precisamos ver os resultados dos testes. Se a soma dos atacantes for melhor, então essa é a melhor opção.

 
Youri Tarshecki:
Ao construir uma estratégia, o termo "supertreinamento" é ainda mais inaplicável, uma vez que estamos apenas comparando o resultado do teste sob as mesmas condições de treinamento para selecionar uma variante do código. E o quão otimamente estas condições são escolhidas não é tão importante, o principal é que elas são as mesmas para todas as variantes do código. Caso contrário, a escolha não tem sentido.

Este termo é usado com bastante freqüência:"Overtraining,overfitting é um fenômeno indesejável que ocorre em tarefas deaprendizagem baseadas em precedentes, quando a probabilidade de erro do algoritmo treinado nos objetos deamostra de testeé significativamente maior do que o erro médio naamostra de treinamento. "

De acordo com a definição, a uniformidade das condições de treinamento não impede a aplicabilidade do termo ao nosso problema.

 
Nikkk:

Re-treinamento é como a palavra contra-revolução. Então, por que ensinar se você tem que se reciclar? E se faz sentido se reciclar, então você conhece os limites flutuantes para o reciclar, caso contrário é a mesma roleta no final. E como existem pontos de decisão sobre quando/como muitas vezes/quais os parâmetros... precisam ser requalificados, por que não colocar esse entendimento na lógica do treinamento/algoritmo em si desde o início.

Afastando-se da análise de preços para a análise de feedback entre treinamento e realidade (preço). A mesma coisa de um ângulo diferente.

Basta comparar o aprendizado com a memória. Não é como se você estivesse se perguntando por que precisa se lembrar se tem que esquecer de qualquer forma. O problema é que os EAs geralmente não têm uma memória de longo prazo separada e uma memória de trabalho. Além disso, a avaliação de seu desempenho é muito primitiva. Portanto, o ideal seria ensinar (dar memória a) cada permenente separadamente (que é o que eu tento fazer, por sinal), e testá-lo não em segmentos de treinamento, mas em segmentos de teste.
 
Aliaksandr Hryshyn:

Este termo é usado com bastante freqüência:"Overtraining,overfitting é um fenômeno indesejável que ocorre em tarefas deaprendizagem baseadas em precedentes, quando a probabilidade de erro do algoritmo treinado nos objetos deamostra de testeé significativamente maior do que o erro médio naamostra de treinamento. "

De acordo com a definição, a uniformidade das condições de treinamento não impede a aplicabilidade do termo ao nosso problema.

Portanto, ao construir uma estratégia, a tarefa é diferente. não são os precedentes, não a otimização, mas a escrita de código.

Além disso, não estou de acordo com esta definição. Segundo ele, se não estamos otimizando nada e a probabilidade de fracasso no teste é maior do que no treinamento (que é uma coisa comum) - também será considerada uma otimização excessiva. E o que isso significa substancialmente? Duas vezes? Por dez vezes?

 
Youri Tarshecki:
Basta comparar o aprendizado com a memória. Não é como se você estivesse se perguntando por que precisa se lembrar se tem que esquecer de qualquer forma. O problema é que as EAs geralmente não têm memória de longo e curto prazo separadamente. Além disso, a avaliação de seu desempenho é muito primitiva. Portanto, o ideal seria ensinar cada permenente separadamente (o que estou tentando fazer, a propósito), e verificá-lo não em segmentos de treinamento, mas em segmentos de teste.

Não esqueça, é só que a memória da seção onde ocorreu o treinamento é transformada na memória dos resultados do treinamento daquela seção. É o mesmo que se filtrássemos uma área e depois usássemos as informações filtradas para análise, depois filtrássemos e usássemos outra e assim por diante, enquanto há uma conexão entre a natureza da filtragem/áreas em que esses filtros foram realizados.

Nada é esquecido ali, a mesma análise da história de um ângulo diferente. O que quer que você queira chamar, sobre-aprendizagem/sobre-optimização/adaptação/ajuste/sobre-ajustamento.