Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Então, diga-me, como você decide se um atacante está sobretreinado ou subtreinado. O sobretreinamento se degrada de alguma forma diferente do subtreinamento?
A única maneira de determinar a qualidade das condições de treinamento é ver a qualidade correspondente do teste fora da amostra. E somente comparando os resultados você pode dizer se a otimização está super ou sub otimizada. Mas não vejo nenhum tópico tratando de sub-optimização em nenhum lugar. Por alguma razão, todos vêem a raiz do problema na mítica superoptimização em vez da qualidade do código.
A degradação progressiva avalia a generalizabilidade de um sistema (isto é, estabilidade, adequação a dados desconhecidos). Quando (a capacidade) é baixa, então do ponto de vista prático, não faz diferença se nós sobre-treinamos ou sub-treinamos - em qualquer caso, nós vamos jogar fora. Mas se o Expert Advisor é treinado classicamente - usando o conjunto de parâmetros e o testador de MT - então não podemos estar subtreinados (de um ponto de vista técnico). E se o aprendizado for feito usando um algoritmo próprio, podemos usar métodos bem conhecidos (por exemplo, parada antecipada) para encontrar o ponto ótimo quando o "erro é mínimo" (o melhor resultado em OOS): neste ponto, a sub-optimização já terminou, enquanto a sobre-optimização ainda não ocorreu. Infelizmente, o testador padrão não oferece tal funcionalidade automática para comparar o desempenho do sistema no período de otimização e o OOS. O OOS em MT é o teste de avanço. Portanto, o destaque em negrito é na verdade o mesmo que o que estou dizendo. O iniciante do tópico fez uma pergunta sobre requalificação, portanto, as respostas aqui são sobre isso. Quanto ao sub-aprendizado, se com isso nos referimos não ao grau de otimização, mas sim à "qualidade de código" abstrata que parece incluir a escolha de preditores, métodos de preparação de dados de entrada, profundidade da amostra de treinamento e outros meta-conhecimento, então o sub-aprendizado é definido muito simplesmente - pela ausência de resultados positivos de otimização.
Eu não concordo com o subtreinamento - tecnicamente não é difícil de fazer. Isto é, o fato da degradação em si não diz se ela é supertreinada ou subtreinada.
Se o autor tira sua mente do termo e entende que o ótimo é algo em Gauss, então ele formulará a questão de uma maneira ligeiramente diferente - como determinar a quantidade e a densidade ótima de treinamento.
Então, podemos ser mais específicos.
Pessoalmente, eu o defino com base nos resultados do teste.
Stanislav Korotky:
Термин этот не дурацкий, а давно устоявшийся и "одобренный лучшими собаководами"
De fato, o excesso de treinamento não é realmente um excesso de treinamento, é um excesso de equipamento.
Vamos tentar olhar a questão de uma perspectiva um pouco diferente.
O modelo/TS quando treinado (se tiver tal possibilidade) é capaz de lembrar algumas regularidades dos dados históricos, também, devido a sua imperfeição, lembra-se do "ruído". Consideraremos o ruído, pois o TS pode "aprender" e não dar bons resultados sobre novos dados, o ruído pode ser diferente para outras estratégias.
A questão interessante é como podemos, pelo menos parcialmente, limitar o TS/modelo para que ele não possa "lembrar" o ruído? Ou como "limpar" os dados históricos do ruído, mais uma vez, o ruído em relação ao TS.
Aqui está um exemplo simples na foto, vamos assumir que as linhas 1 e 2 são o mesmo modelo.
Aqui está outro exemplo, na área entre as duas linhas verticais, o modelo (linhas vermelhas) está muito errado.
De fato, o excesso de treinamento não é realmente um excesso de treinamento, é um excesso de equipamento.
Exatamente certo. Encaixar ou reequipar é o mesmo que a pila
Sobre o que são estas fotos afinal? O que sobre os eixos? O número de otimizações?
Horizontalmente, deve haver o número de operações de otimização dos valores dos indicadores ou grupo de indicadores, vindo no mesmo momento da história. E na linha vertical, o resultado da verificação de todo o sistema. Então podemos falar sobre o excesso e o subtreinamento e o que eles são. E então a curva será bem diferente. Será quase uma distribuição normal com a única diferença de que em algum momento a adição do número de passes (ou a diminuição do passo para o parâmetro indicador) não dará nada de novo.
Como o número de passes pode ser ajustado?
1. Simplesmente mudando o número de sessões de treinamento, ou mudando a distância (degrau) dos parâmetros indicadores.
2. Mudando a profundidade da história para o treinamento em relação ao "passo" da verificação OOS. Então a mesma parte da história será otimizada um número diferente de vezes, embora com um número diferente de "vizinhos".
3. Alterando um algoritmo de otimização genética, se o utilizarmos. Por exemplo, pela mudança do número de gerações, aleatoriedade, etc.
Aqui, talvez, estejam todas as ferramentas disponíveis para combater o PERE e o NEDO.
Também observarei que se nos concentrarmos exatamente na verificação e não no resultado durante a otimização (ajuste), então a natureza da curva não dependerá do fato de o sistema em si não ser lucrativo ou não. Ou seja, se o sistema estiver perdendo, ele simplesmente perderá ainda mais quando for treinado em excesso, isso é tudo. A tarefa do treinamento é encontrar o melhor dos parâmetros. E a tarefa da codificação é encontrar variantes viáveis, o treinamento ideal não cria nada de novo por si só.