Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 360

 
Mihail Marchukajtes:
Interessante!!! Mas o problema é um pouco diferente. Suponha que o seu TS tenha diminuído 20%. Qual é a pergunta? Sairá do sorteio e ganhará no topo ou continuará a drenar????? Como você sabe se o seu TS precisa ser re-otimizado???
Imho, este "COMO..." não é diferente de qualquer outro sistema. MO ou não MO é irrelevante. Escolha um critério, e decida quando e o quê.
 
Mihail Marchukajtes:
Interessante!!! Mas o problema é um pouco diferente. Suponha que o seu TS tenha diminuído 20%. Qual é a pergunta? Sairá do sorteio e ganhará no topo ou continuará a drenar????? Como pode saber se o seu TS precisa de ser re-optimizado???

O TS NÃO deve ser super-optimizado - esse é o objetivo de criar um TS. Tudo o resto é um jogo de números.
 
SanSanych Fomenko:

A CU NÃO deve ser requalificada - esse é o objectivo da criação da CU. Tudo o resto é um jogo de números.
Se for requalificado, pode ou não ser requalificado, mas mais cedo ou mais tarde começará a falhar de alguma forma. Acho que era a pergunta deMihail Marchukajtes - como sabe quando?
 
Yuriy Asaulenko:
Você pode ou não ser requalificado, mas mais cedo ou mais tarde ele começará a vazar de qualquer maneira. Acho que essa era a pergunta deMikhail Marchukajtes - como você sabe quando?


Você não entende a palavra "requalificado".

Primeiro você tem que se preocupar que o TC não seja requalificado - prove esse fato. E então essa prova deve ser repetida. Se você não pode provar que não está reeducado, você não pode usá-lo.

 
SanSanych Fomenko:


Você não entende a palavra "requalificado".

Primeiro você tem que se preocupar que o TC não seja requalificado - prove esse fato. E então essa prova deve ser repetida. Se não consegues provar que não está reeducado, não o podes usar.

Eu suponho que entendo).

Переобучение (переподгонка, пере- в значении «слишком», англ. overfitting) в машинном обучении и статистике — явление, когда построенная модель хорошо объясняет примеры из обучающей выборки, но относительно плохо работает на примерах, не участвовавших в обучении (на примерах из тестовой выборки).

Это связано с тем, что при построении модели («в процессе обучения») в обучающей выборке обнаруживаются некоторые случайные закономерности, которые отсутствуют в генеральной совокупности.

Даже тогда, когда обученная модель не имеет чрезмерного количества параметров, можно ожидать, что эффективность её на новых данных будет ниже, чем на данных, использовавшихся для обучения[1]. В частности, значение коэффициента детерминации будет сокращаться по сравнению с исходными данными обучения.

Способы борьбы с переобучением зависят от метода моделирования и способа построения модели. Например, если строится дерево принятия решений, то можно обрезать некоторые его ветки в процессе построения.
https://ru.wikipedia.org/wiki/Переобучение

Eu acho que esta é uma definição um pouco simplificada. Portanto, ainda é não só possível, mas talvez até mesmo necessário usá-lo. Tudo depende das especificidades.

Utilizamos modelos grosseiros, o que também pode ser interpretado como excesso de formação.

 
Mihail Marchukajtes:
Interessante!!! Mas o problema é um pouco diferente. Suponha que o seu TS tenha diminuído 20%. Qual é a pergunta? Sairá do sorteio e ganhará no topo ou continuará a drenar???? Como pode saber se o seu TS precisa de ser re-optimizado???

Se o modelo recém-formado no testador não mostrar 20% de drawdown para este período e o modelo antigo na conta real aberta - então, retrabalhe-os inequivocamente, o modelo perdeu sua relevância e deve levar em conta novos padrões. Por que não requalificar o modelo após cada nova profissão? E dê-lhe um histórico actualizado de acordos para entrar.
 
Maxim Dmitrievsky:

Se o modelo recém treinado no testador não der um drawdown de 20% durante este período, e o modelo antigo na conta real deu - então o retrabalhe, o modelo perdeu sua relevância e precisa levar em conta novos padrões. Por que não requalificar o modelo após cada nova profissão? E você também deve dar-lhe o histórico actualizado de acordos para entrar.
)) Estava a ponderar sobre este assunto ontem. Decidi que seria melhor registrar as transações e, após a sua conclusão, enviar uma amostra de treinamento para entrada. Eu aprenderia mais à medida que o jogo avançava.
 
Yuriy Asaulenko:

Eu suponho que entendo).

Eu acho que esta é uma definição um pouco simplificada. Portanto, não só é possível, mas talvez até mesmo necessário utilizá-lo. Tudo depende das especificidades.

Estamos usando modelos em bruto, e isto também pode ser interpretado como sobreajustamento.


Na citação o overlearning é uma consideração demasiado subtil das características, e você tem grosseiramente como overlearning?!

Tu é que sabes. Não é a primeira vez.

 
Maxim Dmitrievsky:

Se o modelo recém treinado no testador não der um drawdown de 20% durante este período, e o modelo antigo na conta real deu - então o retrabalhe, o modelo perdeu sua relevância e precisa levar em conta novos padrões. Por que não requalificar o modelo após cada nova profissão? E dê-lhe o histórico actualizado dos negócios a serem inseridos.

Treinamento, reciclagem e reconversão (superfitting) são coisas fundamentalmente diferentes.

Todo este treinamento em cada novo bar é mastigado e mastigado neste fórum e, em geral, dentro da TA.

Na luta contra o supertreinamento (superfitting) eu conheço dois métodos.

1. limpeza do conjunto de preditores a partir de preditores não relacionados com a variável alvo - limpeza do conjunto de preditores de entrada a partir do ruído. Os primeiros 100 posts deste tópico discutiram-no em detalhe.

2. Com o conjunto de preditores limpos do ruído, começamos a ajustar o modelo com amostra de treino, depois com amostra de teste e validação, que são amostras aleatórias de um ficheiro. O erro em todos os três conjuntos deve ser aproximadamente o mesmo.

3. Depois pegue um arquivo separado do anterior e execute o modelo nele. Mais uma vez o erro deve ser mais ou menos o mesmo que os anteriores.

4. Se estas verificações são feitas regularmente, então a sua pergunta: "uma queda de 20% é um sinal para a reciclagem" não vale nada porque como resultado dos três primeiros passos a queda é obtida como parâmetro do modelo e indo além diz que o modelo não está funcionando e tudo deve ser iniciado novamente.

 
SanSanych Fomenko:


Na citação o supertreinamento é uma consideração muito boa de características e você tem o supertreinamento é supertreinamento?!

Tu é que sabes. Não é a primeira vez.

Também não é a primeira vez. Mas porquê apenas grosseiro. Outro exemplo está certo na definição - um modelo excessivamente complexo encontra algo que não existe - padrões aparentes.

Você tem um entendimento muito simplista ou unilateral de sobretreinamento, imho.

SanSanych Fomenko:

Aprendizagem, sobretreinamento e supertreinamento (superfitting) são coisas fundamentalmente diferentes.

Todo este treinamento em cada novo bar é mastigado e mastigado neste fórum e geralmente dentro de TA.

Na luta contra o supertreinamento (superfitting) eu conheço dois métodos.

.....

4. Se você fizer essas verificações regularmente, sua pergunta: "uma queda de 20% é um sinal para a reciclagem" não vale nada, pois os três primeiros passos resultaram em uma queda como parâmetro do modelo e ir além diz que o modelo não é viável e você tem que começar do início.

Bem, sim. Mas não completamente mastigado. A literatura considera seriamente esta opção - pré-ensino no decorrer de uma peça de teatro. Como e quando você pode fazer isso, e quando não, é outra questão. Há limitações em todo o lado.