L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 360

 
Mihail Marchukajtes:
Interessante!!! Ma il problema è un po' diverso. Supponiamo che il vostro TS sia diminuito del 20%. Qual è la domanda? Uscirà dal drawdown e guadagnerà sopra o continuerà a drenare????? Come fai a sapere se il tuo TS ha bisogno di essere riottimizzato?
Imho, questo "COME..." non è diverso da qualsiasi altro sistema. MO o non MO è irrilevante. Scegliete un criterio e decidete quando e cosa.
 
Mihail Marchukajtes:
Interessante!!! Ma il problema è un po' diverso. Supponiamo che il vostro TS sia diminuito del 20%. Qual è la domanda? Uscirà dal drawdown e guadagnerà sopra o continuerà a drenare????? Come fai a sapere se il tuo TS ha bisogno di essere riottimizzato?

Il TS NON dovrebbe essere sovraottimizzato - questo è lo scopo di creare un TS. Tutto il resto è un gioco di numeri
 
SanSanych Fomenko:

Il CU NON deve essere riqualificato - questo è il punto centrale della creazione del CU. Tutto il resto è un gioco di numeri.
Se viene riqualificato, può essere o non essere riqualificato, ma prima o poi comincerà a fallire in qualsiasi modo. Penso che questa fosse la domanda diMihail Marchukajtes - come fai a sapere quando?
 
Yuriy Asaulenko:
Puoi essere riqualificato o no, ma prima o poi inizierà a perdere comunque. Credo che questa fosse la domandadi Mikhail Marchukajtes - come fai a sapere quando?


Lei non capisce la parola "riqualificato".

Per prima cosa devi essere preoccupato che il TC non sia riqualificato - prova questo fatto. E poi questa prova deve essere ripetuta. Se non potete provare che non è riqualificato, non potete usarlo.

 
SanSanych Fomenko:


Lei non capisce la parola 'riqualificato'.

Per prima cosa devi essere preoccupato che il TC non sia riqualificato - prova questo fatto. E poi questa prova deve essere ripetuta. Se non puoi dimostrare che non è stato riqualificato, non puoi usarlo.

Credo di capire).

Переобучение (переподгонка, пере- в значении «слишком», англ. overfitting) в машинном обучении и статистике — явление, когда построенная модель хорошо объясняет примеры из обучающей выборки, но относительно плохо работает на примерах, не участвовавших в обучении (на примерах из тестовой выборки).

Это связано с тем, что при построении модели («в процессе обучения») в обучающей выборке обнаруживаются некоторые случайные закономерности, которые отсутствуют в генеральной совокупности.

Даже тогда, когда обученная модель не имеет чрезмерного количества параметров, можно ожидать, что эффективность её на новых данных будет ниже, чем на данных, использовавшихся для обучения[1]. В частности, значение коэффициента детерминации будет сокращаться по сравнению с исходными данными обучения.

Способы борьбы с переобучением зависят от метода моделирования и способа построения модели. Например, если строится дерево принятия решений, то можно обрезать некоторые его ветки в процессе построения.
https://ru.wikipedia.org/wiki/Переобучение

Credo che questa sia una definizione un po' semplificata. Quindi è ancora non solo possibile, ma forse anche necessario usarlo. Tutto dipende dai dettagli.

Usiamo modelli grezzi, e questo può anche essere interpretato come sovra-addestrato.

 
Mihail Marchukajtes:
Interessante!!! Ma il problema è un po' diverso. Supponiamo che il vostro TS sia diminuito del 20%. Qual è la domanda? Uscirà dal drawdown e guadagnerà sopra o continuerà a drenare???? Come fai a sapere se il tuo TS ha bisogno di essere riottimizzato?

Se il modello appena addestrato nel tester non mostra un drawdown del 20% per questo periodo e il vecchio modello nel conto reale si è rivelato corretto, il modello ha perso la sua rilevanza e dovremmo considerare nuove regolarità. Perché non riaddestrare il modello dopo ogni nuovo scambio? E dategli una cronologia aggiornata degli affari da inserire.
 
Maxim Dmitrievsky:

Se il modello appena addestrato nel tester non dà un drawdown del 20% durante questo periodo, e il vecchio modello sul conto reale lo ha fatto - allora riaddestralo, il modello ha perso la sua rilevanza e ha bisogno di prendere in considerazione nuovi modelli. Perché non riaddestrare il modello dopo ogni nuovo scambio? E dovresti anche dargli la storia aggiornata delle offerte per entrare.
)) Stavo riflettendo su questo argomento proprio ieri. Ho deciso che sarebbe stato meglio registrare le transazioni e dopo il loro completamento presentare un campione di formazione per la registrazione. Imparerei di più man mano che il gioco va avanti.
 
Yuriy Asaulenko:

Credo di capire).

Credo che questa sia una definizione un po' semplificata. Pertanto, non solo è possibile, ma forse anche necessario usarlo. Tutto dipende dai dettagli.

Stiamo usando modelli grezzi, e questo può anche essere interpretato come overfitting.


Nella citazione l'overlearning è una considerazione troppo sottile delle caratteristiche, e tu hai il coarsening come overlearning?!

Lo sai meglio tu. Non è la prima volta.

 
Maxim Dmitrievsky:

Se il modello appena addestrato nel tester non dà un drawdown del 20% durante questo periodo, e il vecchio modello sul conto reale lo ha fatto - allora riaddestralo, il modello ha perso la sua rilevanza e deve prendere in considerazione nuovi modelli. Perché non riaddestrare il modello dopo ogni nuovo scambio? E dategli la storia aggiornata degli affari da inserire.

L'addestramento, la riqualificazione e la riqualificazione (superfitting) sono cose fondamentalmente diverse.

Tutta questa formazione su ogni nuova barra è masticata e masticata su questo forum e in generale in AT.

Nella lotta contro l'overtraining (overfitting) conosco due metodi.

1. pulizia dell'insieme dei predittori dai predittori non legati alla variabile obiettivo - pulizia dal rumore dell'insieme dei predittori in ingresso. I primi 100 post di questo thread ne hanno discusso in dettaglio.

2. avendo l'insieme dei predittori ripuliti dal rumore, iniziamo ad adattare il modello con il campione di allenamento, poi con il campione di prova e di convalida, che sono campioni casuali da un file. L'errore in tutti e tre i set dovrebbe essere approssimativamente lo stesso.

3. Poi prendete un file separato dal precedente ed eseguite il modello su di esso. Anche in questo caso l'errore dovrebbe essere circa lo stesso dei precedenti.

4. Se questi controlli sono fatti regolarmente, allora la tua domanda: "un crollo del 20% è un segnale per il retraining" non vale affatto perché come risultato dei primi tre passi il crollo è ottenuto come parametro del modello e andare oltre dice che il modello non funziona e tutto dovrebbe essere ricominciato.

 
SanSanych Fomenko:


Nella citazione il sovrallenamento è una considerazione troppo fine delle caratteristiche e tu hai la grossolanità è il sovrallenamento?!

Lo sai meglio tu. Non è la prima volta.

Non è nemmeno la prima volta. Ma perché solo la grossolanità. Un altro esempio è proprio nella definizione - un modello troppo complesso trova qualcosa che non esiste - modelli apparenti.

Lei ha una comprensione molto semplicistica o unilaterale del sovrallenamento, imho.

SanSanych Fomenko:

Apprendimento, sovrallenamento e overtraining (overfitting) sono cose fondamentalmente diverse.

Tutta questa formazione su ogni nuova barra è masticata e masticata su questo forum e in generale all'interno dell'AT.

Nella lotta contro l'overtraining (overfitting) conosco due metodi.

.....

4. Se fai questi controlli regolarmente la tua domanda: "un crollo del 20% è un segnale per il retraining" non vale assolutamente la pena, dato che i primi tre passi hanno portato a un crollo come parametro del modello e andare oltre dice che il modello non è funzionante e devi ricominciare dall'inizio.

Beh, sì. Ma non esattamente masticato. La letteratura considera seriamente questa opzione - il preinsegnamento nel corso di un'opera teatrale. Come e quando puoi farlo, e quando non puoi - questa è un'altra questione. Ci sono limitazioni ovunque.