L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2591

 
Maxim Dmitrievsky #:
Sì, di conseguenza è possibile testarlo e ottimizzarlo come un normale bot in MT5, per cercare parametri esterni. Viene testato rapidamente sulle barre, ma ci può essere lentezza sulle zecche perché gli alberi vengono valutati a lungo da soli.

Bene, dopo aver aggiunto ML uno non vuole ottimizzare ulteriormente nulla. Il vento dell'overfitting soffia da quella parte). Anche se se le velocità sono normali, si può almeno provare con certezza. In generale, sì, a causa di non la migliore integrazione-velocità ho pagato poca attenzione al commerciante add-on sopra ML, se così integrato e in tester condizionatamente-nativo è possibile testare e velocità normale, certamente apre ulteriori orizzonti di possibilità.


E in generale, una migliore velocità (rispetto alla mia soluzione, penso che ci sarà una normale differenza di velocità) è sempre buona - sia quando ci sono molti robot sia quando i tempi sono piccoli e la velocità è più critica.

 
Aleksey Nikolayev #:

Nello spazio dei parametri del modello? Ha un'enorme dimensionalità. Questo è possibile solo per modelli molto semplici con un piccolo numero di predittori.

Non è molto chiaro come sia possibile costruire una superficie nello spazio di enorme dimensionalità. Abbiamo semplicemente pochi punti in confronto a questa dimensionalità. A meno che da qualche visualizzazione di downscaling dimensionale come PCA, ecc, ma il punto non è chiaro.

È tutto mescolato in un mucchio.

Di quali parametri del modello stiamo discutendo?

Se il modello è qualcosa di MO, è una cosa, se il modello è un EA in un tester, è un'altra.

I modelli ottimizzati nel tester di solito non riguardano nulla. Per esempio, prendiamo un demolitore e cominciamo a scegliere un periodo e otteniamo una serie di risultati. Se ci sono molti di questi "maghi" con i propri parametri, non si ottengono superfici lisce come risultato, si scelgono picchi casuali che possono coincidere in futuro. Perché? Per me la risposta è ovvia: i parametri di queste "salviette" NON sono rilevanti per le prestazioni del modello, è solo rumore.


Un'altra cosa è se i parametri del modello in MO sono un insieme di predittori, allora il problema può essere posto in modo significativo: il predittatore/nessun predittatore si riferisce al RISULTATO della simulazione o no. Se lo fa, cosa ha a che fare con il RISULTATO della modellazione? La situazione è simile quando scegliamo i modelli: RF, neuronc o qualcos'altro .....

 
SanSanych Fomenko #:

È tutto mescolato in un mucchio.

Di quali parametri del modello stiamo discutendo?

Se il modello è qualcosa di MO, è una cosa, se il modello è un EA nel tester, è un'altra.

I modelli ottimizzati nel tester di solito non sono nulla. Per esempio, prendiamo un demolitore e cominciamo a scegliere un periodo e otteniamo una serie di risultati. Se ci sono molti di questi "maghi" con i propri parametri, non si ottengono superfici lisce come risultato, si scelgono picchi casuali che possono coincidere in futuro. Perché? Per me la risposta è ovvia: i parametri di queste "salviette" NON sono rilevanti per le prestazioni del modello, è solo rumore.


Un'altra cosa è se i parametri del modello in MO sono un insieme di predittori, allora il problema può essere posto in modo significativo: il predittatore/nessun predittatore si riferisce al RISULTATO della simulazione o no. Se lo fa, che cos'è. La situazione è simile se scegliamo i modelli: RF, neuronica o qualcos'altro .....

In effetti, tutto torna. I parametri sono parametri, i predittori sono predittori. Nel tuo esempio con le dummies: i parametri sono i loro periodi e i predittori sono i valori di queste dummies. Per una o due palle non è difficile costruire la superficie richiesta, ma per centinaia di palle il significato è già perso completamente a causa della crescente dimensionalità degli spazi dei predittori e dei parametri.

Non vedo una differenza fondamentale tra i modelli nel tester e nei pacchetti MO - la differenza è solo tecnica (capacità del software utilizzato).

 
Aleksey Nikolayev #:

In effetti, è tutto un gran casino. I parametri sono parametri, i predittori sono predittori. Nel tuo esempio delle dummies: i parametri sono i loro periodi, e i predittori sono i valori di queste dummies. Per una o due palle non è difficile costruire la superficie richiesta, ma per centinaia di palle il senso è già perso completamente a causa della crescente dimensionalità degli spazi dei predittori e dei parametri.

Non vedo una differenza fondamentale tra i modelli nel tester e nei pacchetti MO - la differenza è solo tecnica (capacità del software utilizzato).

Non mi piace interferire, ma solo un'osservazione sulle centinaia o altre MA ...c'è un limite al loro numero ragionevole e non è più di 1.386*ln(N) (dove N è l'intera storia osservata)

 
L'analisi delle superfici di ottimizzazione è anche un'arma a doppio taglio. Raggiungere un plateau non garantisce nulla, anche se dà un incoraggiamento temporaneo fino al momento in cui ci si rende conto che è ora di andare in fabbrica. Inoltre, gli algoritmi di ottimizzazione/apprendimento sono sintonizzati in una certa misura per rompere gli estremi locali, cioè sono sintonizzati per cercare gli estremi globali.
 
Maxim Dmitrievsky #:
L'analisi delle superfici di ottimizzazione è anche un'arma a doppio taglio. E raggiungere un plateau non garantisce nulla, anche se dà un incoraggiamento temporaneo fino al momento di rendersi conto che è ora di andare in fabbrica.
La critica di Dio
 
mytarmailS #:
Critica divina
Provato :)
 
Maxim Dmitrievsky #:
Provando :)
Vorrei capire la differenza tra un "plateau" e un minimo globale
 
mytarmailS #:
Vorrei capire la differenza tra un 'plateau' e un minimo globale
Dipende da quello che stai cercando. Significa un altopiano sul globale, come un ideale e un sogno
 
Nessuno sta sostenendo che la robustezza sia una buona cosa. Il problema è che non ci sono modi semplici e assoluti per raggiungerlo.