L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 89

 
Vizard_:
Il controllo scorrevole è per i fan))))) e il fatto che solo in questo caso il modello sia adatto è una falsità.
Ma sono tutte sciocchezze, ognuno ha le sue stranezze-necessità in diverse fasi, si può aggiungere anche questo.
Intendevo l'output % sia per il generale che per il test (test = OOS - applicazione della formula ai nuovi dati)
Un vantaggio delle applicazioni a finestra, nella loro rapida usabilità. È possibile fare una shell normale,
Reshetov è un codificatore esperto, quindi deve essere fatto in modo normale. Questo è tutto. Tutto imho, naturalmente.
Non proverò il software di Yuri non perché penso che faccia schifo. Anche se è un programmatore esperto. È solo che tutto è già implementato, anche si scopre che c'è una camminata in avanti nel pacchetto che uso. E ci sono 150-200 modelli per campione, da SVM, al modello lineare con regolarizzazione, a XGBOOST.
 
Alexey Burnakov:


Se la selezione di un buon modello in un campione dà buoni risultati al di fuori del campione, significa che il modello è adatto al problema scelto.

Ancora una volta, per coloro che sono particolarmente dotati: se un modello passa la selezione, non significa che sia potenzialmente adatto al problema scelto, specialmente in ambienti non stazionari. Significa solo che in qualche modo ha superato la selezione.

Se una candidata ha superato la selezione attraverso gli esami di ammissione all'università, non significa che difenderà il suo diploma, tanto meno che in seguito lavorerà nel campo che ha scelto.

La selezione riduce solo la probabilità di inidoneità, ma non sempre a zero. E non dobbiamo dimenticare che i risultati della selezione possono anche essere falsi positivi e falsi negativi. Cioè, c'è una probabilità non nulla che il processo di selezione abbia anche gettato "il bambino con l'acqua sporca".

 
Yury Reshetov:

Ancora una volta, per i particolarmente dotati: se un modello passa la selezione, non significa che sia potenzialmente adatto al problema scelto, specialmente in ambienti non stazionari. Significa solo che in qualche modo ha superato la selezione.

Se una candidata viene selezionata attraverso gli esami di ammissione all'università, non significa che difenderà il suo diploma, tanto meno che lavorerà successivamente nella specialità scelta.

La selezione riduce solo la probabilità di inidoneità, ma non sempre a zero. E non dobbiamo dimenticare che i risultati della selezione possono essere anche falsi positivi e falsi negativi. Cioè, c'è una probabilità non nulla che il processo di selezione abbia anche gettato "il bambino con l'acqua sporca".

Lasciatemi spiegare di nuovo per i molto sofisticati.

Tutti i risultati sono ovviamente probabilistici!

Ci sono risultati del modello nell'addestramento, ci sono risultati nella convalida incrociata o nei test (per raccogliere i parametri del modello e fare un arresto iniziale dell'apprendimento). Ci sono anche i risultati del modello fuori campione - stima finale.

Se i risultati sui test si correlano bene con i risultati fuori campione, significa che la qualità della modellazione della dipendenza ha un'inerzia per il periodo fuori campione. In questo caso, si può prendere il miglior modello nei test (non "fuori campione"). Successivamente, si può riaddestrare il modello su tutti i nuovi dati con parametri noti e prendere il modello migliore, poiché la relazione con i risultati futuri è virtualmente stabilita.

Se i risultati sul test sono scarsamente correlati con i risultati fuori campione, prendere il modello migliore sul training non ha senso. Prendere il miglior modello "fuori campione" è un fit. C'è solo una via d'uscita: rifiutare il metodo di creazione del modello o cambiare significativamente le gamme dei parametri.

 
E io, per esempio, uso l'apprendimento profondo per aumentare la capacità di generalizzazione dell'ottimizzatore di Reshetov, e con la nuova possibilità di valutare la qualità del predicato, è una bellezza. Con il deep learning dal 50% di generalizzazione può essere portato all'80-90% e in questo caso il modello inizia a lavorare a hurrah.... Quindi, prendetelo da qui, ragazzi. E non c'è bisogno di litigare (c) Leopold e tutto il resto......
 
.

"Si potrebbe suggerire loro di creare un filo per una settimana, per esempio - una settimana in cui la gente possa esprimersi - e poi lasciarli sfogare".

Non so quale hobgoblin abbia inserito la citazione di cui sopra nel mio post, ma non è il mio post.

Se ai moderatori non piace qualcosa nei miei post, è un loro diritto. Basta non incollare il testo di qualcun altro nei miei post, e agire più culturalmente: dire cosa esattamente non gli è piaciuto e a proprio nome. E io, per non irritare i moderatori, vado via da questo sito al mio: il link è nel mio profilo.

Ciao a tutti!

 
Yury Reshetov:
.

"Si potrebbe suggerire loro di creare un filo per una settimana, per esempio - una settimana in cui la gente possa esprimersi - e poi lasciarli sfogare".

Non so quale hobgoblin abbia inserito la citazione di cui sopra nel mio post, ma non è il mio post.

Se ai moderatori non piace qualcosa nei miei post, è un loro diritto. Basta non incollare il testo di qualcun altro nei miei post, e agire più culturalmente: dire cosa esattamente non gli è piaciuto e a proprio nome. E io, per non irritare i moderatori, vado via da questo sito al mio: il link è nel mio profilo.

Ciao a tutti!

WOW!!! E io pensavo che fossi tu a scrivere ... Mossa intelligente... Proprio così...
 
Yury Reshetov:
.

"Si potrebbe suggerire loro di creare un filo per una settimana, per esempio - una settimana in cui la gente possa esprimersi - e poi lasciarli sfogare".

Non so quale hobgoblin abbia inserito la citazione di cui sopra nel mio post, ma non è il mio post.

Se ai moderatori non piace qualcosa nei miei post, è un loro diritto. Basta non incollare il testo di qualcun altro nei miei post, e agire più culturalmente: dire cosa esattamente non gli è piaciuto e a proprio nome. E io, per non irritare i moderatori, vado via da questo sito al mio: il link è nel mio profilo.

Ciao a tutti!

Sentitevi liberi di tornare.
 
Vizard_:

Darò un'occhiata più tardi per interesse, anche se credo di aver fatto un po' di spazzatura))))
Sì, +R è che probabilmente ha già implementato tutto il possibile. ML per molto tempo non uso, ma solo modelli senza riqualificare. Una delle ultime cose che ho fatto con ML è stata proprio
riempire il modello di eventi in modo che colpiscano sempre il bersaglio. Combinandoli, di solito si ottiene il 93-96%. Il resto, si allena. In altre parole.
Se avete insegnato a vostro figlio a camminare un po', non dovete dirgli la stessa cosa ogni giorno, ma solo dirgli quando saltare la pozzanghera.
(nessuna previsione nell'obiettivo).Un po' di gocciolamento, l'obiettivo non è certo il colore della candela)))
Non ho idea di come farlo, ma non sono sicuro di come farlo.
 
Vizard_:

Un po' gocciolante, l'obiettivo non è ovviamente il colore della candela)))
Non c'è bisogno di dirlo)
 
Nested cross validation for model selection
Nested cross validation for model selection
  • stats.stackexchange.com
How can one use nested cross validation for model selection? From what I read online, nested CV works as follows: There is the inner CV loop, where we may conduct a grid search (e.g. running K-fold for every available model, e.g. combination of hyperparameters/features) There is the outer CV loop, where we measure the performance of the model...