L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3360
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Non sto facendo alcuna campagna. Ci sono molti approcci, la domanda riguardava la conoscenza del MO.
Personalmente non associo la risposta del modello alla probabilità di abbandono di una classe, ma la considero come la fiducia del modello nella definizione della classe. La fiducia è contata dalle foglie, e le foglie sono contate dal campione di addestramento. Qui una singola foglia mostrerà la probabilità di abbandono della classe. Poiché ogni foglia non ha risposte in tutti i punti del campione, si scopre che la somma delle probabilità è distorta nella risposta finale del modello. Forse esiste un modo per correggere a questo livello - e mi interessa - e ho cercato di orientare la discussione in questa direzione.
A mio parere, la soluzione consiste nel raggruppare le foglie in base a punti di risposta simili e nell'ulteriore trasformazione dei risultati medi di sintesi dei gruppi....
Personalmente non ho associato la risposta del modello alla probabilità di abbandono della classe, ma l'ho considerata come la fiducia del modello nel rilevamento della classe. La fiducia si basa sulle foglie e le foglie si basano sul campione di allenamento. Qui una singola foglia mostrerà la probabilità di abbandono della classe. Poiché ogni foglia non ha risposte in tutti i punti del campione, si scopre che la somma delle probabilità è distorta nella risposta finale del modello. Forse c'è un modo per correggere a questo livello - e mi interessa - è questa la direzione in cui stavo cercando di portare la discussione.
A mio parere, la soluzione consiste nel raggruppare le foglie in base a punti di risposta simili e nell'ulteriore trasformazione dei risultati medi di riepilogo dei gruppi....
Scusate, ma senza riferimenti a biblioteche, quaderni o articoli, continuo a considerarlo approssimativamente come segue
Mi spiace, ma senza link a biblioteche, quaderni o articoli, continuo a considerarlo più o meno così
Eh, tutto ciò che serve sono i pacchetti...
Vorrei che aveste delle borse.
Dopo aver calibrato qualsiasi classificatore con il metodo CV, è possibile vedere immediatamente il potenziale di questo modello. Se non è in grado di fare nulla, dopo questa procedura le probabilità si raggruppano intorno a 0,5. Anche se prima era troppo sicuro di sé. Non è di alcun interesse armeggiare ulteriormente con un modello di questo tipo. Non può essere migliorato. Cioè, non può nemmeno essere calibrato normalmente, non ci sono pesci. È abbastanza comodo.
Non c'è un "taglio quantico", nelle vostre parole, un intervallo o un intervallo in cui si possa ottenere un probabile profitto.
Ok, infine, per chiudere l'argomento. Sono riuscito ad esportare la calibrazione sigmoide in metac.
Dato: gradient bousting riqualificato, poi calibrato a questo stato:
A soglia 0.5 tutto è evidente, si vede dove è l'OOS:
Eseguo la soglia e interrompo l'ottimizzazione:
Ottengo ogni sorta di variazione, la migliore alle soglie 0,75-0,85. Anche un po' di dati nuovi sono un po' fuori, anche se con una soglia di 0,5 non ci sono varianti normali.
Un giocattolo piuttosto divertente.
Dopo aver calibrato qualsiasi classificatore con il metodo CV, è possibile vedere immediatamente il potenziale di quel modello. Se non è in grado di fare nulla, le probabilità si aggirano intorno allo 0,5 dopo questa procedura. Anche se prima era troppo sicuro di sé. Non è di alcun interesse armeggiare ulteriormente con un modello di questo tipo. Non può essere migliorato. Cioè, non può nemmeno essere calibrato normalmente, non ci sono pesci. È molto comodo.
Non c'è un solo "taglio quantico", per dirla con le vostre parole, non c'è un solo intervallo o un solo intervallo in cui possa dare un probabile profitto.
Se permette di automatizzare lo screening dei modelli, è già una buona cosa.
Ho una visualizzazione del modello in base al suo indice di probabilità-confidenza con un passo di 0,05 e posso vedere tutto in una volta. L'aspetto principale è la trasformazione del risultato sul campione di addestramento e su altri - lì le probabilità sono striscianti, ecco perché parlo di non rappresentatività. Ecco perché vedo la calibrazione come una misura inefficace nel nostro caso. Se non c'è una forte distorsione da campione a campione nei vostri modelli, è piuttosto sorprendente.
Inoltre, noterò che un modello poco addestrato produrrà probabilità in un intervallo ristretto.
Un modello normalmente addestrato si troverà spesso proprio nelle zone di forte confidenza; ecco perché ha senso impostare non una soglia di classificazione, ma una finestra: ad esempio, da 0,55 a 0,65 si considera la classe restituita come un'unità e si ignora il resto. Alle estremità il modello è fiducioso, ma spesso le osservazioni sono molto poche, quindi la significatività statistica è piccola.
Signori del Ministero della Difesa!
Ne vale la pena?
Riprendereil mio algoritmo - Discussione generale - MQL5
Finché è ancora in condizioni immacolate, approfittatene. Nessuno capisce quello che dici.
Forza)))))) Buon anno))))
La verità è immutata))))
Sì, bene)))))) Buon anno))))
La verità è immutata)))))