L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2623

 
JeeyCi #:

e la risposta non era destinata a te - non sai ancora leggere...

Se consigliate un articolo che contiene sciocchezze, lo trangugiate (il che dimostra la vostra competenza), consigliate agli altri di trangugiarlo anche loro...

Domanda: se questa risposta non era rivolta a me, non è più delirante? La domanda non è retorica.
 
JeeyCi #:

Non c'è nemmeno bisogno di un secondo modello qui, vero? - Validazione incrociata e ricerca a griglia per la selezione del modello ...

ma forse solo la matrice di confusione risponderà alla tua 2° domanda (lo scopo del 2° modello della tua idea)...

.. . o

... Dubito solo che tu abbia bisogno del 2° modello... imho

Questo è esattamente il miglioramento della matrice di confusione che si sostiene quando si usa il secondo modello, se si legge Prado per esempio. Ma utilizza anche un sovracampionamento di esempi per il primo modello per aumentare il numero di "veri positivi" o qualcos'altro. L'ho già dimenticato, purtroppo.
Usando un modello, si può migliorare una cosa a spese di un'altra, e con 2 modelli si può migliorare tutto, presumibilmente. Cerca una Matrice di Confusione Prado o una Meta Leibeling Prado. Sono al telefono.
E la valutazione incrociata mostrerà "bene" dopo tali manipolazioni, si può solo guardare i nuovi dati per il saldo azionario di TC e vedere tutto in una volta)
 
Maxim Dmitrievsky #:
Ecco solo il miglioramento della matrice di confusione è sostenuto con il secondo modello, se si legge il Prado, per esempio. Ma usa anche esempi di oversampling per il primo modello per aumentare il numero di veri positivi o altro. Già dimenticato, purtroppo.
Usando un modello, si può migliorare una cosa a spese di un'altra, e con 2 modelli, si può migliorare tutto, presumibilmente. Cerca Confusion Matrix Prado o Meta Leibeling Prado. Sono al telefono.

up-sampling e down-sampling sono per insiemi di dati squilibrati e piccoli insiemi di allenamento - se è questo che intendi - cioè dare pesi più alti alle classi più piccole e viceversa... Sì, probabilmente per aumentarli (tru positivi)...

***

e riguardo a 2 modelli - beh, è probabilmente possibile filtrare 2 volte - prima i segnali per impostare i pesi, poi i trade su di essi secondo questi pesi (lanciati dagli input nella 2a pesatura)... anche se sembra che sia possibile imparare su accordi con il contesto - e mantenere il gradiente per le serie temporali precedenti - buona idea... MA l'implementazione quando si lavora con il contesto è ancora un po' diversa di solito - il compito è quello di usare la codifica "transazione e il suo contesto" e la 2a RNN prende in elaborazione il risultato della 1a per la decodifica in uscita -- ma ha poco a che fare con il lavoro di 2 reti su 2 compiti diversi (ad esempio, contesto e transazioni), poiché in effetti viene elaborato-passato attraverso 2 reti "transazione e contesto" (come una coppia!!!)... - risolve solo il problema della velocità , ma non (o in misura minore) la validità dell'output... imho...

ma se si vuole veramente separare l'elaborazione del contesto e delle transazioni (contesto separatamente, transazioni separatamente) -- finora una tale costruzione mi ricorda un panino (o olio e burro, lubrificando le interrelazioni e le dipendenze dei fenomeni tra loro - in 2 strati)... Non pretendo di interpretare la vostra TechSuite, ma ho espresso le mie preoccupazioni e il mio suggerimento che potrebbe ancora valere la pena di preservare nel processo di modellazione - cioè le Relazioni!..! Vi auguro una bella (riflettente la realtà! non l'olio di burro) Architettura di rete!

p.s. ) come un eterno problema di "pubblicità contestuale" - "la cosa principale è non staccarsi dalla realtà" (solo la loro impostazione delle bilance è a volte storta - non voglio puntare il dito contro chi - o con piccoli campioni ha lavorato nella direzione sbagliata)

 
JeeyCi #:

up-sampling e down-sampling sono per insiemi di dati squilibrati e piccoli insiemi di allenamento - se è questo che intendi - cioè dare più peso alle classi più piccole... Sì, probabilmente per aumentarli (tru positivi)...

***

e riguardo a 2 modelli - beh, è probabilmente possibile filtrare 2 volte - prima i segnali per impostare i pesi, poi i trade su di essi secondo questi pesi (lanciati dall'input alla 2a pesatura)... anche se sembra che sia possibile imparare su accordi con il contesto - e mantenere il gradiente per le serie temporali precedenti - buona idea... MA l'implementazione quando si lavora con il contesto è ancora un po' diversa di solito - il compito è quello di usare la codifica "transazione e il suo contesto" e la 2a RNN prende in elaborazione il risultato della 1a per la decodifica in uscita -- ma ha poco a che fare con il lavoro di 2 reti su 2 compiti diversi (ad esempio, contesto e transazioni), poiché in effetti viene elaborato-passato attraverso 2 reti "transazione e contesto" (come una coppia!!!)... - risolve solo il problema della velocità , ma non (o in misura minore) la validità dell'output... imho...

ma se si vuole veramente separare il contesto e l'elaborazione delle transazioni (contesto separatamente, transazioni separatamente) -- finora una tale costruzione mi ricorda un panino (o olio e burro, lubrificando le interrelazioni e le dipendenze dei fenomeni l'uno dall'altro - in 2 strati)... Non pretendo di interpretare la vostra TechSuite, ma ho espresso le mie preoccupazioni e il mio suggerimento che potrebbe ancora valere la pena di preservare nel processo di modellazione - cioè le Relazioni!..! Vi auguro una bella (riflettente la realtà! non l'olio di burro) Architettura di rete!

p.s. ) come un eterno problema di "pubblicità contestuale" - "l'importante è non staccarsi dalla realtà" (solo la loro impostazione delle bilance è a volte storta - non indicherò chi - o con piccoli campioni ha lavorato nella direzione sbagliata)

Il concetto di contesto non è forse molto utile nel caso delle serie temporali. Non c'è una divisione chiara, entrambi i modelli sono coinvolti nella previsione. Uno è la direzione, l'altro è il tempo. Direi che sono equivalenti. La domanda è come possiamo ottimizzare la ricerca delle migliori situazioni di trading basandoci sull'analisi degli errori dei modelli, e se è possibile. Posso riqualificare uno o l'altro in modo sequenziale. Dopo ogni coppia di riqualificazione il risultato deve migliorare sui nuovi dati. Significa che deve essere in grado di estrarre un modello da un campione di allenamento e migliorare gradualmente su nuovi dati che non ha visto. Un compito non banale.

Ho fatto buttare gli esempi che sono mal previsti dal primo modello nella classe "non scambiare" del secondo modello. Ha buttato il campione di hooping per il primo modello. L'errore del primo è sceso di conseguenza quasi a zero. Anche il secondo ne ha uno piccolo. Ma questo non significa che sarà buono sui nuovi dati.

È una specie di problema combinatorio: trovare il giusto acquisto e vendita al momento giusto.

Forse è impossibile trovare la soluzione qui
 
Maxim Dmitrievsky #:
Il concetto di regolarità implica la ripetibilità, questo è importante!

Se un cluster può predire qualcosa con il 90% di probabilità e si ripete almeno 200 volte, possiamo supporre che sia un modello.
Oppure non è un cluster, è un registro.

Quando si ha a che fare con un modello complesso (complesso dalla parola "complesso") si perde la capacità di fissare la ripetibilità dei modelli interni, in altre parole si perde la capacità di distinguere i modelli dal fitting...

Capendo questo, si può immediatamente capire che le reti neurali vanno nel cestino, ma i modelli di legno possono essere decomposti in regole, e nelle regole si possono già contare le statistiche
 
mytarmailS #:
Il concetto di regolarità implica la ripetibilità, questo è importante!

Se un cluster può prevedere qualcosa con il 90% di probabilità e si ripete almeno 200 volte, possiamo supporre che sia un modello.
Oppure non è un cluster, è un registro.

Quando si ha a che fare con un modello complesso (complesso dalla parola "complesso") si perde la capacità di fissare la ripetibilità dei modelli interni, in altre parole si perde la capacità di distinguere i modelli dal fitting...

Capendo questo, si può immediatamente capire che le reti neurali vanno nel cestino, ma i modelli di legno possono essere decomposti in regole, e le regole possono già contare statistiche
Ma un sacco di funzioni possono essere stipate in ns se non ci sono dipendenze semplici, anche se senza possibilità di analisi. Altrimenti butteremo via tutto l'apprendimento automatico e torneremo ai semplici modi di scrivere TS :) Allora possiamo semplicemente scrivere semplici algoritmi, guardare come (non) funzionano nel tester, aggiustare, guardare di nuovo, ecc.
 

le statistiche sono lineari, in qualsiasi modo le si guardi... le reti neurali sono ponderazione stupida (o intelligente - dipende dallo sviluppatore)... utilizzando 2 o più strati di Dense ns per la ponderazione dà dipendenze non lineari (convenzionalmente parlando, perché la dipendenza è O muto correlazione è ancora una questione molto grande)... ma finché anche una stupida correlazione funziona - si può provare a farci dei soldi... - il momento in cui smette di funzionare deve essere rilevato in tempo (è necessario notare un qualche tipo di anomalia - casuale o sistematica - questa è un'altra questione - e poi, come al solito, decidere sulla vostra questione di rischio/profittabilità)

la convenienza di ns è nella sua flessibilità - si può ottenere/fornire una "nomenclatura" abbastanza diversa all'uscita. È flessibile - si può ottenere/fornire una "nomenclatura" molto diversa dall'input - cioè si possono fare le trasformazioni di cui abbiamo bisogno nella rete stessa... e farlo in modalità multi-threaded (dipende dalla libreria)... non solo statistiche...

Se hai bisogno o meno di statistiche per trovare un input è un'altra questione...

la conoscenza e l'esperienza aiutano più spesso dell'elaborazione statistica - perché la prima si concentra sulle specificità, la seconda sulla riduzione a un denominatore comune...

Ogni cosa ha il suo posto - anche le statistiche...

***

il punto è che per un robot - non c'è altro modo di spiegare (e non vi spiegherà in nessun altro modo), se non tramite probabilità derivate da numeri... - è così che l'ECONOMIA ha funzionato per secoli - con numeri 0 e 1... quindi dobbiamo digitalizzare gli input per ottenere probabilità di output e impostare condizioni di intervalli di fiducia (di cui ci fidiamo, non necessariamente statistiche)... e possiamo fidarci di qualsiasi cosa (è soggettivo) - o della logica binaria o anche del risultato ponderato di questa logica binaria (aka % di probabilità da tutta la gamma di soluzioni potenziali)... -- È solo una questione di gusti e abitudini, non un argomento per una discussione sulla ricerca del Graal...

(ed entrare in una foresta o entrare in una rete neurale è già un dettaglio)

nessuno ha vietato l'uso congiunto di alberi/foreste e reti neurali all'interno dello stesso progetto... - la domanda è Dove applicare cosa e quando (la velocità e la memoria sono importanti), non quale sia meglio... - meglio non perdere tempo - equivalente a "il tempo a parte una transazione è tempo perso, così come una transazione a parte il tempo è una transazione sconosciuta".

 
Uno sproloquio così lungo e una conclusione così debole :) Anche se si astrae dal tempo, un modello (regolarizzato, non montato) non può insegnare un buon rapporto tra operazioni redditizie e non redditizie, o l'esclusione di quelle non redditizie. Non è possibile sbarazzarsi dell'errore di classificazione, che viene percepito come un deterioramento artificiale dei risultati di trading TS anche su un campione trailing.
 

Nessun modello può ottenere più delle probabilità (che è un vantaggio e uno svantaggio di qualsiasi digitalizzazione), anche se queste probabilità non sono ponderate... Non mi avveleno con i panini e non lo consiglio a nessuno - nessuno ha annullato Bayes (anche se non lo metti nel codice, e soprattutto - se lo metti nel codice)...

p.s. E tu devi essere un fan di McDonalds... - Ipotesi, non ho intenzione di testarla...

L'algoritmica è più cara delle tue conclusioni

 
JeeyCi #:

Nessun modello può ottenere più delle probabilità (che è un vantaggio e uno svantaggio di qualsiasi digitalizzazione), anche se queste probabilità non sono ponderate... Non mi avveleno con i panini e non lo consiglio a nessuno - nessuno ha annullato Bayes (anche se non lo metti nel codice, e soprattutto - se lo metti nel codice)...

p.s. E tu devi essere un fan di McDonalds... - Ipotesi, non ho intenzione di testarla...

L'algoritmica è più cara delle vostre conclusioni.

I panini sono molto usati, qualsiasi rete profonda. Ci sono diversi trucchi per diversi compiti. Ma se si pensa in modo ristretto, qualsiasi fotocopiatrice è una fotocopiatrice e qualsiasi hamburger un McDonald's
Si può diventare ostaggio dei propri stereotipi senza mai provare nulla. E gli stereotipi non vengono dalla stratificazione 😀
Nella mia risposta, implicitamente, ho usato un secondo modello chiarificatore che ha individuato dalla conoscenza generalizzata quella specifica, più adatta alla situazione