L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2623
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
e la risposta non era destinata a te - non sai ancora leggere...
Non c'è nemmeno bisogno di un secondo modello qui, vero? - Validazione incrociata e ricerca a griglia per la selezione del modello ...
ma forse solo la matrice di confusione risponderà alla tua 2° domanda (lo scopo del 2° modello della tua idea)...
.. . o
... Dubito solo che tu abbia bisogno del 2° modello... imho
Ecco solo il miglioramento della matrice di confusione è sostenuto con il secondo modello, se si legge il Prado, per esempio. Ma usa anche esempi di oversampling per il primo modello per aumentare il numero di veri positivi o altro. Già dimenticato, purtroppo.
up-sampling e down-sampling sono per insiemi di dati squilibrati e piccoli insiemi di allenamento - se è questo che intendi - cioè dare pesi più alti alle classi più piccole e viceversa... Sì, probabilmente per aumentarli (tru positivi)...
***
e riguardo a 2 modelli - beh, è probabilmente possibile filtrare 2 volte - prima i segnali per impostare i pesi, poi i trade su di essi secondo questi pesi (lanciati dagli input nella 2a pesatura)... anche se sembra che sia possibile imparare su accordi con il contesto - e mantenere il gradiente per le serie temporali precedenti - buona idea... MA l'implementazione quando si lavora con il contesto è ancora un po' diversa di solito - il compito è quello di usare la codifica "transazione e il suo contesto" e la 2a RNN prende in elaborazione il risultato della 1a per la decodifica in uscita -- ma ha poco a che fare con il lavoro di 2 reti su 2 compiti diversi (ad esempio, contesto e transazioni), poiché in effetti viene elaborato-passato attraverso 2 reti "transazione e contesto" (come una coppia!!!)... - risolve solo il problema della velocità , ma non (o in misura minore) la validità dell'output... imho...
ma se si vuole veramente separare l'elaborazione del contesto e delle transazioni (contesto separatamente, transazioni separatamente) -- finora una tale costruzione mi ricorda un panino (o olio e burro, lubrificando le interrelazioni e le dipendenze dei fenomeni tra loro - in 2 strati)... Non pretendo di interpretare la vostra TechSuite, ma ho espresso le mie preoccupazioni e il mio suggerimento che potrebbe ancora valere la pena di preservare nel processo di modellazione - cioè le Relazioni!..! Vi auguro una bella (riflettente la realtà! non l'olio di burro) Architettura di rete!
p.s. ) come un eterno problema di "pubblicità contestuale" - "la cosa principale è non staccarsi dalla realtà" (solo la loro impostazione delle bilance è a volte storta - non voglio puntare il dito contro chi - o con piccoli campioni ha lavorato nella direzione sbagliata)
up-sampling e down-sampling sono per insiemi di dati squilibrati e piccoli insiemi di allenamento - se è questo che intendi - cioè dare più peso alle classi più piccole... Sì, probabilmente per aumentarli (tru positivi)...
***
e riguardo a 2 modelli - beh, è probabilmente possibile filtrare 2 volte - prima i segnali per impostare i pesi, poi i trade su di essi secondo questi pesi (lanciati dall'input alla 2a pesatura)... anche se sembra che sia possibile imparare su accordi con il contesto - e mantenere il gradiente per le serie temporali precedenti - buona idea... MA l'implementazione quando si lavora con il contesto è ancora un po' diversa di solito - il compito è quello di usare la codifica "transazione e il suo contesto" e la 2a RNN prende in elaborazione il risultato della 1a per la decodifica in uscita -- ma ha poco a che fare con il lavoro di 2 reti su 2 compiti diversi (ad esempio, contesto e transazioni), poiché in effetti viene elaborato-passato attraverso 2 reti "transazione e contesto" (come una coppia!!!)... - risolve solo il problema della velocità , ma non (o in misura minore) la validità dell'output... imho...
ma se si vuole veramente separare il contesto e l'elaborazione delle transazioni (contesto separatamente, transazioni separatamente) -- finora una tale costruzione mi ricorda un panino (o olio e burro, lubrificando le interrelazioni e le dipendenze dei fenomeni l'uno dall'altro - in 2 strati)... Non pretendo di interpretare la vostra TechSuite, ma ho espresso le mie preoccupazioni e il mio suggerimento che potrebbe ancora valere la pena di preservare nel processo di modellazione - cioè le Relazioni!..! Vi auguro una bella (riflettente la realtà! non l'olio di burro) Architettura di rete!
p.s. ) come un eterno problema di "pubblicità contestuale" - "l'importante è non staccarsi dalla realtà" (solo la loro impostazione delle bilance è a volte storta - non indicherò chi - o con piccoli campioni ha lavorato nella direzione sbagliata)
Il concetto di regolarità implica la ripetibilità, questo è importante!
le statistiche sono lineari, in qualsiasi modo le si guardi... le reti neurali sono ponderazione stupida (o intelligente - dipende dallo sviluppatore)... utilizzando 2 o più strati di Dense ns per la ponderazione dà dipendenze non lineari (convenzionalmente parlando, perché la dipendenza è O muto correlazione è ancora una questione molto grande)... ma finché anche una stupida correlazione funziona - si può provare a farci dei soldi... - il momento in cui smette di funzionare deve essere rilevato in tempo (è necessario notare un qualche tipo di anomalia - casuale o sistematica - questa è un'altra questione - e poi, come al solito, decidere sulla vostra questione di rischio/profittabilità)
la convenienza di ns è nella sua flessibilità - si può ottenere/fornire una "nomenclatura" abbastanza diversa all'uscita. È flessibile - si può ottenere/fornire una "nomenclatura" molto diversa dall'input - cioè si possono fare le trasformazioni di cui abbiamo bisogno nella rete stessa... e farlo in modalità multi-threaded (dipende dalla libreria)... non solo statistiche...
Se hai bisogno o meno di statistiche per trovare un input è un'altra questione...
la conoscenza e l'esperienza aiutano più spesso dell'elaborazione statistica - perché la prima si concentra sulle specificità, la seconda sulla riduzione a un denominatore comune...
Ogni cosa ha il suo posto - anche le statistiche...
***
il punto è che per un robot - non c'è altro modo di spiegare (e non vi spiegherà in nessun altro modo), se non tramite probabilità derivate da numeri... - è così che l'ECONOMIA ha funzionato per secoli - con numeri 0 e 1... quindi dobbiamo digitalizzare gli input per ottenere probabilità di output e impostare condizioni di intervalli di fiducia (di cui ci fidiamo, non necessariamente statistiche)... e possiamo fidarci di qualsiasi cosa (è soggettivo) - o della logica binaria o anche del risultato ponderato di questa logica binaria (aka % di probabilità da tutta la gamma di soluzioni potenziali)... -- È solo una questione di gusti e abitudini, non un argomento per una discussione sulla ricerca del Graal...
(ed entrare in una foresta o entrare in una rete neurale è già un dettaglio)
nessuno ha vietato l'uso congiunto di alberi/foreste e reti neurali all'interno dello stesso progetto... - la domanda è Dove applicare cosa e quando (la velocità e la memoria sono importanti), non quale sia meglio... - meglio non perdere tempo - equivalente a "il tempo a parte una transazione è tempo perso, così come una transazione a parte il tempo è una transazione sconosciuta".
Nessun modello può ottenere più delle probabilità (che è un vantaggio e uno svantaggio di qualsiasi digitalizzazione), anche se queste probabilità non sono ponderate... Non mi avveleno con i panini e non lo consiglio a nessuno - nessuno ha annullato Bayes (anche se non lo metti nel codice, e soprattutto - se lo metti nel codice)...
p.s. E tu devi essere un fan di McDonalds... - Ipotesi, non ho intenzione di testarla...
L'algoritmica è più cara delle tue conclusioni
Nessun modello può ottenere più delle probabilità (che è un vantaggio e uno svantaggio di qualsiasi digitalizzazione), anche se queste probabilità non sono ponderate... Non mi avveleno con i panini e non lo consiglio a nessuno - nessuno ha annullato Bayes (anche se non lo metti nel codice, e soprattutto - se lo metti nel codice)...
p.s. E tu devi essere un fan di McDonalds... - Ipotesi, non ho intenzione di testarla...
L'algoritmica è più cara delle vostre conclusioni.