L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 519
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Allora, cosa c'è? Qualsiasi aiutante?????
Che argomento???? Amico... chi sei?
Perché forse sei nuovo qui e non mi conosci. Anch'io sono un tipo da AI, ..... Cosa stai... Lei è di queste parti. :-)
Anche se sono gentile in linea di principio e tutto quello che fate qui funziona SOLO quando i dati sono la ragione del prezzo. Allora qualsiasi TS funzionerà bene, anche 1 barra avanti o 15 barre avanti rispetto alla previsione (15 è peggio di 1, ovviamente, ma non è questo il punto). Non è il punto... Il punto... Indice RTS che ha OI. Come il significato di volume.... E il problema è RISOLTO. QUALSIASI cosa, che sia una previsione o una classificazione.
E cosa volevi dire con la tua frase, caro.....
:D
Ora voglio dirti di andare a farti fottere. Mio caro amico. Grazie.
Esattamente, non hai detto niente né la volta scorsa né questa volta, come se stessi scoreggiando nel vuoto...... Non abbiamo bisogno di persone come te che ci parlano. Scusa....
Paradossalmente, la classificazione è la stessa cosa della regressione.
Solo per la regressione l'output è un reale, mentre per la classificazione è una probabilità.
Gli obiettivi di regressione sono curve continue, mentre gli obiettivi di classificazione sono impulsi (0, 1) o (-1,+1).
Questo output viene poi tradotto nella classe appropriata (ifelse(y > 0,5, 1, 0).
2) Cosa succede se ho 3 classi -1,0,1 (comprare, vendere, aspettare). È attraverso 0,5 (k=0; se(y<-0,5)k=-1; se(y>0,5)k=1; il punto medio tra le classi, ma la probabilità della classe 0 sarà il doppio di 1 o -1) o attraverso 0,33 (k=0; se(y<-0,33)k=-1; se(y>0,33)k=1; così tutte le classi sono ugualmente probabili)?
Una buona classificazione si fa così. Un'uscita separata è assegnata ad ogni classe. Viene utilizzata una funzione di perdita di apprendimento a entropia incrociata. Una sola classe può essere assegnata a una classe durante la formazione. È necessario prevedere la classe di assenza di segnale. Per esempio, comprare, vendere, non fare nulla. Queste sono classi separate. Alimentare tutti i valori a un'uscita è inefficiente perché un neurone potrebbe non imparare a dividere, diciamo, 10 classi.
Le derivate mostrano la direzione della tendenza. Le derivate di 2 MA e la differenza tra di esse descrivono completamente lo stato del sistema (l'hai chiesto tu stesso).
Tuttavia, dipende dai vostri gusti).
le derivate di 2 maschere e la loro differenza dipendono solo da 4 barre, non possono descrivere bene lo stato del sistema in nessun modo
1) Il trasferimento a una classe avviene sempre attraverso il centro della gamma?
2) E se 3 classi -1,0,1 (vendere, aspettare, comprare). Trasferimento attraverso 0,5 (k=0;se(y<-0,5)k=-1; se(y>0,5)k=1;mezzo tra le classi, ma la probabilità della classe 0 sarà il doppio di 1 o -1) o attraverso 0,33 (k=0;se(y<-0,33)k=-1; se(y>0,33)k=1;così tutte le classi hanno probabilità uguali)
In R, di solito è possibile avere variazioni nei risultati per la classificazione:
Si imposta la modalità "probabilità di classe" e si calcola la classe in modo indipendente, ad esempio a metà o 30/70. Oppure si può fare così: meno del 30% una classe e più del 70% un'altra classe, e il divario tra loro come NA.
1) Il trasferimento a una classe avviene sempre attraverso il centro della gamma?
2) E se 3 classi -1,0,1 (vendere, aspettare, comprare). Trasferimento attraverso 0,5 (k=0;se(y<-0,5)k=-1; se(y>0,5)k=1;mezzo tra le classi, ma la probabilità della classe 0 sarà il doppio di 1 o -1) o attraverso 0,33 (k=0;se(y<-0,33)k=-1; se(y>0,33)k=1;così tutte le classi hanno uguale probabilità)?
Parliamo di due classi. L'output del classificatore continuo può essere tradotto in etichette di classe usando una soglia:
Sono possibili due risultati:
Tipicamente, i classificatori hanno una variabile numerica continua (livello di supporto) come output. I gradi di supporto per un dato input X possono essere interpretati in diversi modi, i due più comuni sono la validità delle etichette suggerite e la stima delle possibili probabilità per le classi. Le probabilità di classe sono mal prodotte dai modelli, quindi di solito hanno bisogno di essere calibrate. Vedere calibrate::CORElearn. Le uscite dopo le funzioni di attivazione softmax sono più vicine alle probabilità di classe.
Buona fortuna