L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1704
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Un errore non è solo un errore. Un piccolo errore può avere un grande impatto.
E a NS non viene chiesto di catturare dati ripetitivi. Gli si chiede di identificare i modelli nascosti per ottenere il giusto risultato in assenza di dati ripetitivi. Capire la generalizzazione. Quando abbiamo un dominio finito di dati, ma abbiamo solo il 50% di quei dati. La rete impara e identificando un modello può costruire il resto dei dati che non ha visto. È come ricostruire vecchi filmati con pixel mancanti che la rete ricostruisce da sola.
Beh, questo è un approccio statistico! Per esempio, ho 20 immagini di diversi triangoli. Al 21°, al triangolo manca l'ipotenusa. Posso facilmente determinare che si tratta di un triangolo non disegnato in base alle statistiche raccolte - ogni foto ha un triangolo al suo interno. Cioè, un errore nel disegno del triangolo non è critico per me, perché ho già delle statistiche in generale. Questo principio non funziona con NS?
Beh all'incirca, a meno che non conti che nelle 21 immagini hai solo un angolo disegnato e non si parla di un triangolo lì...
Per capire l'essenza e le basi teoriche delle reti neurali, la conoscenza della teoria di Kolmogorov, Arnold e Hecht-Nielson è essenziale.
Per la pratica, questa conoscenza non è particolarmente necessaria, ma una comprensione generale non sarebbe male.
Ti ho dato un link per visualizzare gli split dai dati JOT. È qui che il modello completo viene caricato in un file. Poi gli split vengono letti da esso.
Sicuramente gli alberi già asimmetrici possono essere scaricati?
Nel boosting, per definizione, tutti gli alberi sono importanti. Ogni albero successivo perfeziona tutti quelli precedenti. Se si butta via un albero nel mezzo, allora tutti quelli che seguono lavoreranno con dati sbagliati - devono essere riqualificati, senza tener conto dell'albero buttato via. In questo caso il primo albero replicherà molto da vicino quello scartato.
No, non è esattamente vero. Quando il modello è pronto c'è un mucchio di foglie d'albero seduto dentro, dando una probabilità vicina a 0,5 - che è spazzatura in sostanza.
Sì. Le singole foglie del binning sono incomplete, perché sono aumentate dalle risposte delle foglie di altri alberi di raffinazione. E solo le risposte cumulative, ad esempio 100 alberi, danno la risposta corretta.
Cercare di ottenere qualcosa di affidabile da un solo foglio del modello boosting è impossibile.
Nel boosting, tutte le 100 risposte di 100 alberi sono sommate, ognuna dà per esempio 0,01 in totale = 1. Il valore di 1 foglia = 0,01 - cosa volete ottenere da questo? Non c'è niente. Solo la somma di 100 foglie darà la risposta corretta.
Infatti, lì il 1° albero è forte e dà per esempio 0,7, il resto porta la somma più vicina a 1. Se solo le foglie del primo albero sono considerate separatamente, ma penso che siano più deboli di qualsiasi albero della foresta casuale, a causa della minore profondità.
In una foresta casuale si trova la media, per esempio ogni foglia di 100 alberi = 1, la media anche = 1. In essa le volpi sono complete, ma con deviazioni casuali. Ma una folla di 100 risposte, dà la media come una risposta ragionevolmente accurata.
È possibile ottenere informazioni utili da un singolo albero, ma questo è raro.
Anche il primo albero non sarà il migliore.
Il boosting è veloce, ma bisogna selezionare attentamente i modelli, e questo richiede un grande campione, il che è un problema.
Per capire l'essenza e le basi teoriche delle reti neurali, la conoscenza della teoria di Kolmogorov, Arnold e Hecht-Nielson è essenziale.
Per la pratica, questa conoscenza non è particolarmente necessaria, ma una comprensione generale non sarebbe male.
Spc.
La mancanza di una teoria rigorosa relativa a questi modelli di reti neurali non impedisce di ricercare le possibilità di applicazione ai problemi pratici.
Sicuramente gli alberi già asimmetrici possono essere scaricati?
Provato un esempio, aggiungendo grow_policy='Lossguide'.
Ecco un pezzo di modello che contiene spaccature:
Ci sono spaccature anche con Depthwise. Ma questo è su Python, non ho visto un modo per scaricare il modello su R. Ma penso che sia possibile salvare il modello in R nel formato interno, aprirlo in Python e scaricarlo in JSON. E da esso tutto ciò che serve per usare
Colleghi. L'argomento è interessante, ma non capisco la differenza tra l'apprendimento automatico e la semplice ottimizzazione dei parametri in un tester? Lo scopo sarà all'incirca lo stesso - prendere una decisione sull'entrata (uscita) dal mercato quando i parametri di entrata (uscita) coincidono. Entrambi i metodi smettono di funzionare quando il mercato cambia fortemente. Hanno bisogno di essere riqualificati e ottimizzati. In breve e senza filosofia.
La differenza è nella flessibilità dello strumento. La rete neurale può adattarsi a qualsiasi serie. Guarda il polinomio qui sotto. La larghezza dei coefficienti e il loro numero possono essere assolutamente diversi.
Ora immaginate il numero di varianti, nessun Expert Advisor multiparametrico può vantare una tale flessibilità. Si dice anche che siano capaci di generalizzare, ma questo non è certo :-)