L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 4
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
NS ha fatto molto bene.
Random Forest non potrebbe gestire un tale compito, dove l'interazione di un insieme di variabili. E la significatività individuale di ogni predittore era intenzionalmente zero.
Non vedo prove che NS abbia fatto bene qualcosa.
L'apprendimento eccessivo è un male mondiale nella scienza e nella costruzione di modelli in particolare.
Quindi un errore è necessario per tre serie:
Gli ultimi due set non sono mescolati quando arrivano nel terminale, le basi dietro il bar.
Ci dovrebbe essere circa lo stesso errore su tutti e tre i set. Allo stesso tempo dovete fissare l'insieme dei predittori che prendete quando addestrate il modello.
Random Forest non potrebbe gestire un tale problema, dove l'interazione di un insieme di variabili. E la significatività individuale di ogni predittore era intenzionalmente zero.
La tua idea di tenere conto dell'interazione tra predittori è una rivoluzione nella statistica. Fino ad ora, pensavo che l'interazione tra i predittori fosse un male. Non solo i predittori stessi sono di solito non stazionari, ma stiamo anche cercando di rendere conto delle relazioni tra questi processi casuali non stazionari.
Nell'apprendimento automatico, è considerato obbligatorio sbarazzarsi delle variabili interagenti. Inoltre sono disponibili algoritmi molto efficaci, ad esempio il metodo delle componenti principali che permette di sbarazzarsi dell'interazione e di convertire l'insieme di predittori interagenti in un insieme di predittori indipendenti.
Non vedo alcuna prova che NS abbia affrontato qualcosa.
L'apprendimento eccessivo è un male mondiale nella scienza e nella costruzione di modelli in particolare.
Quindi un errore è necessario per tre serie:
Gli ultimi due set non sono mescolati quando arrivano nel terminale, le basi dietro il bar.
Ci dovrebbe essere circa lo stesso errore su tutti e tre i set. Detto questo, dovrete fissare il set di predittori che prendete quando addestrate il modello.
Mettiamola così. Nonostante il fatto che questo non faccia parte del compito. Stenderò un campione di convalida su cui eseguire il modello addestrato e misurare l'accuratezza di previsione dell'output.
Ma di nuovo, questo non è necessario. Notate che ho scritto di nuovo la convalida sulla base del modello dedotto.
Un modello incorporato nei dati:
Non vedo alcuna prova che NS abbia affrontato qualcosa.
Neuronka ha risolto questo problema, atachment log con codice da Rattle. Ci sono un paio di cambiamenti nel codice quando si chiama neurone - ho aumentato il numero massimo di iterazioni, e rimosso le connessioni che vanno direttamente dall'input all'output, bypassando lo strato intermedio (skip=TRUE). Perché queste due limitazioni rovinano tutto.
Ho fatto la convalida sul nuovo file, gli errori in entrambi i casi sono quasi 0% (c'è solo un errore quando si convalida dal secondo file).
Ma poiché la NS è come una scatola nera, non c'è modo di conoscere la logica della soluzione. Puoi guardare i pesi, determinare il valore assoluto medio per ogni ingresso e disegnare un diagramma. E si saprà che 1, 3, 5, 7, 9, 11 sono più importanti del resto. Tuttavia, anche i restanti ingressi sono utilizzati per qualche motivo; i pesi zero non si trovano da nessuna parte. In altre parole, si scopre che l'apprendimento avviene all'inizio, e poi possiamo determinare gli input importanti.
Neuronka ha risolto questo problema, atachment log con codice da Rattle. Ci sono un paio di cambiamenti nel codice quando si chiama neurone - ho aumentato il numero massimo di iterazioni, e rimosso le connessioni che vanno direttamente dall'input all'output, bypassando lo strato intermedio (skip=TRUE). Perché queste due limitazioni rovinano tutto.
Ho fatto la convalida sul nuovo file, gli errori in entrambi i casi sono quasi 0% (c'è solo un errore quando si convalida dal secondo file).
Ma poiché il NS è come una scatola nera, non c'è modo di conoscere la logica della soluzione. Puoi guardare i pesi, determinare il valore assoluto medio per ogni ingresso e disegnare un diagramma. E si saprà che 1, 3, 5, 7, 9, 11 sono più importanti del resto. Tuttavia, anche i restanti ingressi sono utilizzati per qualche motivo; i pesi zero non si trovano da nessuna parte. In altre parole, è il contrario: prima si impara e poi si identificano gli input importanti.
Non vedo alcuna prova che NS abbia affrontato qualcosa.
L'apprendimento eccessivo è un male mondiale nella scienza e nella costruzione di modelli in particolare.
Quindi un errore è necessario per tre serie:
Gli ultimi due set non sono mescolati quando arrivano nel terminale, basi dietro il bar.
Ci dovrebbe essere circa lo stesso errore su tutti e tre i set. Così facendo dovrete fissare l'insieme dei predittori che prendete quando addestrate il modello.
L'ovvio ha bisogno di essere dimostrato? Durante l'addestramento i pesi degli ingressi che portano dati contraddittori sono diminuiti, quindi possiamo dire che i dati contraddittori in arrivo sono bloccati.
Non c'è alcun problema di riqualificazione in questo caso, perché la rete addestrata non viene utilizzata per altri scopi.
La domanda è se un tale metodo è utile. Non è un po' di artiglieria pesante.
Se un tale metodo sia appropriato è la questione. L'artiglieria non è un po' pesante?
Puoi provare in un altro modo. Ma penso che il rimedio sia adatto al problema.
Fa il lavoro e lo fa bene. Ma mi chiedo sempre se non ci sia qualcosa di più efficace e più semplice.