L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 394
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Se iniziate qualcosa per un mese - usate un'alimentazione ininterrotta per il vostro computer, una volta ho avuto 2 settimane di calcoli, la luce era spenta))
E la versione GPU non si aspetta molto, riscrivere il codice mi sembra più lungo e se l'autore non l'ha fatto, è improbabile che qualcun altro finisca questo compito fino alla fine.
Bene, l'autore ha messo tutto in parallelo, ora devo solo eseguirlo. Comunque, ho massimizzato la corsa per 3 giorni e ho ottenuto un modello con 9 ingressi, che è un record per me ora ad essere onesti. Non voglio davvero ottimizzarlo per così tanto tempo. Ma come si dice. Il mercato lo richiede. Pertanto, alla ricerca di capacità, se qualcuno ha l'opportunità di ottimizzare dataset sull'ottimizzatore, e anche su 20-30 core, sarei molto grato.
Mihail Marchukajtes:
giorni di apprendimento, settimane.
Apparentemente il tuo algoritmo non è ottimale, su dataset così piccoli, puoi tranquillamente usare algoritmi bruteforcing come Knn, che sono quasi ottimali, se l'algoritmo è più lento di Knn, probabilmente è un cattivo algoritmo ML o mal configurato. Su tale set di dati, l'intero ciclo di allenamento e l'esecuzione dell'intero set non dovrebbero richiedere più di un secondo.
L'ho spiegato sopra. 100 spaccature ogni spaccatura è addestrata 1000 epoche ecc. L'essenza dell'ottimizzatore è calcolare il set di dati in modo che non ci siano domande sulla sua idoneità. Cioè lui fa girare questo file su e giù in modo figurato, e tu continui a paragonarlo a un singolo allenamento di un singolo neurone. IMHO. È essenzialmente un sistema di intelligenza artificiale in cui tutti i tipi di ottimizzazione e pre-elaborazione avvengono insieme all'addestramento dei neuroni, e l'addestramento stesso viene eseguito centinaia di volte. Se qualcosa....
L'ho spiegato sopra. 100 split, ogni split è addestrato per 1000 epoche, ecc. Sei solo fissato su un singolo allenamento di un neurone, mentre l'essenza dell'ottimizzatore è calcolare il dataset in modo che non ci siano domande sulla sua idoneità. Cioè lui fa girare questo file su e giù in modo figurato, e tu continui a paragonarlo a un singolo addestramento di un neurone. IMHO. È essenzialmente un sistema di intelligenza artificiale in cui tutti i tipi di ottimizzazione e pre-elaborazione avvengono insieme all'addestramento dei neuroni, e l'addestramento stesso viene eseguito centinaia di volte. Se qualcosa....
MLP indovina il 95% delle volte... Non credo che tu stia facendo la moto giusta) Senza offesa.
Avete un errore.
La primissima colonna della tabella è il numero di riga, e questa colonna non può essere usata nella predizione, ma è richiesta solo per jPrediction per qualche motivo.
L'obiettivo è distribuito in modo che la prima metà delle linee sia di classe 0, e la seconda metà delle linee sia di classe 1. Quindi il neurone ricorda semplicemente che se il numero di linea è inferiore a 228 è di classe 0, altrimenti è di classe 1.
Avete un errore.
La primissima colonna della tabella è un numero di riga e non si può usare questa colonna nella predizione, ma è obbligatoria solo per jPrediction per qualche motivo.
L'obiettivo è distribuito in modo che la prima metà delle linee sia di classe 0, e la seconda metà delle linee sia di classe 1. Quindi, il neurone ricorda semplicemente che se il numero di linea è inferiore a 228, è di classe 0, altrimenti è di classe 1.
Oh, a proposito, sì. Non ha notato che è solo un numero.
Senza di esso Ingressi da tenere: 4,50,53,59,61,64,92,98,101,104,
Errore medio in formazione (60,0%) =0,269 (26,9%) nLearns=2 NGrad=7376 NHess=0 NCholesky=0 codResp=2
Errore medio sulla convalida (20,0%) trama =0,864 (86,4%) nLearns=2 NGrad=7376 NHess=0 NCholesky=0 codResp=2
Errore medio sul test (20,0%) trama =0,885 (88,5%) nLearns=2 NGrad=7376 NHess=0 NCholesky=0 codResp=2
Chiaramente sovrallenamento. Quindi ho bisogno di vagliare gli input in modo diverso.
Forse setacciare in base al peso degli input? Come hai fatto per il problema nel primo post del thread...
Sto cercando di riscrivere il tuo script R allegato, in modo che possa determinare i nomi e il numero di colonne... ma non conosco abbastanza R.
Sto cercando di riscrivere lo script R che hai allegato, in modo che determini i nomi e il numero di colonne... ma non conosco abbastanza R.
Stavo ancora iniziando a imparare R allora, lo script è quasi interamente generato in rattle (ambiente visivo per il datamining in R), ecco perché è così complesso e personalizzato per tutte le occasioni.
Questo...
dovrebbe essere cambiato in...
E dovrebbe andare bene.
In generale, è un cattivo approccio, non si dovrebbe definire l'importanza degli input in questo modo. Per qualche motivo ha funzionato quella volta, ma non mi ha più aiutato.
È meglio definire l'importanza dei predittori come segue
I risultati della valutazione dell'importanza sono i seguenti. Più alto è il predittore nella tabella, meglio è. SoloVVolum6, VDel1, VVolum9, VQST10 hanno superato il test.
In rattle possiamo costruire 6 modelli contemporaneamente su questi 4 predittori e SVM mostra un'accuratezza di circa il 55% sui dati di validazione e test. Non male.
MLP ci azzecca il 95% delle volte... Non credo che tu stia facendo la moto giusta) Senza offesa.
Anch'io mi faccio la bici da solo, ma sulla base di decenni di MLP collaudato (che dicono essere obsoleto e ha bisogno di qualcosa di più fresco per lavorare).
E provate anche gli alberi decisionali alglib, contano più velocemente e hanno prestazioni migliori di mlp. Anche Diplerning è più veloce, ma non in alglib.
La cosa principale è il rapporto velocità/qualità, che senso ha aspettare una settimana o anche un giorno o anche un'ora, così non troverai mai la combinazione ottimale) Il modello impiega qualche secondo per imparare, poi si può usare la genetica per l'autosimulazione dei parametri o dei predittori, allora è pura AI, altrimenti è spazzatura)