L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1033

 
Roffild:

Sono un programmatore, non un telepate. Qualsiasi domanda, ti darò le risposte...

Risposta: 42 :D

Se sei pronto a rispondere come programmatore, ecco una domanda veloce - un compito di programmazione, controllando allo stesso tempo le abilità su cui insisti.

Nel file allegato c'è un modello di segnali EURUSD H1 per un EA, dobbiamo determinare l'algoritmo della loro formazione.

Se vuoi puoi postare la soluzione come EA e mostrare in azione la potenza del bruteforcing dei predittori e la tua libreria di machine learning.

Suggerisco a tutti i machine-learners interessati di unirsi, sono anche pronto a risolvere il problema proposto o qualsiasi altro presentato come modello usando il mio MO.

Forse in questo modo di scrivere saremo in grado di elaborare almeno alcuni approcci e formati comuni)).

File:
EA_EURUSD_H1.tpl  130 kb
 

Tutti gli indicatori dovrebbero essere stati cancellati prima di salvare il modello. Potrebbe non essere stato l'indicatore name=main, ma i dati non vengono visualizzati.

E dov'è la garanzia che la strategia sia redditizia? Forse è solo un pezzo di storia fortunato...

Sembra che nessuno abbia letto la mia biblioteca, perché non ci sono domande specifiche su di essa. Tutti vogliono il Graal senza capire i mezzi per trovarlo.

 
Roffild:

Tutti gli indicatori dovrebbero essere stati cancellati prima di salvare il modello. Potrebbe non essere stato l'indicatore name=main, ma i dati non vengono visualizzati.

E dov'è la garanzia che la strategia sia redditizia? Forse è solo un pezzo di storia fortunato...

Sembra che nessuno abbia conosciuto la mia biblioteca, perché non ci sono domande su di essa. Tutti vogliono ottenere il Graal, senza capire i mezzi per trovarlo.

La voce principale è in tutti i modelli, non interferisce, e i dati ci sono solo oggetti grafici - frecce, blu - BUY, rosso - SELL.

Si apre il grafico EURUSD H1 e si scarica il file (menu Charts\Template\Load Template...) e si controlla Objects List nel menu contestuale.


E nessuno ti sta chiedendo un graal, solo di risolvere il problema e confermare in pratica quello che dici e come funziona la libreria.

 
Aleksey Terentev:
Se ci si interessa alle architetture avanzate delle reti neurali, vengono fuori alcune idee molto interessanti. Naturalmente, è difficile entrare nei dettagli, avete bisogno di esperienza con i framework per il dithering, e una comprensione della matematica vettoriale in generale.
Ma ne vale la pena.
Per quanto riguarda il mercato, non ho molto da mostrare, il mercato è ***inok) Ci vuole molto tempo.
Vieni da noi nella discordia, abbiamo un ambiente tranquillo e accogliente) descriverò e vi mostrerò con esempi come preparare reti profonde.

Non dargliela, ti fotterà il cervello.

 
Aleksey Terentev:
Se ci si interessa alle architetture avanzate delle reti neurali, vengono fuori alcune idee molto interessanti. Naturalmente, è difficile entrare nei dettagli, bisogna avere esperienza con i framework di dithering, e capire la matematica vettoriale in generale.
Ma ne vale la pena.
Per quanto riguarda il mercato, non ho molto da mostrare, il mercato è ***inok) Ci vuole molto tempo.
Vieni da noi in discordia, abbiamo un tranquillo e accogliente) descriverò e mostrare con esempi, come preparare una rete profonda.

Io comunico sul forum e non sostengo le sette

)

 
Roffild:

Sono un programmatore, non un telepate. Se avete delle domande, vi darò le risposte...

Risposta: 42 :D

Mi interessa il concetto del perché dovrebbe funzionare, non cosa si collega a cosa e come velocemente

spiegazione teorica dell'approccio, non l'ho capito dal codice e non è divertente usare java e spark ecc. solo per capirlo

Cioè, come vedete e lavorate con iO, la profondità della vostra comprensione, per così dire.

se rispondi al 43 non te lo chiederò più :)

 

Una parte della mia libreria, che è su MQL5, non è direttamente collegata ad Apache Spark. C'è un modulo separato in Java che converte i dati per l'uso in Spark. E questo modulo dovrebbe essere portato su Python.

Apache Spark è un sistema distribuito di elaborazione di grandi dati + modulo per Random Forests. Può elaborare dati su 1000 server (Facebook si è imbattuto in una tale soglia).

Big data - quando l'elaborazione dei file non si adatta alla RAM.

Dato: 800 predittori su 2 anni in 5 GB.

Compito: usare alcuni server economici di amazon per creare 250 alberi in 1-2 ore.

Soluzione: AWS EMR + Apache Spark.

C'è un'opzione per risolvere questo problema senza usare Spark?

 

Apache Spark vi permette di dimenticare la mancanza di RAM.

Ho creato una foresta casuale di 500 alberi con 7000 predittori e 30GB di dati. Amazon ha funzionato per 15 ore su due server con 16 CPU.

 
Roffild:

Apache Spark permette di dimenticare la mancanza di RAM.

Ho creato una foresta casuale di 500 alberi con 7000 predittori e 30 GB di dati. Amazon stava eseguendo 15 ore su due server con 16 CPU.

E il punto di 7000 predittori in una foresta casuale? È ancora in fase di riqualificazione. Ho preso circa 30-40 predittori e ho addestrato la foresta. Poi ho controllato ognuno di loro uno per uno e ho selezionato 4 predittori in questo modo.

La foresta addestrata su quattro predittori risulta un po' meglio che con 30-40, ma non di molto. Le citazioni in particolare forex hanno un tipo di dati più casuale e risulta +5% (prevedere correttamente il 55%) alla classe desiderata rispetto a quella negativa.

Forse, naturalmente, possiamo in qualche modo estrarre una componente dalla serie di prezzi che divida meglio le classi, ma finora non sono riuscito a farlo.

Il mio punto è che non c'è bisogno di creare dei predittori. Non credo che avrà molto senso, farà solo riqualificare la foresta ancora più velocemente.

 
Roffild:

Apache Spark vi permette di dimenticare la mancanza di RAM.

Ho creato una foresta casuale di 500 alberi con 7000 predittori e 30GB di dati. Amazon ha funzionato per 15 ore su due server con 16 CPU.

Hanno deciso di stipare gli incapaci e moltiplicare i predittori senza alcun senso.

Da dove hai preso così tanti predittori? Qual è la loro importanza? C'è 1/3 della foresta non inclusa nel set di allenamento e il 95% ha bassa importanza. E qual è la risposta del sistema ora con così tanti predittori, 3 ore per 1 previsione? )