L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1539
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
i file vocali e musicali sono compressi utilizzando dtw, che a loro volta sono anche VR
;)
Ho studiato questo argomento, nelle mie parole, fa così:
)) che diavolo è la compressione? quello che hai studiato lì non è chiaro, ma sicuramente non quello
perché hai bisogno di comprimere le risorse finanziarie :)
perché davvero? :))
Puoi semplicemente discretizzare i dati di input, ad esempio convertire 5 cifre in 4 cifre. E i dati saranno già in gruppi di 10.
Oppure, come ho suggerito prima, si può costruire in alglib forest per fermare la ramificazione quando si raggiunge la profondità desiderata o il numero di esempi in un foglio.
il campionamento funziona meglio di cat fiches+vanhot, non sono stati fatti molti miglioramenti
e davvero, perché? :))
puoi comprimere le citazioni in archivi zip, guarda la loro dimensione e sarà una nuova fic
)) Cosa diavolo è la compressione? Non so cosa hai studiato, ma sicuramente non è la stessa cosa.
Considerati istruito, almeno leggi Wiki prima di postare
l'algoritmo dtw analizza la componente temporale del segnale e la regola ad un valore costante. conoscendo questo valore, puoi semplicemente rimuovere le pause tra la parte informativa del segnale - come risultato, avrai pacchetti di dati senza componente temporale + algoritmo di trasformazione dell'asse temporale costante
puoi comprimere le citazioni in archivi zip, guarda la loro dimensione e saranno nuove caratteristiche
Assolutamente no, l'algoritmo zip è un algoritmo di trasformazione rigoroso, e non si possono identificare i dati che differiscono di 1 byte come gli stessi dati,
non c'è bisogno di un algoritmo rigoroso di gestione dei dati, tutti hanno perdite nei dati originali. se non ne hai un'idea, è jpg - comprime con perdite e i dati vicini nel contenuto saranno ripristinati quasi identici alla fine, ma visivamente! - le checksum saranno diverse, i byte stessi avranno valori diversi....
ma come esempio di allenamento per il NS, forse è quello che ti serve, cioè un jpg per dati arbitrari (non immagini)
Non funzionerà, l'algoritmo zip è un algoritmo di conversione rigoroso, e non puoi identificare dati che differiscono di 1 byte come gli stessi dati,
non c'è bisogno di un algoritmo rigoroso per lavorare con i dati, tutti hanno una perdita dei dati originali, se non si inventa - è jpg - si comprime con una perdita e i dati che sono vicini nel contenuto saranno ripristinati approssimativamente lo stesso alla fine, ma visivamente! - le checksum saranno diverse, i byte stessi avranno valori diversi....
ma come esempio di allenamento per il NS, questo è probabilmente ciò di cui abbiamo bisogno, cioè un file jpg per dati arbitrari (non immagini)
Sto solo scherzando )) Beh, un autocodificatore o una convoluzione fanno bene il lavoro. Gli articoli di Vladimir sugli encoder hanno degli encoder, la convoluzione no.
seq2seq è anche essenzialmente un decoder-encoder. Per esempio, nella traduzione automatica ci sono diversi numeri di lettere tra le parole russe e inglesi. Lì tutto viene compresso, analizzato e poi decompresso.
https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4Ho iniziato a leggere qualcosa su dtw, ma non ho capito come applicarlo alle serie finanziarie e perché ne ho bisogno) ma è un argomento interessante, credo
C'era un concetto in cui DTW era un'estensione del processo di ricerca della sembianza di una trama, ma alla fine è probabilmente più facile (o forse no) usare le wavelets.
Era uno scherzo )) Beh, un codificatore automatico o una convoluzione fanno bene il lavoro. Gli articoli di Vladimir hanno codificatori, non convoluzione.
seq2seq è anche essenzialmente un decoder-encoder. Per esempio, nella traduzione automatica ci sono diversi numeri di lettere tra le parole russe e inglesi. Tutto questo viene compresso, analizzato e poi decompresso.
https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4Ho letto sui codificatori l'anno scorso, credo, che tutto, come al solito, è imperniato su grandi borchie su un grafico dei prezzi - rompono qualsiasi trasformazione, se non ci fossero borchie, allora le MA funzionerebbero, il filtro Kalman funzionerebbe e tutto funzionerebbe bene ))))
Per esempio, se ho una dimensione del campione piatta in primo luogo, può essere una buona soluzione per un tale compito.
PS: sì, c'era un DTW sul forum, anche la ricercahttps://www.mql5.com/ru/code/10755
Lo facevo girare ma... tutti dovrebbero essere trattati con un file prima dell'uso )))
C'era un concetto in cui DTW era un'estensione del processo di ricerca di sembianze grafiche, ma alla fine probabilmente le wavelet sono più facili (o forse no)
PS: sì, c'era un DTW sul forum, anche cercatohttps://www.mql5.com/ru/code/10755
L'ho girato una volta, ma... tutti devono essere archiviati prima dell'uso ))))
Oh no, al diavolo, andrò avanti a contorcere le reti neurali. Non credo in una cosa del genere.
Oh no, fanculo, tornerò alla rete neurale. Non credo in una cosa del genere.
Nemmeno io voglio ruotare NS, sono occupato con MT5 tester e il suo GA, GA funziona abbastanza adeguatamente, è possibile costruire rapidamente (4,5 x 10^142 varianti testate!!! - circa 2-3 ore) il TS automatico, e poi testarlo su forward, i risultati sono abbastanza accettabili, imho
HH: ma GA anche bisogno di un file per finalizzare, è difficile prendere i parametri di input - dare un sacco sarà una prova di 5 anni, si inizia a tagliare come dati di input non corretto - qui come fortuna o appena trovato dove fermarsi e se a tutti non troverà
Nemmeno io voglio fare NS, ho preso MT5 tester e il suo GA, GA funziona abbastanza adeguatamente, è possibile costruire rapidamente (4,5 x 10^142 varianti testate!!! - circa 2-3 ore) il TS automatico, e poi testarlo su un forward, i risultati sono abbastanza accettabili, imho
Farò presto il monitoraggio, o scriverò un articolo... Sono troppo pigro per preoccuparmi dell'articolo, è troppo da scrivere.
Ora è tutto in python. Risparmia un sacco di tempo.
Il difetto di GA è che non generalizza