L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1539

 
Igor Makanu:

i file vocali e musicali sono compressi utilizzando dtw, che a loro volta sono anche VR

;)

Igor Makanu:

Ho studiato questo argomento, nelle mie parole, fa così:

)) che diavolo è la compressione? quello che hai studiato lì non è chiaro, ma sicuramente non quello

Maxim Dmitrievsky:

perché hai bisogno di comprimere le risorse finanziarie :)

perché davvero? :))

 
elibrario:

Puoi semplicemente discretizzare i dati di input, ad esempio convertire 5 cifre in 4 cifre. E i dati saranno già in gruppi di 10.
Oppure, come ho suggerito prima, si può costruire in alglib forest per fermare la ramificazione quando si raggiunge la profondità desiderata o il numero di esempi in un foglio.

il campionamento funziona meglio di cat fiches+vanhot, non sono stati fatti molti miglioramenti

 
mytarmailS:

e davvero, perché? :))

puoi comprimere le citazioni in archivi zip, guarda la loro dimensione e sarà una nuova fic

 
mytarmailS:

)) Cosa diavolo è la compressione? Non so cosa hai studiato, ma sicuramente non è la stessa cosa.

Considerati istruito, almeno leggi Wiki prima di postare

l'algoritmo dtw analizza la componente temporale del segnale e la regola ad un valore costante. conoscendo questo valore, puoi semplicemente rimuovere le pause tra la parte informativa del segnale - come risultato, avrai pacchetti di dati senza componente temporale + algoritmo di trasformazione dell'asse temporale costante


Maxim Dmitrievsky:

puoi comprimere le citazioni in archivi zip, guarda la loro dimensione e saranno nuove caratteristiche

Assolutamente no, l'algoritmo zip è un algoritmo di trasformazione rigoroso, e non si possono identificare i dati che differiscono di 1 byte come gli stessi dati,

non c'è bisogno di un algoritmo rigoroso di gestione dei dati, tutti hanno perdite nei dati originali. se non ne hai un'idea, è jpg - comprime con perdite e i dati vicini nel contenuto saranno ripristinati quasi identici alla fine, ma visivamente! - le checksum saranno diverse, i byte stessi avranno valori diversi....

ma come esempio di allenamento per il NS, forse è quello che ti serve, cioè un jpg per dati arbitrari (non immagini)

 
Igor Makanu:

Non funzionerà, l'algoritmo zip è un algoritmo di conversione rigoroso, e non puoi identificare dati che differiscono di 1 byte come gli stessi dati,

non c'è bisogno di un algoritmo rigoroso per lavorare con i dati, tutti hanno una perdita dei dati originali, se non si inventa - è jpg - si comprime con una perdita e i dati che sono vicini nel contenuto saranno ripristinati approssimativamente lo stesso alla fine, ma visivamente! - le checksum saranno diverse, i byte stessi avranno valori diversi....

ma come esempio di allenamento per il NS, questo è probabilmente ciò di cui abbiamo bisogno, cioè un file jpg per dati arbitrari (non immagini)

Sto solo scherzando )) Beh, un autocodificatore o una convoluzione fanno bene il lavoro. Gli articoli di Vladimir sugli encoder hanno degli encoder, la convoluzione no.

seq2seq è anche essenzialmente un decoder-encoder. Per esempio, nella traduzione automatica ci sono diversi numeri di lettere tra le parole russe e inglesi. Lì tutto viene compresso, analizzato e poi decompresso.

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4
Seq2Seq model using Convolutional Neural Network
Seq2Seq model using Convolutional Neural Network
  • Gautam Karmakar
  • medium.com
Seq2seq model maps variable input sequence to variable length output sequence using encoder -decoder that is typically implemented as RNN/LSTM model. But this paper https://arxiv.org/pdf/1705.03122.pdf shows application of convolutional neural network for seq2seq learning which is state of the art for computer vision using deep learning. There...
 
Maxim Dmitrievsky:

Ho iniziato a leggere qualcosa su dtw, ma non ho capito come applicarlo alle serie finanziarie e perché ne ho bisogno) ma è un argomento interessante, credo

C'era un concetto in cui DTW era un'estensione del processo di ricerca della sembianza di una trama, ma alla fine è probabilmente più facile (o forse no) usare le wavelets.

 
Maxim Dmitrievsky:

Era uno scherzo )) Beh, un codificatore automatico o una convoluzione fanno bene il lavoro. Gli articoli di Vladimir hanno codificatori, non convoluzione.

seq2seq è anche essenzialmente un decoder-encoder. Per esempio, nella traduzione automatica ci sono diversi numeri di lettere tra le parole russe e inglesi. Tutto questo viene compresso, analizzato e poi decompresso.

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4

Ho letto sui codificatori l'anno scorso, credo, che tutto, come al solito, è imperniato su grandi borchie su un grafico dei prezzi - rompono qualsiasi trasformazione, se non ci fossero borchie, allora le MA funzionerebbero, il filtro Kalman funzionerebbe e tutto funzionerebbe bene ))))

Per esempio, se ho una dimensione del campione piatta in primo luogo, può essere una buona soluzione per un tale compito.


PS: sì, c'era un DTW sul forum, anche la ricercahttps://www.mql5.com/ru/code/10755

Lo facevo girare ma... tutti dovrebbero essere trattati con un file prima dell'uso )))

 
transcendreamer:

C'era un concetto in cui DTW era un'estensione del processo di ricerca di sembianze grafiche, ma alla fine probabilmente le wavelet sono più facili (o forse no)

Igor Makanu:

PS: sì, c'era un DTW sul forum, anche cercatohttps://www.mql5.com/ru/code/10755

L'ho girato una volta, ma... tutti devono essere archiviati prima dell'uso ))))

Oh no, al diavolo, andrò avanti a contorcere le reti neurali. Non credo in una cosa del genere.

 
Maxim Dmitrievsky:

Oh no, fanculo, tornerò alla rete neurale. Non credo in una cosa del genere.

Nemmeno io voglio ruotare NS, sono occupato con MT5 tester e il suo GA, GA funziona abbastanza adeguatamente, è possibile costruire rapidamente (4,5 x 10^142 varianti testate!!! - circa 2-3 ore) il TS automatico, e poi testarlo su forward, i risultati sono abbastanza accettabili, imho

HH: ma GA anche bisogno di un file per finalizzare, è difficile prendere i parametri di input - dare un sacco sarà una prova di 5 anni, si inizia a tagliare come dati di input non corretto - qui come fortuna o appena trovato dove fermarsi e se a tutti non troverà

 
Igor Makanu:

Nemmeno io voglio fare NS, ho preso MT5 tester e il suo GA, GA funziona abbastanza adeguatamente, è possibile costruire rapidamente (4,5 x 10^142 varianti testate!!! - circa 2-3 ore) il TS automatico, e poi testarlo su un forward, i risultati sono abbastanza accettabili, imho

Farò presto il monitoraggio, o scriverò un articolo... Sono troppo pigro per preoccuparmi dell'articolo, è troppo da scrivere.

Ora è tutto in python. Risparmia un sacco di tempo.

Il difetto di GA è che non generalizza