L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 593

 
Maxim Dmitrievsky:

Reti di propagazione in avanti focalizzate con ritardi temporali

Nel riconoscimento del patema strutturale, è comune l'uso di reti neurali statiche. Al contrario, il riconoscimento del patema d'animo temporale richiede l'elaborazione di immagini che cambiano nel tempo, e la generazione di una risposta in un particolare punto nel tempo che dipende non solo dall'attuale, ma anche da diversi valori precedenti.

Esiste una cosa del genere? :) Esattamente il tipo di tali architetture funzionerà in Forex, in teoria... ma bisogna sperimentare. È facile da fare, basta aggiungere un paio di neuroni "interessanti" a MLP, o collegare 2 modelli.

Dove prendete il modello?
 
Yuriy Asaulenko:
Dove prendete il modello?

Lo farò io stesso ) non ho ancora finito di leggerlo, ci sono un sacco di cose interessanti nei libri, a quanto pare

Ma l'idea della "memoria" per i mercati dovrebbe essere buona... ma non la ricorrenza super lenta, ma qualcosa di più semplice e specializzato

 

L'esempio più semplice:

Per "shifter" esterno possiamo intendere qualche f-da, per esempio, i trade precedenti, la volatilità, o qualche altro iperparametro del sistema

Ma sarebbe meglio se lo shifter fosse incorporato in 1 o più neuroni, allora diventerebbe come se fosse non lineare

 

Non sperate che appaia un nuovo tipo di neuronkey o un pacchetto python che risolva tutti i problemi - e non ci sarà overfitting del modello, e non avrà paura della non staticità, ecc.

Non importa quanto sia fantasioso il modello, sarà basato su un principio semplice - prende i dati per l'addestramento preparati da un umano, e il modello crea solo una descrizione semplificata di come calcolare il risultato dai dati di input. Questo non è molto lontano dalla predizione del vicino più vicino, ma i modelli convenzionali prevedono ordini di grandezza più veloci (anche se richiedono molto tempo per imparare), quindi sono più apprezzati.

La frase chiave è "dati addestrati dall'uomo". Se l'esperto prepara correttamente i dati, allora puoi usarli per addestrare il modello e fare trading con profitto, guarda per esempio quelle tabelle per l'addestramento e il test che sono state condivise da SanSanych, Vizard, Michael.
Sono stupito quando li guardo. E nessuna sorprendente neuronica rnn con filtri d'ingresso non lineari e dozzine di strati lo farà per voi.

 
Ildottor Trader:

Non sperate che appaia un nuovo tipo di neuronkey o un pacchetto python che risolva tutti i problemi - e non ci sarà overfitting del modello, e non avrà paura della non staticità, ecc.

Non importa quanto sia fantasioso il modello, sarà basato su un principio semplice - prende i dati per l'addestramento preparati da un umano, e il modello crea solo qualche descrizione semplificata di come calcolare il risultato dai dati di input. Tutto questo non è lontano dalla previsione del vicino più prossimo, ma i soliti modelli predicono ordini di grandezza più velocemente (anche se ci vuole molto tempo per addestrare), quindi sono più apprezzati.

La frase chiave è "dati per l'apprendimento preparati dall'uomo". Se l'Expert Advisor prepara correttamente i dati, allora li userete per insegnare il modello e fare trading con profitto. Prendete per esempio quelle tabelle per l'allenamento e il test che sono state postate da SanSanych, Vizard, Michael.
Sono stupito quando li guardo. E nessuna sorprendente neuronica rnn con filtri d'ingresso non lineari e dozzine di strati lo farà per voi.


Purtroppo (forse solo per me), la maggior parte di ciò che viene discusso qui è neurostatica. Ha davvero bisogno di dati molto ben preparati, le cui proprietà statistiche non cambiano nel tempo, da qui tanti modi diversi di selezionare e filtrare i predittori. Trovo questo approccio molto difficile a causa della pre-elaborazione.

Ma possiamo guardare alla neurodinamica con diverse varianti di "memoria" e cose adattive... mi sembra un approccio più semplice e naturale, e non sono sicuro dell'efficienza, dipende da come si fa.

Dipende da quale punto di vista vedere il mercato - come un insieme di modelli o come un sistema che si evolve secondo certe leggi.

 
Maxim Dmitrievsky:

Ma si potrebbe guardare alla neurodinamica con diverse varianti di "memoria" e cose adattive... mi sembra un approccio più semplice e naturale, ma non sono sicuro dell'efficienza, dipende da come lo si fa.
...
evolvendo secondo certe leggi.
...

Ha bisogno di essere studiato, senza dubbio. Ma l'umanità non ha ancora inventato uno strumento adatto (almeno non di dominio pubblico).

I neuroni lstm sono piuttosto interessanti per questo thread, possono descrivere serie temporali più accuratamente dei soliti neuroni usando meno neuroni. Ma il problema con loro è l'overfitting.
Supponiamo che addestrando neuronka regolare si possano estrarre alcuni dati per la crossvalidazione, e quindi affrontare la sovralimentazione. Ma per il neurone lstm è importante l'ordine di arrivo dei dati, ogni nuova previsione usa lo stato interno del neurone e lo cambia. Di conseguenza, l'intera serie temporale è prevista in ordine rigoroso, ogni previsione dipende dal passato e influenza il futuro. Se alcuni esempi vengono rimossi a caso per essere utilizzati in seguito nella convalida incrociata, la sequenza viene interrotta, il che è male e mette in discussione l'intero addestramento. Se dividiamo i dati in due parti sequenzialmente per l'addestramento e il test - otteniamo di nuovo l'overfit perché non aiuta nel forex.
Tutto quello che si può fare è allenare lstm alla massima precisione e sperare. Ma il forex non perdona tale irresponsabilità.

Quando questo problema sarà risolto, sarà possibile creare un graal.

 

MQL di per sé non è né cattivo né buono. È vicino al C++ nella sintassi. In generale, è un linguaggio standard. Il problema è nella disponibilità delle librerie necessarie per questo. Ma sono assenti o di scarsa qualità. Ecco perché dobbiamo integrare Python. Ho già citato un link alla sua integrazione con MQL. Ve ne darò un altro. La biblioteca è ora abbastanza utilizzabile. Potete scaricarlo ora.

 
Ildottor Trader:

Questo deve essere studiato, senza dubbio. Ma l'umanità non ha ancora inventato uno strumento adatto (almeno non di dominio pubblico).

I neuroni lstm sono piuttosto interessanti per questo thread, possono descrivere serie temporali più accuratamente dei soliti neuroni usando meno neuroni. Ma il problema con loro è l'overfit.
Diciamo che allenando il neurone regolare si possono selezionare alcuni dati per la crossvalidazione, e quindi combattere con la sovralimentazione. Ma per il neurone lstm è importante l'ordine di arrivo dei dati, ogni nuova previsione usa lo stato interno del neurone e lo cambia. Di conseguenza, l'intera serie temporale è prevista in ordine rigoroso, ogni previsione dipende dal passato e influenza il futuro. Se alcuni esempi vengono rimossi a caso per essere utilizzati in seguito nella convalida incrociata, la sequenza viene interrotta, il che è male e mette in discussione l'intero addestramento. Se dividiamo i dati in due parti sequenzialmente per l'addestramento e il test - otteniamo di nuovo un overfit perché non aiuta nel forex.
Tutto quello che si può fare è allenare lstm alla massima precisione e sperare. Ma il forex non perdonerà una tale irresponsabilità.

Ci vogliono anni di lavoro accademico sul tema dell'override dei neuroni lstm, quando questo problema sarà risolto allora potremo cominciare a creare il graal.


avete bisogno di un ns che giochi con se stesso in forex :) non è lstm. lstm non usa BP come un agente esterno che lo prende a calci in fronte quando fa un errore

Yuri ne ha già scritto, tanto per riassumere.

 
Grigoriy Chaunin:

Il MQL di per sé non è né cattivo né buono. È vicino al C++ nella sintassi. In generale, è un linguaggio standard. Il problema è nella disponibilità delle librerie necessarie per questo. Ma sono assenti o di scarsa qualità. Ecco perché dobbiamo integrare Python. Ho già citato un link alla sua integrazione con MQL. Ve ne darò un altro. La biblioteca è ora abbastanza utilizzabile. Scaricalo.


Grazie per lo sforzo! Lo useremo più tardi, l'ho conservato per me.

 

Non riesco a dormire - ho letto un po' su internet. Questo mi è piaciuto:

"Il fatto che gli incrementi siano usati non è poi così male contro lo sfondo generale, la maggior parte dei prezzi logaritmici sono alimentati all'input, gli incrementi sono un passo avanti, anche se entrambi sono adatti.

Conosco persone che hanno tirato fuori il graal da NS, ma quei ragazzi sono così chiusi per la comunicazione e anche i suggerimenti su ciò che fanno, io sono un principiante quindi sicuramente non ho una possibilità. So solo che è tutto complicato, non è Vels, non è Metatrader e nemmeno S#, e C++ e MatLab con dei chip che decodificano e interpretano i dati provenienti dai calider, si è scoperto che si tratta di una stessa metodologia, ho sentito e mi sono spaventato, stanno lavorando con lo zio che macinava terabyte al giorno al CERN cercando nuove particelle nel caos quantistico.

Questo è divertente. Rimango della mia opinione - è necessario alimentare il più puro, come una lacrima, incrementi di prezzo a NS input. Sono gli incrementi che sono la chiave di tutto. Essi costituiscono la base della soluzione di questo problema. Infatti, in Forex seguiamo un processo pseudo-stazionario di movimento di un pacchetto d'onda ( funzione di densità di probabilità) di questi incrementi. E niente di più. (Ho già scritto questo paragrafo :)))