Cosa inserire nell'ingresso della rete neurale? Le vostre idee... - pagina 52

 
Aleksandr Slavskii #:

Se si guarda l'immagine, sì, è calda e morbida, ma nel codice va bene.

Le parentesi nell'immagine sono sbagliate. Dovrebbe essere così.


Sì, grazie, ho problemi con le parentesi lì.
 

Ola ke tal. Ho pensato di proporre le mie idee.

Il mio ultimo modello consiste nel raccogliere i prezzi normalizzati di 10 simboli e quindi addestrare una rete di ricorrenze. Per l'input 20 barre del mese, della settimana e del giorno.

Questa è l'immagine che ottengo. La differenza rispetto alla formazione separata è che il profitto totale è 3 volte inferiore e il drawdown.... wow, il drawdown nel periodo di controllo è appena dell'1%.

Mi sembra che questo risolva il problema della scarsità di dati.


 
Evgeniy Scherbina #:

Ola ke tal. Ho pensato di proporre le mie idee.

Il mio ultimo modello consiste nel raccogliere i prezzi normalizzati di 10 simboli e quindi addestrare una rete di ricorrenze. Ci sono 20 barre del mese, della settimana e del giorno per ogni input.

Questa è l'immagine che ottengo. La differenza rispetto alla formazione separata è che il profitto totale è 3 volte inferiore e il drawdown.... wow, il drawdown nel periodo di controllo è appena dell'1%.

Mi sembra che questo risolva il problema della scarsità di dati.


Penso che lei abbia un livello di conoscenza estremamente elevato dell'argomento.

Temo che non capirò nulla. Per favore, dimmi cos'è questa bellezza sul grafico: è Python?

Un'architettura LSTM? È possibile mostrare una cosa del genere su MT5?


prezzi normalizzati di 10 simboli





Anche qui, come sono stati normalizzati i prezzi. Che cos'è "ante" In generale, tutto ciò che non è un segreto commerciale, per favore condividetelo)
 
Ivan Butko #:

Penso che lei abbia un livello di padronanza estremamente elevato dell'argomento.

Temo che non capirò nulla. Per favore, dimmi cos'è questa bellezza sul grafico: è Python?

Un'architettura LSTM? È possibile mostrare una cosa del genere su MT5?






Anche in questo caso, come si normalizzano i prezzi. Cos'è "ante" In generale, tutto ciò che non è un segreto commerciale, per favore condividetelo).

Naturalmente si tratta di python. In µl5 per selezionare i dati in base a una condizione, bisogna fare un'enumerazione e tutto ciò che è iff iff iff iff. In python basta una riga per selezionare i dati in base a qualsiasi condizione. Non sto parlando della velocità del lavoro. È troppo comodo. Mcl5 è necessario per aprire operazioni con una rete già pronta.

La normalizzazione è la più comune. Meno la media, divisa per la deviazione standard. Il segreto commerciale qui è il periodo di normalizzazione, è importante affrontarlo in modo che i prezzi siano intorno allo zero per 10 anni. Ma non in modo che all'inizio dei 10 anni siano sotto lo zero e alla fine siano sopra lo zero. Non è questo il modo di confrontare...

Due periodi di prova - ante e test. L'ante prima del periodo di formazione è di 6 mesi. È molto conveniente. L'ante è sempre lì. E il test è il futuro, non esiste. Cioè, c'è, ma solo nel passato. E nel futuro non c'è. Cioè, non c'è.

 
Evgeniy Scherbina #:

Quale pensate sia più importante: l'architettura o i dati di input?

 
Ivan Butko #:

Secondo lei, cosa è più importante: l'architettura o i dati di input?

Penso che i dati in ingresso. Qui sto provando con 6 caratteri, non 10. E non sto superando il periodo di controllo agosto-dicembre 2023. Separatamente, è anche difficile. E il passaggio a 10 caratteri può essere legittimamente scelto in base ai risultati dell'addestramento. La rete è sempre ricorrente in 1 strato di 32 stati, viene utilizzato solo il full-link.

 

Alcuni riassunti:

Non parlo a nome di tutto il MO, le conclusioni sono puramente nel contesto di questo thread, vale a dire da anni di test e di selezione di reti neurali semplici, spesso MLP.

Quindi:
  • più ingressi - peggio è
  • più neuroni, peggio.
  • più strati, peggio.
  • più l'architettura è complessa, peggio è


Per tutto il ramo e oltre, i risultati migliori sono stati ottenuti con un semplice perceptron singolo con uno o due ingressi (a seconda delle specifiche).

Tutto ciò che ho trovato "funzionante" sotto forma di insiemi si è rivelato una ripetizione nella forma peggiore dei risultati dei progetti più semplici.




Mi sono reso conto che avevo appena trovato un modello algoritmico mentre analizzavo vari dati di input, rispondendo in parte alla domanda del mio ramo: "Cosa dare in ingresso alla rete neurale?". Ma la rete neurale si è rivelata inutile. Né MLP, né RNN, né LSTM, né BiLSTM, né CNN, né Q-learning, né tutte queste combinazioni e miscele.

Di conseguenza, il grafico è descritto il più delle volte da un singolo numero. E cosa fare con questo numero, che esprime la situazione/modello/figura/evento sul grafico, è questione di un semplice algoritmo con una soglia di apertura (più di 0,6 - comprare e viceversa). In entrambi i casi il numero assume valori compresi tra -1 e 1.

Come dati di input, tra tutti quelli testati (che sono riuscito a implementare), entrambi possono funzionare più a lungo, sia nel passato che nel futuro: ho sempre ottimizzato per un anno: 2021-2022 su H1 EURUSD, e poi ho testato i set su tutto lo storico.

Non appena il grafico ha mostrato qualche segno di vita nel backtest a 20 anni, ho ottimizzato il set per un periodo più lungo: 2012-2021, 9 anni.


In uno di questi esperimenti ho ottimizzato 2 ingressi su 3 neuroni. Come risultato, uno dei set superiori ha mostrato la seguente immagine



* ******* **************



UPD Ecco un altro set, la stessa cosa: al centro l'ottimizzazione, ai lati i risultati. Quasi lo stesso, solo più uniforme






**********************

I trade non sono pips o scalp. Piuttosto intraday.










Quindi, le mie conclusioni soggettive per il momento attuale:

  • La rete neurale è applicabile solo a modelli statici e stazionari che non hanno nulla a che fare con i prezzi.
  • La rete neurale memorizza il percorso. Non più di questo.
  • Ci sono delle regolarità. Sono semplici. Più semplici di quanto noi le complichiamo freneticamente.
  • I modelli sono nella geometria. Le candele funzionano solo se non ci sono spread e commissioni.
  • GLI OSCILLATORI SONO IL MALE! Lavano via completamente le informazioni sul mercato, le offuscano, le spalmano e le rendono francamente rumorose. Inoltre, il rumore qui è nel contesto - reale!
    Non ho mai visto risultati peggiori di quelli ottenuti con gli indicatori di smoothing in vita mia. È come se una persona vedente diventasse cieca. Poco fa vedeva una sagoma chiara e ora non riesce a capire cosa: una macchia negli occhi. Nessuna informazione.



La mia opinione, per come la vedo io
 
Ivan Butko #:
La rete neurale è applicabile solo a modelli statici e stazionari che non hanno nulla a che fare con la determinazione dei prezzi.

Che tipo di pre-elaborazione e normalizzazione fate? Avete provato a standardizzare?


I van Butko #: La rete neurale ricorda il percorso. Non più di questo.

Provate i trasformatori, dicono che facciano bene....



I van Butko #: Gli oscillatori sono il male!

Beh, non tutto è così univoco. È solo che NS è comodo per lavorare con funzioni continue, ma abbiamo bisogno di un'architettura che lavori con funzioni parziali/intervallate, quindi NS sarà in grado di prendere gli intervalli degli oscillatori come informazioni significative.

 
Aleksey Vyazmikin #:

Che tipo di pre-elaborazione e normalizzazione fate? Avete provato a standardizzare?

Provate i trasformatori, dicono che facciano bene....


Beh, non tutto è così chiaro. È solo che NS è comodo per lavorare con funzioni continue, ma abbiamo bisogno di un'architettura che lavori con funzioni parziali/intervallate, quindi NS sarà in grado di prendere gli intervalli degli oscillatori come informazioni significative.



1. E quando come: se nella finestra dei dati, alcuni incrementi, porto l'intervallo -1..1. Non ho sentito parlare di standardizzazione 2.

Accettato, grazie 3. Sono d'accordo, non ho una prova completa del contrario.


Per questo scrivo dal mio campanile, come vedo e immagino approssimativamente. Il semplice smoothing è una cancellazione di fatto dell'informazione. Non generalizzazione. Cancellazione appunto. Pensate a una fotografia: appena ne degradate il contenuto, l'informazione è irrimediabilmente persa. E ripristinarla con l'intelligenza artificiale è un'impresa artistica, non un vero e proprio restauro. È un ridisegno arbitrario.

"Smoothing: quando un numero è il risultato di due unità informative indipendenti: il pattern -1/1, ad esempio, e il pattern -6/6. Il valore medio di ciascuno sarà lo stesso, ma in origine c'erano due modelli. Possono avere o meno un significato, possono significare segnali opposti.




E qui ci sono mashki, oscillatori e così via: cancellano/ offuscano stupidamente il "quadro" iniziale del mercato. E in questo "imbrattamento" spaventiamo il NS, facendogli cercare all'infinito di lavorare come dovrebbe. La generalizzazione e lo smoothing sono fenomeni eterogenei estremamente ostili.

 
Ivan Butko #:

Alcuni riassunti:

Non parlo a nome di tutto il MO, le conclusioni sono puramente nel contesto di questo thread, vale a dire da anni di test e di selezione di reti neurali semplici, spesso MLP.

Quindi:
  • più ingressi - peggio è
  • più neuroni, peggio.
  • più strati, peggio.
  • più l'architettura è complessa, peggio è


Per tutto il ramo e oltre, i risultati migliori sono stati ottenuti con un semplice perceptron singolo con uno o due ingressi (a seconda delle specifiche).

Tutto ciò che ho trovato "funzionante" sotto forma di insiemi si è rivelato una ripetizione nella forma peggiore dei risultati dei progetti più semplici.




Mi sono reso conto che avevo appena trovato un modello algoritmico mentre analizzavo i vari dati di input, rispondendo in parte alla domanda del mio ramo "Cosa dare in ingresso alla rete neurale?". Ma la rete neurale si è rivelata inutile. Né MLP, né RNN, né LSTM, né BiLSTM, né CNN, né Q-learning, né tutti questi combinati e mescolati.

Di conseguenza, il grafico è descritto il più delle volte da un singolo numero. E cosa fare con questo numero, che esprime la situazione/modello/figura/evento sul grafico, è questione di un semplice algoritmo con una soglia di apertura (più di 0,6 - comprare e viceversa). In entrambi i casi il numero assume valori compresi tra -1 e 1.

Come dati di input, tra tutti quelli testati (che sono riuscito a implementare), entrambi possono funzionare più a lungo, sia nel passato che nel futuro: ho sempre ottimizzato per un anno: 2021-2022 su H1 EURUSD, e poi ho testato i set su tutta la storia.

Non appena il grafico ha mostrato qualche segno di vita nel backtest a 20 anni, ho ottimizzato il set per un periodo più lungo: 2012-2021, 9 anni.


In uno di questi esperimenti ho ottimizzato 2 ingressi su 3 neuroni. Come risultato, uno dei set superiori ha mostrato la seguente immagine



* ******* **************



UPD Ecco un altro set, la stessa cosa: al centro l'ottimizzazione, ai lati i risultati. Quasi lo stesso, solo più uniforme






**********************

I trade non sono né pips né scalp.










Le mie conclusioni sono soggettive al momento:

  • La rete neurale è applicabile solo a pattern statici e stazionari, che non hanno nulla a che fare con il pricing.
  • La rete neurale memorizza il percorso. Non più di questo.
  • Esistono delle regolarità. Sono semplici. Più semplici di quanto noi le complichiamo freneticamente.
  • I modelli sono nella geometria. Le candele funzionano solo se non ci sono spread e commissioni.
  • GLI OSCILLATORI SONO IL MALE! Lavano via completamente le informazioni sul mercato, le offuscano, le spalmano e le rendono francamente rumorose. Inoltre, il rumore qui è nel contesto - reale!
    Non ho mai visto risultati peggiori di quelli ottenuti con gli indicatori di smoothing in vita mia. È come se una persona vedente diventasse cieca. Poco fa vedeva una sagoma chiara e ora non riesce a capire cosa: una macchia negli occhi. Nessuna informazione.



Il mio imho, per come la vedo io

non è un pifferaio debole.

È il momento di cucire le borse?