L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 245

 
Andrey Dik:
Io dico di semplificare, generalizzare, ma tu lo rendi più complicato e dettagliato.

È così che si fa molto spesso. Si usano criteri di informazione, per esempio Akaika.

Il punto è questo.

La complessità del modello è penalizzata. Come risultato dell'ottimizzazione, viene scelto un modello che non è il più accurato ma è più semplice.

Ora facciamo un esempio.

Prendiamo un campione di più di 5000 barre EURUSD su H1. Costruiamo una foresta casuale. Impostare il numero massimo di alberi = 500. Vediamo un grafico dell'errore di adattamento in funzione del numero di alberi. Sembra che l'errore di adattamento cambi molto poco dopo 100 alberi. Inoltre, aumentando il campione non aumenta il numero di alberi. E gli alberi sono i modelli desiderati. Cioè EURUSD su H1 contiene circa 100 pattern. Ma il modello è quasi sempre sovrallenato.

Se noi grossolanizziamo il modello, prendiamo e riduciamo radicalmente il numero massimo di alberi, per esempio 10, può aiutare a combattere l'overtraining.

 
SanSanych Fomenko:


Se si coarta il modello, prendere e ridurre drasticamente il numero massimo di alberi, ad esempio 10, può aiutare a combattere il sovrallenamento.

Con la foresta, il sovrallenamento non viene dal numero di alberi, ma dalla loro profondità illimitata (complessità del modello), il numero riduce la variazione, e il sovrallenamento è baes
 
Ilproblema è:
Con la foresta, il sovrallenamento non viene dal numero di alberi, ma dalla loro profondità illimitata (complessità del modello), il numero riduce le opzioni, e il sovrallenamento è baes
tutto si riduce a una divisione 50/50 ... una perdita di tempo.
 

Quello che mi chiedo è.

1. A cosa si riduce l'addestramento di una rete neurale in algotrading?

2. Quali parametri delle dinamiche di mercato vengono utilizzati nella formazione?

3. Oltre a riconoscere i modelli sulla storia, la rete può "imparare" il carattere specifico del cambiamento di valore del parametro al momento attuale e reagire su di esso?

(per esempio, un aumento brusco simile a un'onda o una caduta morbida).

 

Credo che la natura del cambiamento attuale del valore del parametro non sia riconoscibile dalla rete... Improbabile.

E questo sembra promettente per la previsione. Dopo tutto, sarebbe sufficiente ricordare le transizioni di questi cambiamenti per poterle prevedere in seguito.

 
Itum:
tutto si riduce a una moneta 50/50 ... una perdita di tempo.

No, c'è un po' di età. La metterò semplicemente: si può estrarre molto di più con il MO che con qualsiasi altro modo, compresa "l'intuizione", ci sono modelli nel mercato, con il MO che li estrae più efficacemente.

 
Vizard_:

Ieri sono riuscito a malapena a superare lo 0,69 (0,68999). Questo è tutto, mi sono divertito.


È fantastico!

Tuttavia, d'accordo che 0,69 è il muro che i mezzi standard può solo graffiare, mi arrende che non è nella profondità di neuronet e non il numero di alberi nella foresta, quelli che sono sotto 0,6, ci sono alcuni trucchi che non sappiamo e questo è in realtà molto motivante per non rilassarsi bun))

 
..:

Fico!

Tuttavia, concordate che lo 0,69

Qual è questa cifra? Dove posso vederlo?
 
SanSanych Fomenko:
Qual è la cifra? Dove posso vederlo?
loglos su numer.ai
 

Come persona molto indirettamente legata al MoD, non interferisco nella discussione, ma mi permetto di esprimere un'opinione dal mio "campanile".

Una normale rete neurale multistrato è composta da neuroni. La funzione di attivazione di un neurone è una funzione monotona che cresce da -1 a 1 (o da 0 a 1, qualunque cosa). Al valore minimo di input questa funzione dà il risultato minimo, al valore massimo dà il risultato massimo.

Addestriamo una rete neurale con N ingressi su qualche segmento (nuvola di input) in uno spazio N-dimensionale. La rete neurale non ha idea di cosa fare con i dati che si trovano al di fuori di questa nuvola. Ma lo alimentiamo con quei dati e ci aspettiamo che produca qualche risultato.


Tag Konow:

3. Oltre a riconoscere i modelli sulla storia, la rete può "imparare" la natura specifica del cambiamento del valore di un parametro in un dato momento e reagire ad esso?

(per esempio, un'impennata brusca come un'onda o una caduta morbida).

Credo che la rete non riconosca la natura del cambiamento attuale del valore del parametro... Improbabile.

Questo sembra promettente per la previsione. Dopo tutto, sarebbe sufficiente ricordare le transizioni di questi cambiamenti per poterli anticipare in seguito.

Diciamo che c'è stata una situazione anomala nel mercato e c'è stato un picco nel prezzo. Oppure il NS, addestrato sui volti umani, riceve come input un'immagine di occhiali colorati. I neuroni diventano sovraeccitati e la loro uscita va molto a sinistra o a destra del ramo sigmoideo. Significa che all'uscita NS otteniamo un segnale imprevedibile ma molto forte.

Se ci sono tali picchi nel campione di allenamento (per esempio, l'1% di tutti i dati), l'algoritmo backprop "allenta" tutti i pesi, mentre il NS non ha il tempo di "imparare" nulla, ma le sue prestazioni sono degradate sul 99% dei dati "normali".

Sarebbe molto meglio non "bloccare" il NS in requisiti impossibili, ma insegnargli a difendersi da input "anomali". E qui abbiamo, IMHO, due opzioni.

1. Introdurre uno o più strati di neuroni con una funzione di attivazione a forma di curva gaussiana invece di una sigmoide. Un tale neurone produrrà un risultato vicino a 1 nella gamma limitata di ingressi, e vicino a 0 sul resto dell'asse numerico.

2) Cambiare l'interpretazione delle uscite NS. Invece della solita interpretazione binaria (0 - nessun segnale commerciale, 1 - segnale commerciale) proponiamo la seguente interpretazione: 0 - nessun segnale, 0,5 - c'è un segnale, 1,0 - nessun segnale. In caso di movimenti di prezzo inaspettati, l'output di NS sarà vicino a uno dei valori estremi - 0 o 1, e non produrrà falsi segnali.

Rispettabili esperti, c'è qualche menzione di queste cose nella letteratura MO e la trovate utile? I commenti sono benvenuti.