Galateo del mercato o buone maniere in un campo minato - pagina 11

 
Neutron >> :

Proprio così.

Ma, l'ingresso di ogni perseptron ha un ingresso aggiuntivo separato per un offset costante +1. Questo accelera l'apprendimento e aumenta la potenza della griglia.

O, se non si conta lo strato di ingresso, allora con tutto ciò che è stato detto:



Se ci sono errori, si prega di correggerli.

 
Neutron >> :

Proprio così.

Ma, l'ingresso di ogni perseptron ha un ingresso aggiuntivo separato per un offset costante +1. Questo accelera l'apprendimento e aumenta la potenza della rete.

È come un espediente che sostituisce la soglia dei neuroni senza aumentare il numero di parametri configurabili? Fico, è la prima volta che lo vedo ma mi piace :)

 

E dov'è il bias costante all'ingresso di ogni neurone?

paralocus писал(а) >>

Per quanto ho potuto capire, la figura mostra l'architettura NS ottimale per il mercato.

Questa è la mia comprensione. Forse non è vero. Ma i risultati degli esperimenti numerici confermano questa affermazione.

Il numero di ingressi è 12 e il numero di sinapsi è 4 quindi con la formula Popt=k*w*w/d otteniamo 144/4 = 36... Sono 36 barre? O 36 vicino a situazioni di acquisto/vendita? Ho capito bene?

Considerate attentamente: numero di tutte le sinapsi nella vostra architettura: w=12+4=16.

Numero di ingressi: d=3 (non 4*3, ma solo 3).

La lunghezza ottimale del campione di allenamento: Popt=k*w*w/d =4*16*16/3=340 campioni per serie temporale (si hanno 4 campioni per ogni neurone di ingresso). Possono essere barre o valori di indicatori, o possono essere campioni transazionali e sta a voi decidere quale sia meglio per aumentare la prevedibilità... Ricordate che la prevedibilità fa parte del tasso di rendimento MTS al 4° grado! Una correlazione molto forte (vedi questo argomento all'inizio).

 
paralocus писал(а) >>

Oppure, se non contate il livello di ingresso, tenete conto di tutto ciò che viene detto:

Se ci sono errori si prega di correggere.

Non capisco!

Perché non stai contando lo strato di ingresso? Non partecipa all'apprendimento e alla previsione?

È meglio avere due strati - uno strato nascosto (alias strato di input) e uno strato di output. Con questa architettura, avete w=4*4+5=21, d=4 e P=4*21*21/4=440 conteggi.

 
TheXpert писал(а) >>

È una specie di espediente che sostituisce la soglia dei neuroni senza aumentare il numero di parametri che possono essere regolati?

FION ha scritto >>.

Capisco. L'offset costante sposta semplicemente il punto di attivazione sulla curva ipertangente leggermente.

Generalmente corretto, ma per essere precisi, quando un altro lotto di dati arriva all'ingresso NS, si implica che non è centrato (MO!=0). Ecco perché introduciamo un ulteriore ingresso costante in ogni neurone. Nel processo di addestramento, un particolare neurone seleziona un valore di peso a questo ingresso in modo da compensare un possibile spostamento dei suoi dati di ingresso. Questo permette un apprendimento statisticamente più veloce (dal centro della nuvola immaginaria).

 
Neutron >> :

E dov'è il bias costante all'ingresso di ogni neurone?

Questo è quello che penso. Questo potrebbe non essere vero. Ma i risultati degli esperimenti numerici confermano questa affermazione.

Contiamo attentamente: Numero di tutte le sinapsi nella vostra architettura: w=12+4=16

Numero di ingressi: d=3 (non 4*3, ma solo 3).

La lunghezza ottimale del campione di allenamento: Popt=k*w*w/d =4*16*16/3=340 campioni per serie temporale (si hanno 4 campioni per ogni neurone di ingresso). Possono essere barre o valori di indicatori, o possono essere campioni transazionali e sta a voi decidere quale sia meglio per aumentare la prevedibilità... Ricordate che la prevedibilità fa parte del tasso di rendimento MTS al 4° grado! Una correlazione molto forte (vedi questo thread all'inizio).

Popt=k*w*w/d, dove k è una costante adimensionale di ordine 1 e tiene conto del fatto che il mercato è volatile.

Allora in questa formula d è il numero di ingressi di un neurone dello strato nascosto, e k è il numero di neuroni nello strato nascosto? Scusate, in qualche modo trovo difficile credere che la rete possa imparare su 340 barre. È molto piccolo... Devo aver capito male qualcosa.

Finora conoscevo solo il perceptron più semplice che viene "addestrato" nel tester del terminale MT4 con un algoritmo genetico. Dovete controllare almeno una storia significativa (2 o 3 mesi). Naturalmente, capisco che il genetista non insegna nulla al perceptron, si limita a scegliere i coefficienti più adatti e lavora con un'efficacia molto bassa, poiché agisce alla cieca. Beh, non importa. Questa era una digressione lirica.


Ho capito bene che anche i singoli ingressi dovrebbero avere i loro fattori di ponderazione? E come posso "mettere in whitelist" gli ingressi? Cioè, supponiamo che io abbia RSI normalizzato per ipertangente con aspettativa fino a 0,21 in ingresso. Se faccio così: f(t) = th(RSI(i)*kf), dove kf > 1 è un coefficiente appositamente selezionato che livella la funzione di densità di probabilità al prezzo di qualche distorsione del segnale di ingresso, andrà bene o no?

Cosa sono i conteggi transazionali?

 
Neutron >> :


A proposito, per tutti gli interessati: la strategia - "bloccare le perdite e far crescere i profitti" o "bloccare i profitti e far crescere le perdite" (a seconda che il mercato sia in trend o piatto, sull'orizzonte di trading scelto) - non è ottimale quando si reinveste il capitale. In questo caso, è più redditizio fissare su ogni passo con il reinvestimento! Cioè, se abbiamo 10 transazioni redditizie continue, allora è più redditizio pagare le commissioni alle società di brokeraggio e reinvestirle, che mantenere una posizione per tutto il tempo e risparmiare sullo spread.

Questo è un paradosso, che ci porta al bernulling delle transazioni e dopo di che - all'uso effettivo dell'equazione di base del trading nella forma analitica (a differenza di Vince) senza problemi di parametrizzazione.

Questo non è tanto un paradosso quanto una proprietà della MM con reinvestimento. L'efficienza di questo MM dipende dal numero di scambi, tra le altre cose. La redditività di questo MM è la media geometrica in grado del numero di scambi. Con un piccolo numero di trade la redditività perde rispetto a un semplice MM, ma se riusciamo a sopravvivere con un gran numero di trade (play long) allora il rendimento può essere maggiore. Ma come sempre, niente è dato gratuitamente. Il prezzo da pagare è la leva asimmetrica e la sua conseguenza - un lungo periodo di basso reddito rispetto a un semplice MM.

 
paralocus писал(а) >>

Popt=k*w*w/d, dove k è una costante adimensionale di ordine 1 e rappresenta il fatto della variabilità del mercato.

Allora in questa formula d è il numero di ingressi di un neurone dello strato nascosto, e k è il numero di neuroni nello strato nascosto? Scusate, in qualche modo trovo difficile credere che la rete possa imparare su 340 barre. È molto piccolo... Devo aver capito male qualcosa.

Finora conoscevo solo il perceptron più semplice che viene "addestrato" nel tester del terminale MT4 con un algoritmo genetico. Dovete controllare almeno una storia significativa (2 o 3 mesi). Naturalmente, capisco che il genetista non insegna nulla al perceptron, si limita a scegliere i coefficienti più adatti e lavora con un'efficacia molto bassa, poiché agisce alla cieca. Beh, non importa. Questa era una digressione lirica.

Ho capito bene che anche i singoli input dovrebbero avere i loro coefficienti di ponderazione? E come possiamo "mettere in whitelist" gli input? Supponiamo che io abbia un RSI normalizzato ipertangente con un'aspettativa fino a 0,21 in ingresso. Se faccio così: f(t) = th(RSI(i)*kf), dove kf > 1 è un coefficiente appositamente selezionato che livella la funzione di densità di probabilità al prezzo di qualche distorsione del segnale di ingresso, andrà bene o no?

Cosa sono i conteggi transitori?

Paralocus, hai paura di fare un errore? Gettalo! - Provate di qua e di là, e vedete il risultato: tutto andrà a posto.

k non è il numero di ingressi dei neuroni, ma una caratteristica empirica del mercato - la sua variabilità ed è scelto nell'intervallo da 2 a 4. Se il mercato fosse stazionario, allora k potrebbe essere preso sia 10 che 20, il che significherebbe andare all'asintotica sul processo di apprendimento della rete. Purtroppo, il mercato può essere chiamato stazionario solo nella sua non stazionarietà, quindi il coefficiente dovrebbe essere preso il minimo possibile nel processo di riqualificazione di NS. Quindi otteniamo l'intervallo per k di cui sopra .

Il tuo genetista è una specie di metodo stocastico di apprendimento con elementi di discesa del gradiente (se non mi sbaglio). Non è un male, ma perde in termini di velocità di apprendimento rispetto a ORO. Abbandonare il genetista in favore della retropropagazione dell'errore - l'apprendimento sarà più efficiente e non c'è limite al numero di ingressi e sinapsi della rete.

I singoli ingressi hanno i loro coefficienti, che sono addestrati come normali e non differiscono nelle proprietà dagli altri ingressi.

Lo sbiancamento degli input è un'eliminazione delle dipendenze di correlazione tra loro. Per utilizzare questa procedura, convincetevi prima di tutto di questa correlazione.

Una transazione, è l'atto di comprare o vendere un bene sul mercato, cioè una transazione, una tangente (non nel senso criminale:-)

 
Neutron >> :

Abbandonare la genetica a favore della retropropagazione dell'errore - l'apprendimento sarà più efficiente e non c'è limite al numero di ingressi e sinapsi della rete.


Questo è tutto, mi sono arreso. Si è seduto a scrivere la griglia con ORO. Ci possono essere alcune domande sull'ETA stessa.

 
paralocus писал(а) >>

Ci possono essere alcune domande sull'ETA stessa.

Nessun problema!

A proposito, diamo un'occhiata più da vicino all'architettura della tua Rete.

Avete un comitato di tre reti bilayer indipendenti collegate da un neurone di uscita (quindi comitato). Ogni griglia del vostro comitato contiene un solo neurone in ingresso, il che è sbagliato, perché una tale architettura non differisce da un perseptron a singolo strato nella sua potenza di calcolo. Ecco perché hai tre ingressi (4 incluso il bias) invece di 12. Ancora una volta: avete creato un consiglio di amministrazione analogico, dove il presidente per votazione generale (neurone di uscita) sceglie la risposta "corretta", e ognuno dei votanti è rappresentato da un singolo neurone. Una tale architettura non fornirebbe un vantaggio commerciale. Giusto, fornire almeno due neuroni di ingresso per ogni membro del comitato, permetterà di sfruttare pienamente la proprietà di nullità di FA e aumentare notevolmente il potere predittivo del comitato.

Vedete quanto l'IA e noi abbiamo in comune... In effetti, il voto in una riunione del Komsomol non è altro che lo schema ottimale del comportamento collettivo in termini di raggiungimento più rapido dell'obiettivo al minor costo!

Si noti che l'uscita del comitato non ha una funzione di attivazione non lineare, è semplicemente un sommatore e la sua funzione è quella di prendere una decisione basata sui risultati del voto. Così, questa architettura è la più vicina alla vostra idea ed è un comitato di reti bilayer non lineari con uno strato nascosto. Il numero di neuroni nello strato nascosto può essere aumentato aumentando l'accuratezza della previsione, ma dobbiamo ricordare che la lunghezza del campione di addestramento aumenta in modo quadratico e molto presto arriva a un punto in cui l'efficienza dell'aumento incrementale diminuisce e porta addirittura alla degradazione delle capacità di previsione della rete. Dai miei esperimenti numerici, l'optimum è non più di 2-4 neroni nello strato nascosto.

Per l'architettura data, la lunghezza ottimale del campione di allenamento P=1500 campioni.

P.S. Sembra bello. Intendo la foto. Io provo piacere estetico!