Galateo del mercato o buone maniere in un campo minato - pagina 14

 
Neutron >> :

Questo è il più grande errore di tutti. Il mercato vi punirà per la vostra insolenza!

Si può giocare solo con il mercato e secondo le sue regole. E se il gioco gli piace, vi ricompenserà.

Sta attribuendo qualità personali al mercato, e con la lettera maiuscola? :)

Il mercato è una natura selvaggia, l'analogia con l'oceano mi sembra abbastanza appropriata.

 

Stavo scherzando:-)

So che il mercato è solo un processo casuale e da qualche parte quasi stazionario. E il compito di TS si riduce a trovare e sfruttare una qualche parvenza di stazionarietà.

sealdo писал(а) >>

Mi chiedo se c'è un modo per calcolare gli obiettivi (TP, SL) per esempio dalla volatilità di "giorni", "settimane", o altro, in modo che possano cambiare dolcemente con il mercato.

Questi valori caratterizzano il mercato e possono essere valutati solo eseguendo il TS sulla storia.
 
Neutron >> :

Stavo scherzando:-)


Ci sono un sacco di ragazzi seri qui! Sto solo scherzando... >>:)

Neutron, ho alcune domande su ORO. Ho capito bene che quando un valore di errore viene immesso in un neurone, esso divide questo errore tra tutti i pesi dei suoi ingressi, secondo la loro quota nella somma totale di questi pesi?

Cioè, prendiamo il valore dell'errore +/- Er, poi sommiamo tutti i pesi delle sinapsi in entrata Sw1 = SUM(w1+w2+w3+... wn) e calcoliamo la proporzione (nel peso totale) di ciascuna di esse

Dw1 = w1/(Sw1/100) e poi distribuire +/-Er tra tutti i pesi secondo la loro proporzione nel peso totale: wi = wi +/- Dwi *Er è corretto? Se sì, è possibile rendere questa distribuzione non lineare, ma diciamo esponenziale? Dopo tutto, nei sistemi viventi i "bonus" e gli "schiaffi", cioè gli errori e i bonus non sono distribuiti tra i "primi" e gli "ultimi" in modo affatto lineare.

Seconda domanda:

Da dove viene il valore di errore? Qual è il segno di questo valore? Il valore della perdita della transazione precedente può essere un "valore di errore"?

 
paralocus >> :

Ho capito bene che quando un valore di errore viene immesso in un neurone, esso divide questo errore tra tutti i pesi dei suoi ingressi, secondo la loro quota nella somma totale di questi pesi?

No, non lo divide - lo distribuisce. E lo fa non perché qualcuno lo vuole, ma come risultato della minimizzazione della funzione obiettivo.

Alla luce di questo...

Se è così, è possibile rendere questa distribuzione non lineare, ma, diciamo, esponenziale? Dopo tutto, nei sistemi viventi i "bonus" e gli "schiaffi", cioè gli errori e i bonus sono distribuiti tra i "primi" e gli "ultimi" in modo per nulla lineare.

È probabile che questo presupposto porti a un apprendimento più lento o a una discrepanza nell'errore totale.

 
TheXpert >> :

No, non lo fa - si propaga. E lo fa non perché qualcuno lo vuole, ma come risultato della minimizzazione della funzione obiettivo.

Alla luce di questo...

È probabile che questo presupposto porti a un apprendimento più lento o a una discrepanza nell'errore totale.

La prevedibilità aumenterà?

 
paralocus писал(а) >>

Neutron, ho delle domande su ORO. Ho capito bene che quando un valore di errore viene immesso in un neurone, esso divide questo errore tra tutti i pesi dei suoi ingressi, secondo la loro quota nella somma totale di questi pesi?

Cioè, prendiamo il valore dell'errore +/- Er e poi sommiamo tutti i pesi delle sinapsi d'ingresso Sw1 = SUM(w1+w2+w3+... wn) e calcoliamo la quota (nel peso totale) di ciascuna di esse

Dw1 = w1/(Sw1/100) poi distribuire +/-Er tra tutti i pesi in base alla loro quota nel peso totale: wi= wi +/- Dwi *Er è vero? Se sì, è possibile rendere questa distribuzione non lineare, ma diciamo esponenziale? Dopo tutto, nei sistemi viventi i "bonus" e gli "schiaffi", cioè gli errori e i bonus non sono distribuiti tra i "primi" e gli "ultimi" in modo affatto lineare.

Seconda domanda:

Da dove viene il valore dell'errore in primo luogo? Qual è il segno di questo valore? Il valore di una perdita in una transazione precedente può servire come "valore di errore"?

No, non è così.

Consideriamo non un comitato a griglia come il tuo, ma una normale griglia a due strati. Poi si può generalizzare.

Avete un vettore di segnali d'ingresso (che sia unidimensionale) di lunghezza n campioni, e lasciate che n+1 campioni siano un controllo della qualità della formazione della griglia. Gli dai questo vettore(n campioni), equiparando tutti i pesi a valori casuali nell'intervallo +/-1 con distribuzione di densità di probabilità uniforme, e vedi l'output della griglia. Supponiamo di impostare +5,1, e di controllare i conteggi n+1(il valore a cui dovrebbe aspirare la griglia addestrata sul vettore di addestramento) +1,1. Poi si prende la differenza tra il valore ottenuto e il desiderato +4 e si aggiunge questo valore, mantenendo il suo segno ad ogni peso del neurone di uscita (se è senza FA), oppure si trova la derivata di FA da questo valore e la si aggiunge ai pesi del neurone di ingresso (se ha FA). E così via.

Se digerite questo pezzo, vi dirò come spingere ulteriormente l'errore ai pesi di ingresso del primo strato (di ingresso).

 
Neutron >> :

No, non lo è.

Non preferiresti farlo in formule? La matematica qui non è complicata.

paralocus >> :

La prevedibilità aumenterà?

Improbabile.

 
TheXpert >> :

No, non lo fa - si propaga. E lo fa non perché qualcuno lo vuole, ma come risultato della minimizzazione della funzione obiettivo.

Alla luce di questo...

È probabile che questo presupposto porti a un apprendimento più lento o a una discrepanza nell'errore totale.

E perché dovrebbe esserci una discrepanza nell'errore totale se Er = e(w1*x) + e(w2*x) + ... e(wn*x)? No, l'errore cumulativo sarebbe uguale all'errore in entrata.

 
TheXpert писал(а) >>

Non preferiresti farlo in formule? La matematica qui non è complicata.

Potete cercare le formule da soli nella letteratura, di cui c'è molto su Internet.

Non siamo troppo precipitosi. E non cercate di complicarvi la vita con ogni sorta di espedienti, come "l'apprendimento non lineare" e simili, viene dal maligno. Bellezza e affidabilità in semplicità e armonia!

 
Neutron >> :

Se digerite questo pezzo, vi dirò come spingere l'errore ai pesi di ingresso del primo strato (di ingresso) dopo.

Andare a fare la birra...