Reti neurali ibride. - pagina 4

 
joo >> :

a dentraf

MQL4

a IlyaA

Sì, lo so. E anche circa 200-300 libri di autori diversi. Ma ho pensato che padroneggerò NN e GA per conto mio più velocemente che leggere questa biblioteca. E così è andata a finire. Più veloce.

Per padroneggiare intendo l'applicazione pratica, non la familiarità con la terminologia.


poi Haykin p. 330, capitolo 4.19 Ho una buona padronanza di questa cosa. Ci prenderai la mano in poco tempo.
 
joo >> :

Vorrei consigliarvi anche su questo. Iniziate una popolazione supplementare in cui mettete i migliori individui di ogni epoca (io la chiamo "Epoch Gene Pool" o GE). Quando ci si accoppia, prendere individui dalla popolazione attuale e dal GE. Questo riduce drasticamente il numero di partenze ff. Questo metodo non deve essere confuso con la selezione dell'élite.


Andiamo al fondo della traversata. Ho scelto il mio per probabilità, che riflette quanto questo perceptron ha fatto meglio degli altri. Di conseguenza, il migliore ha l'80% di possibilità di partecipare ad ogni coppia e il peggiore ha il 20% di possibilità. È così che vivono. Cosa si intende con il vostro metodo di popolazione supplementare.
 
IlyaA >> :
>>Grazie. >> Molto dettagliato. Fondamentalmente sì, se hai già eseguito l'algoritmo diverse volte con diversi parametri, allora usa i risultati. Così 200... Va bene, continuiamo così. Poi il prossimo punto. Dovremmo cercare il "falso" redditizio (combinazione di candele e indicatori) cercandolo non con i nostri occhi ma con il perceptron. Lasciamo che costruisca gruppi linearmente separabili per noi. Criteri di ricerca Profit => max. Fermarsi a volontà. Poi analisi dei pesi e identificazione della "finta". Poi un normale indicatore e sistema di trading. Abbastanza complicato, ma questo a prima vista. Armeggiare con le bilance è molto interessante (almeno per me). Domanda :) Devo eseguire la storia per 5 anni su candele + indicatori (opzionale) attraverso ogni individuo, e ci sono ora 200 su ogni popolazione. Questo è un consumo di risorse ENORME, inoltre non sappiamo quando ci fermeremo. Cerchiamo di riformulare il problema o comunque di preservare la proprietà più importante di questo progetto - il rilevamento di un "fink" da parte di una macchina.

5 anni su quale TF? Se M1, sì, molto tempo. Se W1, molto veloce.

Non c'è bisogno di fare un wunderkind della rete e cercare di insegnare alla rete tutti i momenti storici (fenomeni redditizi). La maggior parte di loro non accadrà mai più, beh, almeno il 99%.

Considero 1000-3000 barre di storia come ottimale. Per riqualificare quando l'errore durante il funzionamento sale oltre il livello specificato. Anche se sul numero di esempi (barre), ci sono opinioni diverse, forse ora ci sono persone che si oppongono a questo problema.

 
joo >> :

5 anni su quale TF? Se M1, sì, molto tempo. Se W1, allora molto veloce.

Non c'è bisogno di fare un wunderkind della rete e cercare di insegnare alla rete tutti i momenti storici (fenomeni redditizi). La maggior parte di loro non accadrà mai più, beh, almeno il 99%.

Ritengo che 1000-3000 barre di storia siano ottimali. Per riqualificare quando un errore durante il funzionamento sale al di sopra di un livello specificato. Anche se il numero di esempi (barre), ci sono opinioni diverse, forse ora ci sono persone che sono oppositori su questo tema.


Beh, credo che inizierò io. Perché suggerisco molti bar? Perché (auto chiesto, auto risposto) come è stato giustamente notato, la maggior parte dei fennecks sono usa e getta e la rete può 'taccheggiare'. E si rivelerà come al solito, sull'intervallo che viene testato il cioccolato, su tutti gli altri - nutrire per il sostentamento. Il mio suggerimento è che il miglior filtro per i momenti usa e getta è quello di integrarli. La griglia avrà una migliore possibilità di isolare il fink ripetitivo. Qual è la tua idea?
 
gumgum >> :

Ieri ho scritto una griglia 10-15-10-1

>> andare avanti...


Avete controllato il perceptron per un apprendimento eccessivo (overlearning, cogging)?
 
IlyaA >> :


Poi Haykin p. 330, capitolo 4,19 Possiedo bene questa cosa. Ci prenderai la mano in poco tempo.

Non ho ancora tempo di leggere, forse lo farò. Grazie.

IlyaA ha scritto (a) >>.

Scopriamo l'essenza degli incroci. Ho scelto il mio per probabilità, che riflette quanto questo perceptron ha fatto meglio degli altri. Di conseguenza, il migliore ha l'80% di possibilità di partecipare ad ogni coppia e il peggiore ha il 20% di possibilità. È così che vivono. Cosa si intende con il vostro metodo di popolazione supplementare.

Sì. La prole di questi genitori viene introdotta nella nuova popolazione. I rimanenti individui muoiono ignominiosamente senza aver mai sperimentato l'amore. :)

Ecco la fregatura! Non sappiamo se ci fosse qualche esemplare decente tra i morti. Che importa se sembrano dei mostri, potrebbero aver prodotto una nuova generazione forte.

Affrontate la questione GA come se steste cercando di allevare un cigno dalle mosche di Drosophila.

L'algoritmo è questo:

1 Creare una popolazione di individui casuali (la maggior parte dei quali sono brutti).

2 Abbiamo determinato l'adattabilità.

Tre, abbiamo replicato la popolazione nel pool genetico

4 Incrociare individui della popolazione e del pool genetico (selezionando da lì e lì).

5 Collocare i nuovi individui nella nuova popolazione

6 Determinare l'idoneità di ogni individuo

7 Prendere gli individui migliori dalla vecchia popolazione e dalla nuova popolazione e metterli nel pool genetico se sono migliori di quelli nel pool genetico (sostituire)

8 Ha sostituito la vecchia popolazione con individui della nuova popolazione.

9 ripetere con p4

e così via, fino a quando il meglio del meglio del pool genetico smette di apparire.

 
Merda, mentre io scrivo il post, tu ne scrivi tre, calmati un po' :)
 
joo >> :

Non ho ancora tempo di leggere, forse lo farò. Grazie.

Sì. La prole di questi genitori viene introdotta nella nuova popolazione. Il resto muore ignominiosamente senza mai sperimentare l'amore. :)

Questa è la parte difficile! Non lo sappiamo, forse c'erano individui degni tra quelli che sono morti? Che importa se sembrano brutti, potrebbero aver dato vita a una nuova generazione forte.

Affrontate la questione GA come se steste cercando di allevare un cigno dalle mosche di drosofila.

L'algoritmo è questo:

1 Creare una popolazione di individui casuali (la maggior parte dei quali sono brutti).

2 Abbiamo determinato l'adattabilità.

Tre, abbiamo replicato la popolazione nel pool genetico

4 Incrociare individui della popolazione e del pool genetico (selezionando da lì e lì).

5 Collocare i nuovi individui nella nuova popolazione

6 Determinare l'idoneità di ogni individuo

7 Prendere gli individui migliori dalla vecchia popolazione e dalla nuova popolazione e metterli nel pool genetico se sono migliori di quelli nel pool genetico (sostituire)

8 Ha sostituito la vecchia popolazione con individui della nuova popolazione.

9 ripetere con p4.

e così via fino a quando non emerge niente di meglio del meglio del pool genetico.




Ok. Aspetterò e vedrò :) Questo è molto simile al ray-finding. Ho confrontato le prestazioni dell'algoritmo ray-finding con l'incrocio probabilistico. I risultati sono stati migliori (meno popolazioni) con l'incrocio probabilistico. Tuttavia, se lo usi c'è un'alta probabilità che funzioni bene. Devi fare un esperimento. Come la vedi tu. Diciamo su XOR?
 
IlyaA >> :


Beh, credo che inizierò io. Perché suggerisco un sacco di bar? Perché (auto chiesto, auto risposto) come è stato giustamente notato, la maggior parte dei fenek sono usa e getta e la rete può "roteare". E si rivelerà come al solito, sull'intervallo che viene testato il cioccolato, su tutti gli altri - nutrire per il sostentamento. Il mio suggerimento è che il miglior filtro per i momenti usa e getta è quello di integrarli. La griglia avrà una migliore possibilità di isolare il fink ripetitivo. Qual è la tua idea?

Pensate a NN come se pensaste al vostro cervello. Come farete a "integrare" questo? Immaginate di conoscere la pittura. Forse lo sei davvero.

Bene, conoscete le tecniche caratteristiche dei maestri famosi (fiche redditizie). Ora incolla il lavoro di tutti i famosi maestri in photoshop in un solo livello. Conosci qualche trucco dell'artista conosciuto? Ne dubito. Anche NN lo fa.

 
joo >> :

Pensate a NN come se pensaste al vostro cervello. Come farete a "integrare" questo? Immaginate di conoscere la pittura. Forse lo sei davvero.

Quindi, conoscete le tecniche caratteristiche dei maestri famosi (chips redditizie). Ora incolla il lavoro di tutti i famosi maestri in photoshop in un solo livello. Troverai un solo trucco di un autore famoso che conosci? Ne dubito. Anche NN lo fa.


Cos'è il rumore di integrazione? (Di nuovo, ho chiesto e risposto:) Avete una variabile casuale m(t) che è uniformemente distribuita su intervalli [-1; 1]. Corrispondentemente l'aspettativa = 0. È fantastico. Abbiamo anche un segnale s(t) di configurazione complessa. L'ampiezza del segnale e del rumore hanno valori comparabili. Il problema è estrarre s(t) da s(t) + m(t) a condizione che s(t) + m(t) possa essere ripetuto un numero illimitato di volte. L'interferenza sarà ogni volta nuova, la curva del segnale sarà molto diversa da quella precedente. Il metodo è sorprendentemente semplice: trovare il valore medio del segnale s(t) + m(t) su 1000 ripetizioni. In questo caso il disturbo che aveva 0 aspettative matematiche è stato integrato e rimosso. Più volte possiamo fare la media del segnale s(t) + m(t), meno interferenze rimarranno. Ecco di nuovo la mia idea in modo più dettagliato.

Per limitare la rete a scoprire tutte le caratteristiche alla volta (chiamiamolo effetto astrattismo), ridurremo il numero di neuroni, ottenendo così un vantaggio nella capacità di generalizzazione della rete e l'impossibilità per il perceptron di imparare una grande quantità di materiale. Puntiamo la rete a trovare solo una, ma la cosa più redditizia nei dati. Cosa ne pensate?