Reti neurali, come padroneggiarle, da dove cominciare? - pagina 11

 
Integer >> :

Se facessi grafica e animazione 3D, scriveresti il tuo 3DStudioMAX?

Sono cose diverse...


Ti ho dato un esempio concreto... prova a cambiare la funzione di errore nel tuo programma di rete neurale preferito...


Dolcemente parlando si vuole dire che 2DMAX è uguale a Neuroshell in termini di funzioni e dimensioni del codice ????

bene, bene...

 
Solver.it писал(а) >> prova a cambiare la funzione di errore nel tuo programma di rete neurale preferito...
E non permette la seguente idea - per ottenere un profitto con questo programma, non è necessario cambiare questa funzione di errore in esso?
 
LeoV писал(а) >>
E non permette la seguente idea - per ottenere un profitto con questo programma, non è necessario modificare questa funzione di errore in esso?

Grazie a questa tua graziosa dichiarazione, ora sappiamo che non hai nessun concetto di ottimizzazione nei tuoi kinspecks dai migliori esperti di NS.
E voi a vostra volta non permettete la seguente idea - che vivete in un paese un po' diverso dal nostro,
e quindi non si dovrebbe avere un software per ottimizzare completamente la creazione e l'uso di NN?

 
Korey писал(а) >>

Grazie a questa tua graziosa dichiarazione, ora sappiamo che non hai nessun e nessuna nozione di ottimizzazione nei tuoi kinspecks da NS's finest.

:-)

 
Korey писал(а) >>

Ha capito quello che ha scritto? )))

 

Non importa come si torce il NS, qualunque cosa si dia agli ingressi, non ci sono miracoli, naturalmente!

Quindi, cosa si scopre: da un lato, più la stratificazione di NS, maggiore è il suo potere predittivo, ma non ha senso costruire più di tre strati - la griglia a tre strati è già un approssimatore universale. D'altra parte, tutto quello che fa la scatola nera chiamata NS è trovare e sfruttare i processi quasi-stazionari nel mercato. Non c'è altra soluzione. Esattamente, quasi-stazionario, non stazionario del tutto (semplicemente non ci sono tali processi sul mercato) e non non stazionario (tali processi non possono in linea di principio essere sfruttati). Ho dato sopra un link per derivare la relazione ottimale tra il numero di sinapsi NS - w, dimensione del suo ingresso - d e la lunghezza ottimale del campione di allenamento P (4 o 5 pagine dell'argomento): w^2=P*d

Quindi, maggiore è la complessità del NS, maggiore è la lunghezza del campione di allenamento che dovrebbe essere usato per il suo addestramento. Non solo la complessità dell'addestramento aumenta come P^3, ma i dati potrebbero anche essere insufficienti! Ma la trappola più grande si trova dove non te l'aspetti: i processi quasi-stazionari (quelli che il nostro NS identifica nella coalizione e poi sfrutta) hanno una vita caratteristica (a tutti, diversa da zero e più piccola di alcuni). È chiaro che su un grande campione di allenamento, c'è una maggiore probabilità di cambiamento del processo selezionato... vedi? Più breve è il campione di allenamento, meglio è - meno possibilità di essere fregati da un cambiamento nel sentimento del mercato! Qui, sembra che la risposta alla domanda "Qual è meglio - un NS a 2 strati con un breve campione di allenamento, o un potente 3 con tre università alle spalle (durante l'apprendimento, tutto è diventato inutile)?", sarà data da un semplice esperimento.

Per questo, ho lanciato tre griglie - 1,2 e 3 in Mathcad, e ho confrontato i risultati della previsione di un segno di incrementi di cotier un conteggio avanti (ho raccolto le statistiche di 100 esperimenti indipendenti). I risultati sono i seguenti:

1 - p=10% di segni indovinati correttamente (probabilità=1/2+p).

2 - 15-16%

3 - 12%

Ci sono alcuni parametri liberi qui: dimensione dell'input e numero di neuroni nello strato(i). Il primo parametro era lo stesso per tutte le architetture, il secondo è stato scelto personalmente. Vediamo che la griglia NS a 3 strati non è una panacea, e forse per noi trader, l'opzione migliore per l'unità analitica MTS è una griglia a due strati - dal punto di vista della massima precisione di previsione e dei requisiti minimi per la complessità della formazione (potenza della RS, grande storia e sua non crescita).

 
Neutron писал(а) >>

Non importa come si torce il NS, qualunque cosa si dia agli ingressi, non ci sono miracoli, naturalmente!

Quindi, cosa si scopre: da un lato, più la stratificazione di NS, maggiore è il suo potere predittivo, ma non ha senso costruire più di tre strati - la griglia a tre strati è già un approssimatore universale. D'altra parte, tutto quello che fa la scatola nera chiamata NS è trovare e sfruttare i processi quasi-stazionari nel mercato. Non c'è altra soluzione. Esattamente, quasi-stazionario, non stazionario del tutto (semplicemente non ci sono tali processi sul mercato) e non non stazionario (tali processi non possono in linea di principio essere sfruttati). Ho dato sopra un link per derivare la relazione ottimale tra il numero di sinapsi NS - w, dimensione del suo ingresso - d e la lunghezza ottimale del campione di allenamento P (4 o 5 pagine dell'argomento): w^2=P*d

Quindi, maggiore è la complessità del NS, maggiore è la lunghezza del campione di allenamento che dovrebbe essere usato per il suo addestramento. Non solo la complessità dell'addestramento aumenta come P^3, ma i dati potrebbero anche essere insufficienti! Ma la trappola più grande si trova dove non te l'aspetti: i processi quasi-stazionari (quelli che il nostro NS identifica nella coalizione e poi sfrutta) hanno una vita caratteristica (a tutti, diversa da zero e più piccola di alcuni). È chiaro che su un grande campione di allenamento, c'è una maggiore probabilità di cambiamento del processo selezionato... vedi? Più breve è il campione di allenamento, meglio è - meno possibilità di essere fregati da un cambiamento nel sentimento del mercato! Qui, sembra che la risposta alla domanda "Qual è meglio - un NS a 2 strati con un breve campione di allenamento, o un potente 3 con tre università alle spalle (durante l'apprendimento, tutto è diventato inutile)?", sarà data da un semplice esperimento.

Per questo, ho lanciato tre griglie - 1,2 e 3 in Mathcad, e ho confrontato i risultati della previsione di un segno di incrementi di kotier un conteggio avanti (ho raccolto le statistiche di 100 esperimenti indipendenti). I risultati sono i seguenti:

1 - p=10% di segni indovinati correttamente (probabilità=1/2+p).

2 - 15-16%

3 - 12%

Ci sono alcuni parametri liberi qui: dimensione dell'input e numero di neuroni nello strato(i). Il primo parametro era lo stesso per tutte le architetture, il secondo è stato scelto personalmente. È chiaro che la griglia NS a 3 strati non è una panacea, e forse per noi commercianti l'opzione migliore per l'unità analitica MTS è una griglia a due strati - dal punto di vista della massima precisione di previsione e dei requisiti minimi per la complessità della formazione (potenza della RS, grande storia e sua non crescita).

Mi chiedo se qualcuno ha provato a usare NS per la predizione dei numeri della lotteria.

 

gpwr, ti stai prendendo gioco di tutti! - si tratta di predire il numero della lotteria. E per favore rimuovi la citazione del mio post - aggiungerà ancora più localismo al tuo post :-)

 
Neutron писал(а) >>

Ho già dato sopra un link alla conclusione della relazione ottimale tra il numero di sinapsi NS - w, la dimensionalità del suo input - d e la lunghezza ottimale del campione di allenamento P (4 o 5 pagine dell'argomento): w^2=P*d

La dimensione della rete, l'apprendimento e la capacità di riconoscimento dipendono fortemente dall'architettura della rete. A quale si riferisce? Parola, recidiva, VNS o forse MSUA?
 
Stiamo parlando di un classico perseptron multistrato, non lineare, a uscita singola (acquisto-vendita).