Reti neurali, come padroneggiarle, da dove cominciare? - pagina 12

 
Neutron >> :

Non importa come fate girare la NS, non importa cosa mettete nei suoi ingressi, non ci sono certo miracoli!

Quindi, cosa otteniamo: da un lato, più la NS è stratificata, maggiore è il suo potere predittivo, ma non ha senso costruire più di tre strati - la griglia a tre strati è già un approssimatore universale.

In generale, no, non ho intenzione di discutere - mi annoio.

Ne consegue che più stratificato è il NS, più lungo dovrà essere il campione di allenamento per il suo addestramento. Non solo la complessità dell'addestramento cresce come P^3, ma potremmo anche finire i dati!


È la seconda volta che vedo quella laurea. Facciamo i conti.


Prendiamo per esempio una rete m - n - k - le lettere stanno per il numero di neuroni rispettivamente nel livello di ingresso, nascosto e di uscita.

La complessità della propagazione del segnale è O(m*n + n*k) per le sinapsi completamente accoppiate.

La complessità della propagazione posteriore è simile.

Ora introduciamo un ulteriore strato nascosto della stessa dimensione.

La complessità è O(m*n + n*n + n*k).

Prendiamo il rapporto - otteniamo (m + n + k)/(m + k).


Inoltre, l'introduzione del 2° strato nascosto permette di ridurre specificamente la dimensione del 1° strato.

A questo scopo ho fatto tre maglie - 1, 2 e 3 in Mathcad e ho confrontato i risultati della previsione di un segno di incrementi di cotier un conteggio avanti (ho raccolto le statistiche da 100 esperimenti indipendenti). I risultati sono i seguenti:

1 - p=10% di segni indovinati correttamente (probabilità=1/2+p).

2 - 15-16%

3 - 12%

Ci sono alcuni parametri liberi qui: dimensione dell'input e numero di neuroni nel/i livello/i. Il primo parametro era lo stesso per tutte le architetture, il secondo è stato scelto personalmente. Vediamo che la griglia NS a 3 strati non è una panacea, e forse per noi trader, l'opzione migliore per il blocco analitico MTS è una griglia a due strati - dal punto di vista della massima accuratezza della previsione e dei requisiti minimi per la complessità della formazione (potenza della RS, grande storia e sua non crescita).

È ora di pensare al NS frattale con un numero frazionario di strati :)). 2,5 sarebbe giusto.

 

modo ipotetico di padroneggiare la tecnologia NS
passo 1.

costruire un NS in NS con un'uscita buy/sell, alimentarlo con Close[x], guardare il grafico, vedere - la griglia è rumorosa!
passo 2.

Ora alimentiamo qualcosa di più liscio del preventivo iniziale, ma NS è comunque rumoroso.
Perché? Perché l'insegnante è irregolare. Sono troppo pigro per farlo a mano. (Qui hai bisogno di uno spiralizzatore)
passo 3.

Leggete l'articolo di Reshetov, inviate NS, allenatelo nel tester e notate - senza alcuna funzione di errore definita esplicitamente.
Così Strategy Tester brontola, lo sviluppatore fa le fusa, dice che Reshetov è intelligente, ha capito tutto, ha inventato un vero Maestro.
Comunque, Reshetov è intelligente, ma il mio computer non funziona bene con MT-4, quindi dov'è MT-5?
E per 4 ingressi questo "NS" è di nuovo rumoroso. Ora i dati storici risultano essere disomogenei - contengono diversi tipi di mercati e non sappiamo quali)
.... ripetiamo i passi 1-3 nel ciclo.
passo 4.

ci rendiamo conto che siamo bloccati - non possiamo far crescere la rete, MQL è lento, e l'addestramento neuropatico è un po' lontano dal trading.
passo 5.

Pensare a un bivio - ora abbiamo iniziato a lavorare con NS, sappiamo che NS non è tanto matematica. come tecnologia,
può essere salvato da NS Trader, ha un tester migliore.
bene e...
A cosa serve tutto questo?
passo 6

Se inventiamo una rete e la addestriamo, in questo processo, diventa più chiaro ciò di cui abbiamo veramente bisogno e la cosa reale viene eseguita senza NS,
senza NS affatto.
si scopre
Il NS è necessario solo per capire ciò che può essere spiegato mentre lo si spiega a un tonto)))

 
TheXpert писал(а) >>

Facciamo i conti.

A pagina 7 del topic in cui ho postato l'archivio con l'articolo, c'è una stima della complessità della formazione (p.65-66): C=P*w^2=d*P^2=(w^4)/d, il che suggerisce che ho sbagliato leggermente (un po' di gravidanza) e la complessità è proporzionale a d*P^2 o attraverso il numero di sinapsi: (w^4)/d

Inoltre, l'introduzione di un 2° strato nascosto permette di ridurre specificamente la dimensione del 1° strato.

Da dove viene questo?
 
Neutron >> :
Da dove segue?

Se non strettamente, allora indirettamente dal numero di parametri regolabili. Rigorosamente nyahsil. Non sono bravo con le prove.

E se aggiungo la mia idea, in realtà penso da qualche tempo che la migliore struttura di velocità non lineare di convergenza del perseptron sia a spina di pesce, ma non l'ho ancora verificato.

Quando ci riuscirò, lo disegnerò.


Alcune idee per il nuovo anno :)) .

 
Korey писал(а) >>
>>) Lo scopo di NS è di spiegarle qualcosa di stupido e di capire cosa sta spiegando).

C'è un punto importante che non hai voluto fare: dovrai spiegare il NS una volta (e lo capirai anche tu, come hai giustamente notato), e poi, come un tornio, lavorerà sul mondo che cambia (cotier), fregandosene che tu capisca pienamente cosa significa!

TheXpert ha scritto >>.

struttura perseptron -- a spina di pesce

Cosa stai fumando?

Oh, ho capito! Beh, di sicuro sembra un albero di Natale. Ho la stessa cosa a livello intuitivo.

 
Neutron >> :

...

Da dove viene questo?

leggere haykin -------> punto 4.15. Metodi di semplificazione della rete

 

Non fa alcuna differenza quale algoritmo si prende per imparare. Il risultato è lo stesso). Non bisogna scavare nella rete neurale, bisogna cercare gli input.

 
PraVedNiK писал(а) >>

leggere haykin -------> punto 4.15. Metodi di semplificazione della rete

Nessun problema. >> Leggiamolo!

 

Abete rosso! L'intuizione non c'entra, NS è un codificatore piramidale, + è simile alla FFT.
Per esempio, sulla base del modello di codificatore piramidale è elementare calcolare il numero minimo di neuroni.

cioè il codificatore piramidale è la copertura minima del NS progettato.

 
Neutron >> :

Cosa stai fumando?

Smettila :)

Oh, ho capito! Beh, di sicuro sembra un albero di Natale. Ho la stessa cosa a livello intestinale.