Reti neurali artificiali. - pagina 3

 
gpwr:

La rete è uno strumento, una specie di funzione universale non lineare che può essere ottimizzata (adattata) per diversi dati (input-output). Questa funzione non può estrarre alcuna regolarità.

Lo fa :)

L'NS è addestrato sui dati di input-output e se i modelli sono universali per la popolazione generale, allora l'NS funzionerà con successo al di fuori del campione.

E l'isolamento delle regolarità è un ulteriore strato di lavoro per analizzare i pesi formati e le funzioni di trasferimento di NS, io stesso non l'ho mai fatto personalmente.

Il cervello umano è capace di apprendere modelli non lineari con grande successo. Prendiamo, per esempio, il calcolo della traiettoria di un boomerang lanciato dalle tribù di boscimani da qualche parte in Africa. La natura ci ha dato tutto. È possibile imparare volutamente modelli non lineari nel mercato. Personalmente vorrei scrivere un programma di apprendimento VBA del seguente tipo: visualizzerò una serie di piccole quotazioni, diciamo, 100-150 barre su un grafico e avrò bisogno di indovinare la direzione generale del prezzo in futuro, diciamo, per 50 barre. Premerò i pulsanti su/giù e il programma registrerà la mia risposta e se ho indovinato o meno. Dopo di che, il grafico si sposterà casualmente sull'asse del tempo, ecc. Come risultato, o imparerò (la percentuale di direzioni indovinate aumenterà), o non lo farò (tipo, scusa, fallito). Questo sarebbe un buon esempio di allenabilità del cervello.

 
gpwr:

La rete è uno strumento, una specie di funzione universale non lineare che può essere ottimizzata (adattata) per diversi dati (input-output). Questa funzione non può cogliere alcuna regolarità. Si potrebbe anche sostenere che un polinomio adattato a una curva liscia trova i suoi modelli nascosti. Uscite dall'intervallo di dati a cui la funzione è stata adattata e sapete cosa otterrete come esempio di regressione polinomiale. A proposito, il numero di parametri da ottimizzare nella rete è molto più grande che nell'albero di decisione, poiché la rete contiene sottoconnessioni che non influenzano le decisioni corrette e i cui pesi sono diminuiti durante l'ottimizzazione.

Una cosa è approssimare i dati di mercato con una rete, un'altra cosa è fare il riconoscimento dei modelli.

La seconda sembra essere più corretta - dopo tutto è il cervello del trader che riconosce le immagini.

 
joo:

Una cosa è approssimare i dati di mercato con una rete, un'altra è riconoscere le immagini.

La seconda sembra essere più corretta - dopo tutto, è il cervello del commerciante che riconosce le immagini.

Gli ingegneri di Google hanno alimentato la rete di autoapprendimento (che tipo non so) con screenshot dai video di YouTube e la rete ha imparato a distinguere i gatti come una classe separata. È possibile stimare quante informazioni circolavano nella RAM. Teoricamente, è possibile inviare grafici alla rete, ma deve essere una rete enorme e complessa e un computer adatto. È più facile inviare un modello di prezzo normalizzato nell'intervallo di, diciamo, [0;1]. E la stazionarietà è preservata ed è facile da implementare. Fondamentalmente, il trader vede il modello di prezzo, mentre ci sono trader che fanno trading usando un grafico puro (senza indicatori). Ma a quanto pare, la rete deve essere costantemente riqualificata. Perché anche il nostro cervello aggiorna costantemente le connessioni e migliora la nostra comprensione del processo.
 
alexeymosc:
Gli ingegneri di Google hanno alimentato la rete di autoapprendimento (che tipo non lo so) con screenshot da video di YouTube e la rete ha imparato a separare i gatti in una classe separata. È possibile stimare quante informazioni giravano nella RAM. Teoricamente, è possibile inviare grafici alla rete, ma deve essere una rete enorme e complessa e un computer adatto. È più facile inviare un modello di prezzo normalizzato nell'intervallo di, diciamo, [0;1]. E la stazionarietà è preservata ed è facile da implementare. Fondamentalmente, il trader vede il modello di prezzo, mentre ci sono trader che fanno trading usando un grafico puro (senza indicatori). Ma a quanto pare, la rete deve essere costantemente riqualificata. Perché anche il nostro cervello aggiorna costantemente le connessioni e migliora la nostra comprensione del processo.
Quando un trader "vede" un pattern, non analizza una pura serie di prezzi. Nessun cervello umano ha una tale quantità di RAM (si tratta, a proposito, di una RAM pensante - un paio di centinaia di byte al massimo). Pertanto, la pre-elaborazione del segnale è obbligatoria.
 
alsu:
Quando un trader "vede" un pattern, non analizza una pura serie di prezzi. Nessun cervello umano ha una tale quantità di RAM (a proposito, è una RAM pensante - un paio di centinaia di byte al massimo). Pertanto, la pre-elaborazione del segnale è obbligatoria.

Non ne avevo sentito parlare. OK. Beh, allora ovviamente è difficile capire quali aspetti del CD sono percepiti dal cervello. Questo è il problema con tutti i tentativi di fare qualcosa di simile basato su NS. I segni importanti delle informazioni in arrivo non sono definiti, quindi dobbiamo indovinare.

Ma - personalmente capisco soprattutto le curve e le punte :)

 
alexeymosc:

Non ne avevo sentito parlare. OK. Beh, allora ovviamente è difficile capire quali aspetti del CD sono percepiti dal cervello. Questo è il problema con tutti i tentativi di fare qualcosa di simile basato su NS. I segni importanti delle informazioni in arrivo non sono definiti, quindi dobbiamo indovinare.

Ma - personalmente capisco soprattutto le curve e i picchi :)

Mi sembra molto promettente - la cancellazione delle informazioni sui prezzi dal rumore per mezzo di NS. Fondamentalmente un segnale utile è descritto da un piccolo numero di parametri, per esempio, se prendiamo un giorno su M1 possono essere 10-20 (invece di 1440), che è facilmente comprensibile dal cervello umano. La questione è come cancellare correttamente il segnale senza perdere informazioni importanti. È qui che una rete può aiutare, IMHO. Bene, e per elaborare (classificare, raggruppare, regredire, ecc.) la parte restante è possibile con qualsiasi metodo adatto, e non il fatto, tra l'altro, che NS sarà la scelta migliore. In ogni caso, ci sono molti strumenti sviluppati per tali compiti, e la ragione non meno importante è che tutti funzionano ugualmente male)))
 
alsu:
Penso che sia molto promettente eliminare le informazioni sui prezzi dal rumore con l'aiuto di NS. Fondamentalmente, un segnale utile è descritto da un piccolo numero di parametri, per esempio, se prendiamo un giorno su M1, ce ne possono essere 10-20 (invece di 1440), che il cervello umano può facilmente comprendere. La questione è come cancellare correttamente il segnale senza perdere informazioni importanti. È qui che una rete può aiutare, IMHO. Bene, e per elaborare (classificare, raggruppare, regredire, ecc.) la parte restante è possibile con qualsiasi metodo adatto, e non il fatto, tra l'altro, che NS sarà la scelta migliore. In ogni caso, ci sono molti strumenti sviluppati per tali compiti, e la ragione non meno importante è che tutti funzionano ugualmente male)))
Alexey, stai parlando direttamente del problema di Feature Selection, cioè in parole povere: come scegliere l'1% dei dati dall'array disponibile che è più informativo per una previsione del tipo: entra lungo, entra corto, aspetta. Ma anche quando si applicano tecniche sofisticate a questo problema, le insidie emergono rapidamente. In primo luogo, non è chiaro quale salsa utilizzare per alimentare i punti di dati selezionati: i valori grezzi non sono appropriati, è necessario preprocessare. Forse funzionerebbe se si prendesse la differenza tra 457 e 891 barre, e tra 1401 e 1300. Ci sono molte opzioni e non c'è abbastanza tempo per forzarle tutte.
 

Un'altra cosa sull'informazione che va effettivamente al cervello. Un esempio molto istruttivo è la compressione frattale delle immagini. Mostra solo che in realtà visivamente ad una persona per la percezione c'è abbastanza informazione in migliaia e anche decine di migliaia di volte meno della dimensione "grezza" dell'immagine.

Mi chiedo quale rapporto si può ottenere comprimendo un quoziente usando l'algoritmo frattale? 100? 500? di più?

 
alexeymosc:
Alexey, stai parlando direttamente del problema della Feature Selection, in parole povere: come selezionare l'1% dei dati dall'array che è più informativo per una previsione del tipo: inserire long, inserire short, aspettare. Ma anche quando si applicano tecniche sofisticate a questo problema, le insidie emergono rapidamente. In primo luogo, non è chiaro quale salsa utilizzare per alimentare i punti di dati selezionati: i valori grezzi non sono appropriati, è necessario preprocessare. Forse funzionerebbe se si prendesse la differenza tra 457 e 891 barre, e tra 1401 e 1300. Ci sono molte varianti e non ho abbastanza tempo per forzarle tutte.
C'è anche il problema dell'interpretazione dell'output dell'algoritmo. Molto spesso si cerca di costruire la stessa rete in modo che il suo output abbia un chiaro segnale di cosa fare, o almeno le informazioni relativamente comprensibili (per un progettista) siano convertite in un tale segnale. Ma non è il fatto che sia conveniente per la rete dare informazioni in tale forma, forse sarebbe molto più facile darci non più approssimativamente un bit e mezzo (buy-sell-stop), ma, per esempio, 10 bit di informazioni?
 
alsu:
C'è anche il problema dell'interpretazione dell'output dell'algoritmo. Spesso cerchiamo di costruire la stessa rete in modo che l'uscita abbia un chiaro segnale di cosa fare, o almeno informazioni relativamente comprensibili (per il progettista) da convertire in un tale segnale. Ma non è certo, che sia conveniente emettere informazioni in tale forma, forse sarebbe molto più facile darci non approssimativamente un bit e mezzo (by-sell-stop), ma, per esempio, 10 bit di informazioni?
A proposito, buona osservazione. Fondamentalmente, stiamo cercando di comprimere le informazioni di input a un livello tale da poter prendere chiaramente delle decisioni (buy-sell-stop). Può benissimo essere che la soluzione migliore sia avere un rapporto di compressione di 1 (cioè nessuna compressione o quasi). L'immagine in entrata è comprensibile alla griglia, l'immagine in uscita è comprensibile alla persona.