L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 363

 
Maxim Dmitrievsky:

Perché pensare in modo così ristretto, ognuno qui scrive come se non avesse mai visto niente di più dolce di una carota )) Fanculo i predittori, insegnare al neurone a trovare questi stessi predittori, insegnare al neurone a insegnare al neurone, sperimentare :) Naturalmente, è molto stupido prendere semplicemente degli indicatori, alimentarli all'ingresso e all'uscita a zig zag, non so perché tutti ne discutono :)

Vorrei poterlo fare, ma...

Per esempio, le reti neurali convoluzionali possiedono parzialmente tale "abilità", possono imparare da sole la pre-elaborazione (filtraggio), ma sono molto strettamente specializzate, come i discendenti di Neo-Cognitron Focus, progettato come un "analogo" dell'occhio della retina, addestrato da backprops, CNN effettivamente per le immagini non è una cosa banale neanche? Purtroppo, da un punto di vista ingegneristico, sviluppare un sistema miracoloso per fargli fare tutto da soli è un'utopia ingenua, è molto più facile fare soluzioni speciali per un compito particolare, che comunque può richiedere anni di lavoro di squadra, mentre SRS è più vicino a qualcosa di filosofico e umanitario.

 
Aliosha:

Vorrei poterlo fare, ma...

Per esempio, le reti neurali convoluzionali possiedono parzialmente tale "abilità", possono imparare da sole la pre-elaborazione (filtraggio), ma sono molto strettamente specializzate, come i discendenti di Neo-Cognitron Focus, progettato come un "analogo" dell'occhio della retina, addestrato da backprops, CNN effettivamente per le immagini non è una cosa banale neanche? Ci sono un sacco di numeri magici e architetture sciamaniche nel configurare, un passo a sinistra, un passo a destra e tutto si rompe, cioè è una messa a punto molto fine del compito, ma non una soluzione universale per tutto e tutto. Purtroppo, dal punto di vista ingegneristico, per sviluppare un sistema miracoloso che farebbero tutto da soli - utopia ingenua, è molto più facile fare soluzioni individuali, che comunque può richiedere anni di lavoro di squadra, e FTI è più vicino a qualcosa di filosofico, umanitario.


Ma credo che sia possibile fare un buon strumento di auto-ottimizzazione, che non funzionerà sempre perfettamente, ma di tanto in tanto sì.

Ma ovviamente non funzionerà con indicatori standard e un'uscita a zig zag :) A me sembra addirittura un gioco da ragazzi, solo come esempio se non altro.

 
Maxim Dmitrievsky:

non è che non siano correlati, si contraddicono all'aumentare del campione, sì, di conseguenza o l'uscita è sempre 0 o 1, o 0,5... inoltre per 1 neurone. Quindi se >0,5 vendere e <0,5 comprare. Si impostano predittori corretti (secondo voi) e risposte corrette, cioè, se psi è ipervenduto e il mercato cresce sulle prossime n-barre, allora output 0, e se psi è ipercomprato e il mercato scende, allora output 0. Ma ci saranno molti casi in cui è il contrario e si smussa, confonde i segnali e va in trance. Di conseguenza l'uscita sarà sempre intorno a 0,5 con piccolissime deviazioni in una direzione o nell'altra... e succederà con tutti gli oscillatori, perché non sono predittori, derivano solo dal prezzo :)
Dovresti comprare se > 0,8, e vendere se <0,2. In questo modo si elimina il rumore che si trova al centro della gamma, cioè circa 0,5
 
elibrario:
Devi comprare se >0,8, se<0,2 vendere. In questo modo si elimina il rumore che si trova al centro della gamma, cioè intorno allo 0,5

non capisci )
 
una rete neurale è un'intelligenza artificiale e qualsiasi sistema di pensiero non funzionerà per niente.... non è stupida...le offri dei soldi prima dell'addestramento o le prometti una percentuale del ricavato, allora comincerà a trovare dei modelli reali e a portare dei guadagni...
 
Una domanda per coloro che sono stati a lungo sull'argomento NS.
Reti neurali su ALGLIB e R - i pesi vanno da -1 a 1?
 
elibrario:

È complicato... Ci vorrebbe più tempo che capire l'algoritmo (come per la K-correlazione sopra) e scriverlo. Penso che la funzione di provare tutti gli input, calcolare la correlazione e setacciare quelli altamente correlati richiederà un paio d'ore.

Speriamo che con altre soluzioni per setacciare i predittori sia altrettanto facile)

Quindi ci sono altre soluzioni per trovare predittori inutili?

Date un'occhiata qui.

Quando si stima l'importanza dei predittori è importante ricordare che è un valore complesso, non determinato solo da criteri informativi. Nell'articolo ho dato un esempio di selezione dei predittori usando RandomUniformForest per mostrare l'importanza dei predittori in diversi aspetti. Secondo me è il pacchetto di maggior successo per questo scopo.

In particolare per le reti neurali, l'importanza dei predittori può essere determinata dai loro pesi nel primo strato. Questo approccio è usato in H2O. Se trovo il tempo vi farò un esempio.

Oltre all'importanza dei predittori dovremmo anche definire esempi di rumore (stringhe). E metterli in una classe separata o rimuoverli dal set di allenamento. Vedere NoiseFilterR

Buona fortuna

 
elibrario:
Una domanda per coloro che sono stati a lungo sull'argomento NS.
Reti neurali su ALGLIB e R - i pesi vanno da -1 a 1?
Stai parlando dell'inizializzazione iniziale dei pesi o?
 

Vladimir Perervenko:
Nel mio articolo ho dato un esempio di selezione dei predittori usando RandomUniformForest per mostrare l'importanza dei predittori in diversi aspetti.

Sarebbe interessante conoscere l'algoritmo per calcolare l'importanza in questa funzione per fare un analogo in MQL.

Vladimir Perervenko:

In particolare per le reti neurali l'importanza dei predittori può essere determinata dai loro pesi nel primo strato. Questo approccio è usato in H2O. Se trovo il tempo vi farò un esempio.

Ci ho anche pensato, non è difficile da implementare.

Vladimir Perervenko:

Oltre all'importanza dei predittori dovremmo anche definire i campioni di rumore (stringhe). Dovresti creare una classe separata per loro o rimuoverli dal set di allenamento. Vedere NoiseFilterR

Questo è nuovo per me, grazie per l'idea, dovrei pensarci).


Vladimir Perervenko:
Ti riferisci all'inizializzazione iniziale delle scale o?
Intendo l'intera gamma, in cui sono abbinati - da -1 a 1.
L'iniziale è scelto a caso, suppongo (opzionalmente nel mezzo della gamma).
 
elibrarius:

Sarebbe interessante conoscere l'algoritmo di calcolo dell'importanza in questa funzione per fare un analogo in MQL.

Ci ho anche pensato, non è difficile da implementare.

Questo è nuovo per me, grazie per l'idea, dovrò pensarci).


Voglio dire qual è l'intera gamma in cui sono abbinati - da -1 a 1.
Suppongo che il punto di partenza sia scelto a caso (alternativamente nel mezzo della gamma).

Le reti neurali sono molto sensibili all'inizializzazione dei pesi. Questo non è affatto un problema banale. Ci sono diversi modi di inizializzazione, uno dei quali - il pretraining (usato nelle reti neurali profonde) è il più promettente (IMHO).

Durante l'addestramento i pesi dei neuroni possono assumere valori in un ampio intervallo da -inf a +inf. La regolarizzazione e altre tecniche di stabilizzazione sono utilizzate per prevenire queste distorsioni, limitando la gamma dei pesi.

Buona fortuna