"New Neural" è un progetto di motore di rete neurale Open Source per la piattaforma MetaTrader 5. - pagina 98
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Non devono essere strettamente periodici, ma non devono nemmeno essere rumorosi. Il quadro è probabilistico, non rigoroso. La finestra scorrevole è intesa per l'indicatore di entropia così come il numero di caratteristiche per la formazione, possono essere ottimizzati.
Se i campioni sono incoerenti non otterrete nulla, ecco perché ci sono così tanti errori 50\50. E un ciclo non può essere contraddittorio, o esiste o non esiste, in qualsiasi forma. Se si aggiungono molti loop diversi, non si contraddicono tra loro.
Il ciclo dei cicli è un concetto relativo all'interno della metrica dell'entropia.
E come si misura il grado di entropia dei dati?
E come si misura il grado di entropia dei dati?
Qui sopra c'è un link al mio wiki e a quello di Alexander su Hubr
Certamente non li ho guardati tutti, ma tutti quelli "con sorgenti in MQL" tutti senza reti neurali stesse, ma essenzialmente un esercizio di OOP sotto forma di wrapper a varie librerie o allo stesso NeuroPro, francamente parlando dopo una dozzina di tali articoli letti, sembrano tutti uguali, a volte sembra addirittura che OOP per robot di magazzino sia più dannoso che utile, IMHO OOP per progetti da 100 mila linee inizia a mostrare vantaggi, e quando tre funzioni si avvolgono in cinque classi e anche con l'ereditarietà è ridicolo.
PS: per favore non insegnarmi a cercare su Internet, dare link specifici al CODICE APERTO delle reti neurali, non Vopers, non riscrivere libri e articoli.
Questi due paragrafi si contraddicono a vicenda. Chiunque sappia cercare su Internet (in particolare su questo sito) troverà rapidamente implementazioni di tipi NS di base in puro MQL senza dipendenze e wrapper.
È impossibile fare una matrice normale in MQL senza stampelle. Di che tipo di NS stiamo parlando con capacità linguistiche così ridotte?
Molte persone qui non sanno nemmeno riprodurre la formula di MLP.
Si prendono i ritorni della serie originale e si rimuovono la media e la varianza da essi. Su questa base, si generano i ritorni della distribuzione normale e la si riporta alla distribuzione originale.
L'entropia è stata misurata su entrambe le serie. Nella stragrande maggioranza dei casi è lo stesso, cioè le citazioni sono SB.
E sui ritorni la differenza è come dovrebbe essere (l'entropia è più alta sui randomi):
Non sembra esserci abbastanza sensibilità per la fila nuda. Mi chiedo se i vostri NS hanno abbastanza "sensibilità". Ne dubito.
E qui c'è un'idea di Bitcoin (dovrebbe essere ancora meno efficiente, presumibilmente). E infatti.
Soprattutto su H4.
È impossibile fare una matrice normale in MQL senza stampelle. Di che tipo di NS stiamo parlando con capacità linguistiche così ridotte?
Molte persone qui non sanno nemmeno riprodurre la formula di MLP.
Sei caduto dalla luna o dal forno da bambino?
Si prendono i ritorni della serie originale e si rimuovono la media e la varianza da essi. Su questa base, si generano i ritorni della distribuzione normale e la si riporta alla distribuzione originale.
L'entropia è stata misurata su entrambe le serie. Nella stragrande maggioranza dei casi è lo stesso, cioè le citazioni sono SB.
E sui ritorni la differenza è come dovrebbe essere (l'entropia è più alta sui randomi):
Non sembra esserci abbastanza sensibilità per la fila nuda. Mi chiedo se i vostri NS hanno abbastanza "sensibilità". Ne dubito.
E qui c'è un'idea di Bitcoin (dovrebbe essere ancora meno efficiente, presumibilmente). E infatti.
Soprattutto su H4.
Bello!
E l'entropia stessa in finestre temporali scorrevoli, come si comporta?
Ovviamente, se realizziamo studi con finestre temporali mobili di multipli di 1 ora (su dati di un minuto sono 60, 120, 180, ...), allora dovremmo identificare quelle finestre dove l'entropia è minima in media.
Questi sono i campioni con cui lavorare - sono sicuro che NS vi troverà delle regolarità.
C'è un porting di Alglib (https://www.mql5.com/en/code/11077).
L'iniziativa joo era destinata all'infamia, e non perché la gente non sia collaborativa, ma perché è un'idea inutile.
Ok, grazie, lo sto esaminando.
Patamushta qui non è un vero leader con conoscenza, in modo che i reparti non passino attraverso le opzioni, e lo ascoltino come bambini.
Quando ho letto questo thread, le lacrime sono scese sulle mie guance senili - come hanno implorato alcuni pendenti di prendere il timone, ma lui stesso è sprovveduto e .... Ecco, siamo fregati.
Un ramo vergognoso e istruttivo.
Gli slavi hanno bisogno di un leader, padre, severo ma giusto, è nei geni, è logico che gli slavi lo sentano e chiedano ad altre razze (anglosassoni, ebrei, arabi...) di comandarli, ha senso, gli slavi non tollerano il loro leader, a meno che non sia mistificato al livello di profeta o unto da Dio.
Più tardi, ha scritto un jpredictor standalone in java, con 2 reti neurali (mlp e svm, più specificamente) con selezione automatica delle caratteristiche
Per quanto ne so "jpredictor" ha ancora lo stesso neurone addestrato con l'ottimizzazione dei parametri, l'uscita di jpredictor è pesi per un neurone, che ovviamente non è qualcosa di cui essere orgogliosi.
L'entropia è misurata su entrambe le file. E' in gran parte lo stesso, cioè le citazioni sono SB.