Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Certo che l'ho provato, e non solo io, per esempio nel thread su MO, c'è chi l'ha fatto, ripetendo il mantra sulla spazzatura in entrata e apparentemente dimenticando che la spazzatura sull'output formale quando si allena con un insegnante non è molto meglio, mentre la selezione e il rimescolamento dei vettori di caratteristiche non salva dall'overfitting.
Sto cercando di marcare i segnali manualmente, ma il sistema dovrebbe essere equamente distribuito, o dovrei marcare solo gli ingressi con la logica?
Come se la cava la rete con la non stazionarietà? E se la cava del tutto, per esempio la dimensione di uno stesso modello può essere di 15 battute o di 150?
Sto cercando di marcare i segnali manualmente, ma il sistema dovrebbe essere equamente distribuito, o dovrei marcare solo gli ingressi con la logica?
Come si comporta la rete con la non stazionarietà? E la gestisce del tutto, per esempio, la dimensione di uno stesso modello può essere di 15 battute o di 150?
Ora per organizzare e discutere gli esperimenti:
Perché è così complicato. Può essere fatto in un modo molto più semplice.
Molti scambi sono generati casualmente sulla storia. Molti di loro hanno successo e molti no. Su questo campione, insegniamo il sistema con metodi di MO. Il MO lo classificherà e troverà dei modelli.
L'ho fatto su una sequenza di ~10 mila scambi. Anche un semplice sistema con MO sta imparando bene e nel test mostra un 80-85% di trade di successo. Il che è già molto strano per un semplice MO, dato che semplicemente non può ricordare così tanti scambi - l'unica spiegazione è che il MO in realtà trova e generalizza alcuni modelli.
Sì, ma tutti questi miracoli si osservano solo su una sequenza di allenamento).
Perché essere così complicati. Può essere fatto in un modo molto più semplice.
Molti scambi sono generati casualmente sulla storia. Molti di loro hanno successo, molti no. Su questo campione, addestriamo il sistema con i metodi di MO. Il MO lo classificherà e troverà dei modelli.
L'ho fatto su una sequenza di ~10 mila scambi. Anche un semplice sistema con MO sta imparando bene e nel test mostra un 80-85% di trade di successo. Il che è già molto strano per un semplice MO, dato che semplicemente non può ricordare così tanti scambi - l'unica spiegazione per questo è che il MO in realtà trova e generalizza alcuni modelli.
Sì, ma tutti questi miracoli si osservano solo su una sequenza di allenamento).
Beh, sì, a pieno overfitting la sequenza di allenamento può essere al 100%, ma il compito non è quello di memorizzare, ma di generalizzare e ottenere risultati in avanti.
Ecco perché nell'esperimento si suggerisce di allenarsi non su operazioni casuali o su tutte le possibili operazioni redditizie, ma su operazioni (segnali) filtrati dalle letture di qualsiasi indicatore.
Così, tutti i segnali conterranno già una dipendenza formalizzata con BP, e la rete neurale dovrà solo determinarla e stabilire un modello di esclusione dei segnali cattivi che non sono inclusi nel campione.
Perché essere così complicati. Può essere fatto in un modo molto più semplice.
Molti scambi sono generati casualmente sulla storia. Molti di loro hanno successo, molti no. Su questo campione, addestriamo il sistema con i metodi di MO. Il MO lo classificherà e troverà dei modelli.
L'ho fatto su una sequenza di ~10 mila scambi. Anche un semplice sistema con MO sta imparando bene e nel test mostra un 80-85% di trade di successo. Il che è già molto strano per un semplice MO, dato che non è semplicemente in grado di ricordare così tanti scambi - l'unica spiegazione è che il MO trova e generalizza alcuni modelli.
Sì, ma tutti questi miracoli si osservano solo su una sequenza di apprendimento).
la tua conoscenza di MO tende ancora a zero, purtroppo
quindi la tua rete neurale interna non può ancora raggiungere un consenso su ciò che èla tua conoscenza del Ministero della Difesa è ancora, purtroppo, a zero.
Ecco perché la tua rete neurale interna non riesce ancora a raggiungere un consenso: che senso ha farlo?Non eccitarti troppo, Maxim). Tutti sanno già che l'unica cosa più dura di te sono le palle.
Beh, sì, su una formazione con overfitting completo può essere al 100%, ma il compito non è quello di memorizzare, ma di generalizzare e ottenere risultati su un mercato in avanti.
Questo è il motivo per cui nell'esperimento si suggerisce di allenarsi non su operazioni casuali o su tutte le possibili operazioni redditizie, ma su operazioni (segnali) filtrati dalle letture di qualsiasi indicatore.
Così, tutti i segnali conterranno già una dipendenza formalizzata con BP, e la rete neurale dovrà solo determinarla e stabilire un modello di esclusione dei segnali cattivi che non sono inclusi nel campione.
Con una dimensione del campione di allenamento molto più grande della dimensione NS, la riqualificazione è quasi irrealistica.
Con piccoli campioni, la riqualificazione si ottiene su un conteggio di una volta. Diciamo che vi sono stati dati 200 scambi reali.
Con una dimensione del campione di allenamento molto più grande della dimensione NS, la riqualificazione è quasi irrealistica.
Con piccoli campioni, la riqualificazione si ottiene su un numero di volte. Supponiamo che vi siano dati 200 scambi reali.
Dipende dai dati, dai parametri e dal tipo di modello, per esempio negli alberi il numero di livelli è aumentato dinamicamente, come nella mia rete il numero di neuroni, anche se c'è un limite di densità condizionale di informazioni, ma è determinato solo dal campione di allenamento, si può fare pruning, commissioni, ecc.
E l'overlearning, non è necessariamente ricordare tutti i campioni, è semplicemente ricordarli senza generalizzazione, per esempio in presenza di informazioni contraddittorie che vengono sostituite e non possono essere mediate.
Dipende dai dati, dai parametri e dal tipo di modello, per esempio negli alberi il numero di livelli aumenta dinamicamente, così come nella mia rete il numero di neuroni, anche se c'è un limite di densità di informazione condizionata, ma è determinato solo dal campione di allenamento, si può fare pruning, commissioni, ecc.
E l'overlearning, non è necessariamente memorizzare tutti i campioni, è semplicemente memorizzarli senza generalizzazione, per esempio in presenza di informazioni contraddittorie che vengono sostituite e non possono essere mediate.
Perché non scarichiamo qualche strategia super-duper da Market, la eseguiamo nel tester (ci fidiamo del tester)), e applichiamo i risultati a NS, RF, SVM o qualcos'altro. E non dobbiamo aspettare - lo proviamo sulla demo e vediamo i risultati.
Perché non fare il seguente esperimento: scaricare qualche strategia super-duper da Market, eseguirla nel tester (ci fidiamo del tester)), e sottoporre i risultati a NS, RF, SVM o altro. E non dobbiamo aspettare - lo proviamo sulla demo e vediamo i risultati.
Così non si può, compilato con protezione moderatore rifiuterà perché avete bisogno della fonte, e la fonte rifiuterà perché è necessario per proteggere i diritti del venditore - circolo vizioso funziona :))
Ma non c'è nulla di cui sorprendersi qui, perché lo stato giuridico dei robot di diverse professioni e nell'ambiente oggetto, finora, è povero...