Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
IMHO, non vale la pena di scherzare con le reti :)
Imparare NS significa in realtà ottimizzare una funzione con un numero enorme di parametri (centinaia e migliaia).
Non so cosa fare per evitare il sovrallenamento in questo caso,
L'unica soluzione è prendere un campione di allenamento di 1-100 milioni di campioni.
Ma non c'è nessuna garanzia...
Domanda per i matematici:
L'idea di applicare una distribuzione normale multivariata dei parametri da ottimizzare è uguale al principio delle reti neurali?
Per favore, lo spieghi chiaramente.
Spiegare la domanda.
SPIEGARE:
Ora penso che sia necessario commerciare non con specifici parametri montati, ma con lo spettro di ogni parametro nel sistema.
Il modo più semplice è quello di mettere diversi EA identici, ma con diversi set di parametri - in diverse gamme dello spettro dei parametri.
Ad ognuno di questi Expert Advisor dovrebbe essere assegnata una certa % del deposito, ma tutti dovrebbero essere uguali al valore percentuale del deposito, quando si fa trading usando un solo Expert Advisor (senza spettro).
Poi se sulle medie mobili tre Expert Advisors aprono tre posizioni, rispettivamente all'inizio del movimento, a metà e alla fine.
Non posso ancora decidere come utilizzare questa idea in un EA per i test.
Ho chiesto a Posh di questo problema ma ancora nessuna risposta.
Il compito della distribuzione normale multivariata (gaussiana) e le reti neurali di tipo aX+bY+...=Z sono lo stesso (per il trading), o sono confuso e mi confondo nella mia testa?
Domanda per i matematici:
L'idea di applicare una distribuzione normale multivariata dei parametri da ottimizzare è uguale al principio delle reti neurali?
Per favore, lo spieghi chiaramente.
Spiegare la domanda.
SPIEGARE:
Ora penso che sia necessario commerciare non con specifici parametri montati, ma con lo spettro di ogni parametro nel sistema.
Il modo più semplice è quello di mettere diversi EA identici, ma con diversi set di parametri - in diverse gamme dello spettro dei parametri.
Ad ognuno di questi Expert Advisor dovrebbe essere assegnata una certa % del deposito, ma tutti dovrebbero essere uguali al valore percentuale del deposito, quando si fa trading usando un solo Expert Advisor (senza spettro).
Poi se sulle medie mobili tre Expert Advisors aprono tre posizioni, rispettivamente all'inizio del movimento, a metà e alla fine.
Non posso ancora decidere come utilizzare questa idea in un EA per i test.
Ho chiesto a Posh di questo problema ma ancora nessuna risposta.
Il compito della distribuzione normale multivariata (gaussiana) e le reti neurali di tipo aX+bY+...=Z sono lo stesso (per il trading), o sono confuso e mi confondo nella mia testa?
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1%81%D0%B5%D1%82%D0%B8 - è sul wiki ed è tutto a grandi linee.
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html - c'è un articolo su ANN, e al centro dell'articolo c'è una discussione su dove viene e di cosa si tratta, con diagrammi e formule.
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943 - questo è un link a "Fundamentals of Artificial Neural Networks", un buon sito, c'è un intero "albero" sul tema delle RNA - non solo quello che ho scritto.
Ma riguardo agli "spettri", ti sbagli.
Non sono un proFessore, naturalmente - ma lì c'è un punto razionale.
Gente, nessuno mi ha risposto: è necessario pensare all'algoritmo dell'oblio o è, in fondo, una proprietà naturale dell'RNA?
Se si limita l'allenamento a un numero finito di battute (o non battute, qualsiasi cosa si usi), l'oblio sarà un processo naturale. Il mercato sta cambiando, e quello che ha funzionato cinque anni fa potrebbe non funzionare ora. Ma le nuove condizioni sono già emerse, e se non le insegnate, passeranno.
Spetta a tutti decidere.
Mak, stai chiaramente esagerando qualcosa. Invece di superarlo di centinaia o migliaia di volte, come dici tu, per la teoria di RNA 10 è sufficiente. E i criteri per il retraining (adattamento) sono noti: si tratta di un errore minimo globale nell'area di test.
Un'altra cosa è l'architettura di rete. Meglio classificare le maglie che interpolare le maglie.
Ebbene sì, in statistica si crede che si possano trarre delle conclusioni se il numero di campioni è 10 volte il numero di parametri sconosciuti, ma gli errori nel farlo sono al limite della ragionevolezza.
Ma dovreste essere d'accordo che NS è essenzialmente solo una funzione di un qualche tipo di vettore di input e un insieme di pesi.
Questo insieme di pesi contiene da centinaia (nei casi più semplici) a decine e centinaia di migliaia di parametri (pesi).
L'apprendimento di NS non è altro che l'ottimizzazione di questa funzione per queste centinaia - centinaia di migliaia di parametri.
Tutti sanno cosa succede in questi casi.
Ecco perché sono uno scettico ...
IMHO, non vale la pena fumare con le reti :)
Imparare NS significa in realtà ottimizzare una funzione con un numero enorme di parametri (centinaia e migliaia).
Non so cosa fare per evitare il sovrallenamento in questo caso,
L'unica soluzione è prendere un campione di allenamento di 1-100 milioni di campioni.
Ma non c'è nessuna garanzia...
Si verifica quando ci sono molti parametri di ottimizzazione e pochi dati.
IMHO, non vale la pena fumare con le reti :)
Imparare NS significa in realtà ottimizzare una funzione con un numero enorme di parametri (centinaia e migliaia).
Non so cosa fare per evitare il sovrallenamento in questo caso,
L'unica soluzione è prendere un campione di allenamento di 1-100 milioni di campioni.
Ma non c'è nessuna garanzia...
Si verifica quando ci sono molti parametri di ottimizzazione e pochi dati.
Ma questo solleva la questione della dimensione della rete. Ciò che una rete può memorizzare dipende dalle sue dimensioni e dalla sua architettura. Se si impostano troppi campioni da addestrare che la rete non può ricordare, si causerà l'effetto overlearning - la rete smetterà di riconoscere ciò che conosce.