rete neurale e ingressi - pagina 39

 

La qualità della modellazione in fuori campione:
*
* TruePositives: 83
* TrueNegatives: 111
* Falsi positivi: 96
* Falsi negativi: 47
* Modelli totali in campioni con statistiche: 337
* Il resto dei modelli di campioni senza le statistiche: 78
* Errori totali nel fuori campione: 143
* Sensibilità della capacità di generalizzazione: 46.36871508379888%
* Specificità della capacità di generalizzazione: 70,25316455696202%
* Capacità di generalizzazione: 16.621879640760895%
* Indicatore di Reshetov: 0,004123184591376475
*/
doppio x0 = 2,0 * (v0 - 19,0) / 35,0 - 1,0;
doppio x1 = 2,0 * (v1 - 12,26) / 57,8300000000005 - 1,0
doppio x2 = 2,0 * (v2 - 21,0) / 13,0 - 1,0
doppio x3 = 2,0 * (v3 - 12,11) / 24,3800000000003 - 1,0
doppio x4 = 2,0 * (v4 - 18,0) / 40,0 - 1,0
doppio x5 = 2,0 * (v5 - 11,61) / 58,5 - 1,0;
doppia decisione = -0.03426154451479057 + 0.09136531101334192 * x0 -0.16115463032514218 * x1 + 0.3774761240476446 * x0 * x1 -0.149536367886396967 * x2 -0.2182655506670959 * x0 * x2 -0.686972851164288 * x1 * x2 -0.7274492971348857 * x0 * x1 * x2 -0.06979110777265085 * x3 + 0.27356476016739995 * x0 * x3 -0.026662374360625248 * x1 * x3 + 0.12474514432879064 * x0 * x1 * x3 -0.291989483838501985 * x2 * x3 -0.2863737167793397 * x0 * x2 * x3 + 0.04656257824516221 * x1 * x2 * x3 + 0,11427907143112637 * x0 * x1 * x2 * x3 + 0,01709410880995815 * x4 + 0,21856958901169654 * x0 * x4 -9.925957720785493E-4 * x1 * x4 + 0.9723342991021926 * x0 * x1 * x4 + 0.04599384769467396 * x2 * x4 -0.05459813284687198 * x0 * x2 * x4 + 0.37290192411918303 * x1 * x2 * x4 + 0,010296169116858033 * x0 * x1 * x2 * x4 + 0,058584612082841506 * x3 * x4 + 0,531371391780234 * x0 * x3 * x4 -0.025018778838931215 * x1 * x3 * x4 + 0.1861984476159817 * x0 * x1 * x3 * x4 + 0.07319097184962621 * x2 * x3 * x4 + 0.09688271273741818 * x0 * x2 * x3 * x4 + 01411041957291555 * x1 * x2 * x3 * x4 + 0,16417712916264263 * x0 * x1 * x2 * x3 * x4 -0,1726597989770004 * x5 + 0,36239224523375185 * x0 * x5 -0.008892292227349143328 * x1 * x5 -0.04417677147047251 * x0 * x1 * x5 -0.7319687377043317 * x2 * x5 -0.7806416997531924 * x0 * x2 * x5 + 0.01225632222209106843 * x1 * x2 * x5 + 0.04393711771649319 * x0 * x1 * x2 * x5 -0.006563651321672569 * x3 * x5 + 0.06276424509067496 * x0 * x3 * x5 -0.015999570769395857 * x1 * x3 * x5 -0.05302786422005222 * x0 * x1 * x3 * x5 + 0.03534892871195049 * x2 * x3 * x5 + 0.1463193475694817 * x0 * x2 * x3 * x5 -0.027476124047644598 * x1 * x2 * x3 * x5 + 0.052884787352004865 * x0 * x1 * x2 * x3 * x5 -0.018202954537325178 * x4 * x5 + 1.0 * x0 * x4 * x5 -0.07118968415781378 * x1 * x4 * x5 -0.003138748792788926 * x0 * x1 * x4 * x5 + 0.2624137067639589 * x2 * x4 * x5 -0.02015595378617162 * x0 * x2 * x4 * x5 + 0.08019279607969382 * x1 * x2 * x4 * x5 + 0.06399649461673285 * x0 * x1 * x2 * x4 * x5 -0.02596308616804378 * x3 * x4 * x5 + 0.18361769860857746 * x0 * x3 * x4 * x5 -0.08407017017920377723 * x1 * x3 * x4 * x5 + 0.03014271917587724 * x0 * x1 * x3 * x4 * x5 + 0.07432306756805093 * x2 * x3 * x4 * x5 + 0.20722895875809277 * x0 * x2 * x3 * x4 * x5 + 0.0075079586507851345 * x1 * x2 * x3 * x4 * x5 + 0.20670493972886933 * x0 * x1 * x2 * x3 * x4 * x5

È complicato..... Quanto bene i dati descrivono la variabile dipendente????

 

Ho presentato un file di formazione. Nessun intervallo di prova ancora :-( Ma questo non è un problema.....

E per quanto ho capito ha preso 337 voci, anche se ne ho presentate 600.

Qui cercherò di riprodurre il risultato nel mio ambiente. Mi chiedo quale sarà il risultato, anche su macchine diverse?

File:
 
E riguardo ai dati non è molto chiaro come prenderli per addestrare la rete su dati puliti..... Come selezionare TruePositives: TrueNegatives: FalsePositives: FalseNegatives dal campione di allenamento e provare ad allenare la rete. Vedi cosa succede. Normalizzazione dei dati in entrata, è una buona cosa.... Non so come usare.... Solo per fare bella figura...
 

Il risultato corrisponde....... Supponiamo di aver trovato 83 esempi positivi reali. Come li separiamo dal campione totale...... E alimentare puramente questi 83 record naturalmente normalizzati. E se la rete impara con un errore minimo a questi 83 record. Poi sarà (teoricamente) in grado di classificare tali record nell'input noise...... Come questo....

 
nikelodeon:

Ho presentato un file di formazione. Nessun intervallo di prova ancora :-( Ma questo non è un problema.....

E per quanto ho capito ha preso 337 voci, anche se ne ho presentate 600.

Qui cercherò di riprodurre il risultato nel mio ambiente. Mi chiedo quale sarà il risultato, anche su macchine diverse?

VMR divide il campione totale in due parti: allenamento e controllo. Cioè, se il campione totale contiene 600 esempi, significa che 600 - 337 = 263 esempi sono stati inclusi nel campione di allenamento, su cui il modello è stato creato (addestrato), e 337 esempi sono stati inclusi nel campione di controllo, su cui il modello è stato poi testato (ma non addestrato).
nikelodeon:
E riguardo ai dati, non è molto chiaro come prenderli per addestrare la rete su dati puliti..... Come estrarre da un set di allenamento TruePositives: TrueNegatives: FalsePositives: FalseNegatives e provare ad allenare la rete.
Non ha senso estrarre qualcosa dal set di allenamento. Il campione di allenamento serve solo per creare il modello, e il modello serve per altri dati che non saranno in questo campione, quindi VMR fa tutti i calcoli solo sul campione di controllo.
 

Infatti, JPrediction non è stato creato per prevedere strumenti finanziari, ma per prevedere la redditività dei segnali per il mese successivo.

In altre parole, compilo un campione che include le caratteristiche attuali del segnale: numero di operazioni, termine, % di profitto mensile, percentuale di operazioni redditizie, percentuale di operazioni perdenti, fattore di profitto, rapporto di Sharp, ecc. Poi aspetto un mese e segno con 1 al mese i trade redditizi e 0 quelli non redditizi.

Poi alleno il modello su questo campione e lo uso per prevedere i segnali per il mese successivo.

L'idea è che i segnali sono più facili da prevedere perché hanno molte informazioni utili aggiuntive oltre ai dati storici. Gli strumenti finanziari non hanno dati aggiuntivi oltre a quelli storici.

 
Wizard, che programma usi per interpretare i dati? E-excel?
 

Quindi sto pensando... come interpretare il risultato... per renderlo più veloce e certamente non a mano........

 
Reshetov:

Infatti, JPrediction non è stato creato per prevedere strumenti finanziari, ma per prevedere la redditività dei segnali per il mese successivo.

In altre parole, compilo un campione che include le caratteristiche attuali del segnale: numero di trade, termine, % di profitto mensile, percentuale di trade redditizi, percentuale di trade perdenti, fattore di profitto, rapporto di Sharp, ecc. Poi aspetto un mese e segno 1 per i segnali che hanno avuto un profitto entro un mese, mentre segno 0 per i trade non redditizi.

Poi alleno il modello su questo campione e lo uso per prevedere i segnali per il mese successivo.

L'idea è che i segnali sono più facili da prevedere perché hanno molte informazioni utili aggiuntive oltre ai dati storici. Gli strumenti finanziari non hanno dati aggiuntivi oltre ai dati storici.

Sostengo pienamente questo punto di vista, ho un indicatore che dà segnali. Gli stessi mestieri. Penso che sia possibile eseguirlo anche in JPrediction, ma non è chiaro come scegliere l'intervallo di allenamento? E sarebbe conveniente salvare il file con l'indicatore calcolato per ogni record.....Come viene fatto da Vizard...... E i dati stessi in modo da poterli ottenere.... Su di essi si può provare ad addestrare un'altra rete in seguito..... Questo è tutto. Di' Yuri, questo è pianificato????
 
La cosa più fastidiosa è che nemmeno Excel supporta formule così lunghe :-(