L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 738

 

La fondazione di Michael va bene. Un buon esempio per chi cerca un punto di partenza.

Ha alcuni buoni indicatori, penso anche dalla borsa, che è già meglio di mashka e rsishka standard. Poi non si limita a ficcare tutta questa roba nella rete neurale, ma valuta anche gli indicatori con vari mezzi e seleziona quelli più adatti per la previsione. Poi il neuroneka viene addestrato, ma non uno semplice, ma uno con il controllo dell'overfit incorporato. E tutta questa strategia viene testata nel tester usando il roll-forward.

SanSanych ha già descritto un tale schema all'inizio di questo thread, finalmente qualcuno ha deciso di usarlo. Altrimenti, molti trader potrebbero voler mettere più indicatori nei neuroni senza pensare.

Pre-elaborerei anche gli indicatori attraverso vtreat o caret. E una neuronka più adeguata con kfold. E prenderei più esempi per la formazione, sono d'accordo con altri critici.

 

Lo so, fratelli!!! Vi dirò tutto in una volta... Ognuno balla nella misura della sua educazione, ma è il risultato finale che risolve la nostra disputa. Il risultato, per così dire. Per ora sto vincendo, perché il deposito sta crescendo. So che il mio approccio è uno di quelli corretti.

A proposito, io uso vtreat per selezionare predittori importanti + trucchi con lo shuffling.

Questo sarà discusso in dettaglio nell'articolo su BOO.

 
Mihail Marchukajtes:

Lo so, fratelli!!! Vi dirò tutto in una volta... Ognuno balla nella misura della sua educazione, ma è il risultato finale che risolve la nostra disputa. La linea di fondo, per così dire. Per ora sto vincendo, perché il deposito sta crescendo. So che il mio approccio è uno di quelli corretti.

A proposito, io uso vtreat per selezionare predittori importanti + trucchi con lo shuffling.

L'articolo su BO ne parlerà in dettaglio.

Sopra hai scritto dell'informazione reciproca. Cosa c'entra?

 
SanSanych Fomenko:

Lei ha scritto sopra sull'informazione reciproca. Cosa c'entra questo?

Il criterio decisivo nella scelta del modello da utilizzare. Prepara il ditset. Ti alleni 10 volte. Otteniamo 10 modelli con gli stessi risultati di formazione (come esempio) dove il numero di errori di formazione è lo stesso per tutti i modelli. Poi salviamo i risultati del modello sulla sezione di addestramento non in forma binaria, ma in una tabella. Il risultato del calcolo polinomiale è inizialmente calcolato in dable......

Poi calcoliamo VI dei polinomi in relazione all'uscita. I modelli funzionanti sono considerati avere VI superiore all'entropia di uscita o semplicemente più di 0,7 circa....

Scegliete un modello con un alto OI, ma non superiore a 0,95. Anche se non l'ho ancora verificato.... IMHO

 

Per quanto riguarda l'aumento del campione di allenamento. Sì, può essere aumentato, ma diminuirà la qualità della rete, il che porta a una diminuzione delle transazioni. La rete comincia a funzionare più a lungo, ma il numero di stati "Non so" aumenta e risulta che la rete funziona meno spesso. Con questo approccio è necessario addestrare diversi modelli ed eseguirli in parallelo.


A maggior ragione, il periodo di allenamento mi è stato dettato da vtreat.R. Che con i miei dati di input mi offre set di input per diverse lunghezze di campione. Scelgo il periodo massimo di apprendimento con il numero massimo di variabili di input che sceglie....E stranamente, gira da 20 a 50 campioni. A quanto pare i miei input sono così. Cosa posso fare...

 

Mihail Marchukajtes:

...

Un criterio decisivo per scegliere il modello da utilizzare

...

Cercherò di tradurlo in MO:

Anche se il modello è un modello di classificazione, può restituire il risultato non solo in 0 e 1 binario, ma anche la probabilità di appartenenza a una classe (un numero frazionario da 0 a 1). Pertanto, il modello può essere stimato non solo con metriche di classificazione, ma anche con metriche di regressione. Non so perché sia stata scelta l'informazione reciproca, ma si correla bene con la MOC, quindi va bene.

In R può essere calcolato in questo modo
libreria(entropia)
mi.plugin(rbind(target,prediction))
Qui, più piccolo è il risultato, meglio è.

 
Non sono sicuro di cosa sia:

Certo, ma in statistica l'errore (variazione) è proporzionale a 1/sqrt(N) dove N è il numero di osservazioni, qui tutto dipende dalla variazione iniziale, più è, più osservazioni sono necessarie per inserire l'errore nel quantile del 5%

"Cerca qualcuno che ne benefici" ((c) Lenin)

Solo strumenti inutili o addirittura dannosi vengono messi e venduti per ovvi motivi, questa banale verità va sempre tenuta a mente, l'altotrading non è un webdesign o qualche altro franchising, è un furto funzionale diretto di denaro dal mercato, tutto ciò che è aperto e facilmente accessibile, tanto meno pubblicizzato, a priori non può essere utile in questo contesto, spazzatura o truffa, un ambiente così aggressivo e competitivo lo abbiamo.

Beh, sì, il 5 percentile di vincite e un'infinita abbondanza di strumenti disponibili pubblicamente è un Klondike.

E recentemente ho dovuto fare un componente di rete neurale personalizzato, che l'ha testato tre ordini di grandezza meglio dell'astuto DNN di TensorFlow.

E soprattutto, non c'era nessuna matematica complicata o tecnologie complicate, piuttosto una soluzione semplice, anche se originale.

In questo contesto, l'adesione di Mikhail al progetto di Reshetov non mi sorprende affatto.

 
Non lo so:

Questo è quello che voglio dire, solo questo. Se prendo 40 campioni attraverso la mia infrastruttura, non posso nemmeno garantire il risultato, e 4000 punti sono molto poco. A meno che, ovviamente, non si parli di strategie di combattimento e non di strategie di articoli.

Mi attengo alla seguente regola empirica - un EA su dati nuovi non funzionerà per più del 10% delle barre allenate. Se mi sono allenato su 4000 barre, significa che questo EA non funzionerà per più di 400 barre. Per esempio, se voglio negoziare una settimana su m15, ho bisogno di almeno 4800 (4*24*5*10, 10 settimane) barre di storia per la formazione.

Un giorno MT5 introdurrà i thread paralleli negli esperti per essere in grado di ottimizzare l'Expert Advisor in background e allora sarà possibile condurre esperimenti interessanti con un numero estremamente basso di barre e forse sarò in grado di farlo con 40 barre. Anche se probabilmente non sarò in grado di farlo. Anche se ho meno di 1000 campioni, il risultato della neuronica si inclina verso la tendenza e appena cambia è male.

 
Mihail Marchukajtes:

Per quanto riguarda l'aumento del campione di allenamento. Sì, può essere aumentato, ma diminuirà la qualità della rete, il che porta a una diminuzione delle transazioni. La rete comincia a funzionare più a lungo, ma il numero di stati "Non so" aumenta e risulta che la rete funziona meno spesso. Con questo approccio è necessario addestrare diversi modelli ed eseguirli in parallelo.


A maggior ragione, il periodo di allenamento mi è stato dettato da vtreat.R. Che con i miei dati di input mi offre set di input per diverse lunghezze di campione. Scelgo il periodo massimo di apprendimento con il numero massimo di variabili di input che seleziona....E stranamente, gira da 20 a 50 campioni. A quanto pare i miei input sono così. Cosa si può fare...

Non la qualità della rete diminuirà, ma ci sarà meno overfit e il tuo modello apparirà in tutta la sua gloria e povertà

Il mio neurone di Reshetov opta per 3 mesi per 1000+ trades su 3 smart fics, e funziona per zero sul reale. E altri neuroni ottimizzano ancora meglio. Non so perché continui a dire queste sciocchezze con i tuoi 100 scambi, sei così stupido, la tua auto-cura o vuoi dimostrare qualcosa a qualcuno?
 

hmm... buon pomeriggio).

la parola 'curwafitter' è qualcosa di neurale?