L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1810

 
Evgeny Dyuka:

Sì, è così e nient'altro.

Non sono d'accordo, ma non voglio imporre nulla...

 
mytarmailS:

Non sono d'accordo, ma non ho intenzione di imporre nulla...

Si possono passare 3 giorni su strumenti visivamente diversi. In ogni caso, esaminiamo prima la serie e traiamo delle conclusioni. Ed è sempre meglio trovare un'intesa nel test che rimediare a una perdita in quello reale).

 
Valeriy Yastremskiy:

È meglio testare senza emozioni))) Una ragione in più per commerciare)))))))

Francamente, il tema dei predittori non è coperto. Così come la logica dei modelli, quali dovrebbero essere applicati quando, e qual è il criterio per la loro selezione.

Le raccomandazioni su come preparare i dati non hanno nulla a che fare con il risultato. Anche se senza, non possiamo iniziare)))))

I modelli logici, i criteri di selezione e la preparazione dei dati sono questioni chiave, nessuno può darvi una soluzione funzionante. Se si può stendere, non funziona.

Non importa se è buono o no in termini umani, basta ammettere che queste sono le regole dell'argomento in cui ci troviamo.

 
Valeriy Yastremskiy:

È meglio testare senza emozioni))) Una ragione in più per commerciare)))))))

Francamente, il tema dei predittori non è coperto. Così come la logica dei modelli, quali dovrebbero essere applicati quando, e qual è il criterio per la loro selezione.

Le raccomandazioni su come preparare i dati non hanno nulla a che fare con il risultato. Anche se senza, non inizia a)))))

Non divulgato non è qui, è allo stato attuale delle cose purtroppo. Nessun lavoro o conclusioni, come determinare quale modello è migliore per una serie particolare, oltre a confrontare i risultati).

 
Evgeny Dyuka:

La logica dei modelli, i criteri di selezione e la preparazione dei dati sono questioni chiave, nessuno darà una soluzione funzionante. Se è disposto, non funziona.


Beh, probabilmente non è proprio così. È solo che ci sono metodi matematici e prima la loro applicazione non era disponibile per tutti, ora è disponibile. Ma non c'è altra soluzione che cercare, scegliere e provare. La massima plausibilità è un metodo, certo, ma è soggettivo, e il problema è la soggettività della scelta dei parametri significativi per l'analisi.

È meglio discutere di logiche, modelli e predittori con le caratteristiche e la logica della loro applicazione.

Non importa se funziona o no. È dimostrato che non è al 100%. E anche uno solo sarà sufficiente per fallire)))) La cosa principale sono le mani!!!!! O la coda)))))

 
mytarmailS:

per favore...

200 o 300 in valori assoluti.

A quali gamme sei interessato?


O forse studiare un po' la R? ;)


5 righe di codice e hai ottenuto ciò che volevi

Penso che tu debba guardare l'equilibrio degli errori (+1 input corretto e -1 input sbagliato), o almeno normalizzare l'equilibrio per ridurre gli outlier.

R è un compito molto difficile per me, non assomiglia a MQL, e sono lontano dall'essere un programmatore. E non sono nemmeno un programmatore, e non ho un aiuto adeguato.


Ho visto che siete interessati all'efficienza di campionamento. Anche io sono interessato a questo argomento, soprattutto voglio capire se è possibile fare la divisione meglio di me. Posso fare un campione in cui i valori dei predittori senza e con deselezione, in modo da poter controllare l'efficienza del pacchetto, cioè se può imparare meglio dopo il campionamento artificiale che dopo il mio logico, allora il pacchetto è più efficiente di quello umano.

 
Aleksey Vyazmikin:

Penso che tu debba guardare il bilancio degli errori (+1 input corretto e -1 input sbagliato), o almeno normalizzare il bilancio per ridurre gli outlier.

R è un compito molto difficile per me, non assomiglia a MQL, e sono lontano dall'essere un programmatore. E non sono nemmeno un programmatore, e non ho un aiuto adeguato.


Ho visto che siete interessati all'efficienza di campionamento. Anche io sono interessato a questo argomento, soprattutto voglio capire se è possibile fare la divisione meglio di me. Posso fare un campione di valori predittivi senza e con deselezione, così si può controllare l'efficienza del pacchetto, cioè se può imparare meglio dopo un campionamento artificiale che dopo il mio logico, allora il pacchetto è più efficiente di un umano.

Nemmeno io sono un programmatore, inoltre, ho iniziato a studiare C#, non ho capito niente e ho rinunciato, poi ho provato R e tutto è andato bene :)


La discretizzazione non vi darà certamente alcun guadagno in qualità; inoltre, è più probabile che scenda, l'importante è non guadagnare troppo.

Ho bisogno di convertire variabili numeriche con una gamma di migliaia di divisioni in variabili categoriche, che avranno, diciamo, solo 20 livelli.

Ho bisogno che generi delle regole che ripetano .....

Le foreste funzionano sul principio del voto, la probabilità di uscita è la somma dei voti degli alberi, a volte l'algoritmo mostra un'alta probabilità ma la predizione è cattiva e a volte ha un'alta probabilità e una buona predizione, quindi vedo che se so esattamente quali regole sono coinvolte nel voto in questo momento posso distinguere le regole oneste e quelle rumorose...

 
mytarmailS:

Nemmeno io sono un programmatore, infatti ho anche iniziato a studiare C#, non ho capito niente e ho rinunciato, poi ho provato R e tutto è andato bene :)


La discretizzazione non vi darà certamente alcun guadagno in qualità; inoltre, è più probabile che scenda, l'importante è non guadagnare troppo.

Ho bisogno di convertire variabili numeriche con una gamma di migliaia di divisioni in variabili categoriche, che avranno, diciamo, solo 20 livelli.

Ho bisogno che generi delle regole che ripetano .....

Le foreste funzionano sul principio del voto, la probabilità di uscita è la somma dei voti degli alberi, a volte l'algoritmo mostra un'alta probabilità ma la predizione è cattiva e a volte ha un'alta probabilità e una buona predizione, se so esattamente quali regole sono coinvolte nel voto allora posso distinguere le regole oneste e quelle rumorose...

Nel mio caso la discretizzazione migliora il risultato, e sì, i miei predittori sono più vicini a quelli categorici, quasi tutti, con valori tra 2 e 20.

Infatti, per stimare un modello come questo, è necessario controllare la somiglianza nei punti di attivazione delle foglie votanti, e rimuovere/dispesare le foglie che sono costantemente attivate in punti simili nel campione. Tali alberi rumorosi si adattano bene alla storia, a causa dell'eccesso di memoria.

Idealmente ogni foglia dovrebbe contenere un significato, e la foglia vicina dovrebbe aggiungerlo, ma descrivendo qualcosa di diverso, per esempio una ha determinato che abbiamo una palla davanti a noi, un'altra ha determinato il suo colore - così ha classificato la palla appartenente a un particolare tipo di gioco. Semplificato.

Decomponi la foresta in foglie con gli indici degli alberi e vedi l'attivazione di ogni foglia sul campione, poi scarta i detriti.
 
mytarmailS:

Vladimir, potresti per favore dirmi come in R è possibile insegnare AMO non per esempio classificazione o regressione, ma qualcosa di più vago ...

Non so come dovrebbe essere e quali valori dovrebbe prendere; non è importante per me, tutto quello che posso fare è descrivere una funzione leader e lasciare che AMO massimizzi un criterio di leader nella funzione leader creata da lui stesso

O è puramente un problema di ottimizzazione e non ha niente a che fare con l'AMO?


1. Qualsiasi modello richiede l'ottimizzazione degli iperparametri. Con le impostazioni predefinite il risultato non sarà dei migliori. Quando ottimizzi, imposta il criterio che è importante per te. In tutti gli esempi della letteratura questi criteri sono metriche statistiche (Acc, F1, ecc.). Nel nostro caso, questi criteri non portano sempre al risultato atteso nel trading (per quanto possa sembrare strano). Per esempio, uso la ricompensa media per barra su un certo periodo di tempo (di solito 1 settimana) come criterio di ottimizzazione e indicatore della performance del modello. Se non è inferiore al valore minimo (per esempio 5 punti di 4 segni), allora si continua a lavorare. Se è sceso, allora finiremo il modello con dati freschi. L'ottimizzazione è solo bayesiana, dà delle varianti.

Il modello deve essere continuamente migliorato nel processo, tenendo conto delle mutevoli condizioni del mercato. È una grande illusione che si possa addestrare un modello su una vasta gamma di dati passati e poi usarlo per molto tempo senza riqualificarlo.

2. Sintetizzare qualche funzione, non so di che tipo - questa è una cosa da fare o non fare. Ci sono diversi pacchetti che implementano la programmazione genetica. I nomi esatti non sono disponibili al momento. Ma questa è una sezione molto difficile. Prova .

3. Discretizzazione. Lo scopo principale del campionamento è quello di rendere il rapporto predittore-bersaglio il più lineare possibile. Questo naturalmente comporta una perdita di informazioni. Ma in alcuni casi dà risultati abbastanza buoni.

Buona fortuna

Генетическое программирование - Genetic programming - qwe.wiki
Генетическое программирование - Genetic programming - qwe.wiki
  • ru.qwe.wiki
В области искусственного интеллекта , генетическое программирование ( ГП ) представляет собой метод , посредством которого компьютерные программы кодируются в виде набора генов, которые затем модифицированных (эволюционировали) с использованием эволюционного алгоритма (часто генетический алгоритм , «GA») - это применение ( например...
 
La discrezione non ha senso, si può usare la regolarizzazione. Riqualificare il modello mentre commerciamo è anche un'assurdità, non funzionerà