L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3164

 
Forester #:

Come effettuare la ricerca? Esaminare tutti i pezzi (ad esempio 100 per 5000 pp) e vedere quanto successo hanno le altre 500.000 righe su quel modello?

Sì, è possibile estrarre a caso i campioni invece dei pezzi in fila, è più corretto.

 
mytarmailS #:

Mi sono venute le lacrime agli occhi, stavo ridendo così tanto).

Ho chiesto a Bard di scrivere in russo, ha scritto con un errore, capita. Il russo non è la mia lingua madre, lo uso solo qui in sostanza...

e lui mi ha risposto).


Hai capito?

Ha iniziato a trollarmi )))

Questo è solo brutale))))

Non ti sta trollando.

Hai scritto ruSki - che è "russo" in serbo.

Ecco perché ti sta scrivendo in serbo.

 
Dmytryi Nazarchuk #:

Non ti sta trollando.

Hai scritto russki - che è serbo per "russo".

Ecco perché ti sta scrivendo in serbo.

Ahh))))

 
mytarmailS #:

Interessante articolo sugli alberi e sull'apprendimento per rinforzo in essi.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/

Ho testato l'algoritmo su dati di mercato...

L'algoritmo è stabile sui nuovi dati rispetto a Forest....

l'algoritmo non viene riqualificato, su tutti i campioni di convalida il risultato è migliore di quello del campione di prova o molto migliore, non ho visto risultati peggiori....

Akurasi è in media del 2-4% migliore di Forrest. Se Forrest ha 0,58, RLT ha ~ 0,62.


In ogni caso, secondo i primi test, l'algoritmo è valido, ma richiede molto tempo per essere appreso....

 
Forester #:
Fatto in casa. Le possibilità di sperimentazione sono illimitate....

Già. Non ha senso discutere di quelli fatti in casa.

Perché perdere tempo con quelli fatti in casa? Ce ne sono decine non fatti in casa con algoritmi che sono praticamente utilizzati da milioni di utenti.....

 
mytarmailS #:

ha testato l'algoritmo sui dati di mercato.

L'algoritmo funziona in modo costante sui nuovi dati rispetto a Forest....

l'algoritmo non si riqualifica, su tutti i campioni di validazione il risultato è migliore rispetto al campione di prova o molto migliore, non ho visto di peggio....

Akurasi è in media migliore del 2-4% rispetto a Forrest, quindi se Forrest ha 0,58, RLT ha ~ 0,62.


In ogni caso, secondo i primi test, l'algoritmo è valido, ma richiede molto tempo per essere appreso....

Secondo la loro teoria, dovrebbero esserci alcuni tratti "forti" che funzionano bene e il problema è separarli dal resto dei tratti "deboli". Nel loro campo, la genetica, è probabilmente così. Ma la nostra situazione è ovviamente diversa: i tratti sono approssimativamente uguali in forza, spesso allineati, e la loro valutazione di forza può cambiare nel tempo.

In generale, se si trattasse solo di selezionare tratti informativi, San Sanych, con il suo metodo segreto, sarebbe diventato un miliardario molto tempo fa).

 
Aleksey Nikolayev #:

La loro teoria presuppone che ci siano alcuni tratti "forti" che funzionano bene e l'unico problema è separarli dal resto dei tratti "deboli". Nel loro campo, la genetica, è probabilmente così. Ma la nostra situazione è chiaramente diversa: i tratti sono approssimativamente uguali in forza, spesso allineati, e la loro valutazione di forza può cambiare nel tempo.

In generale, se si trattasse solo di selezionare tratti informativi, San Sanych, con il suo metodo segreto, sarebbe diventato un miliardario molto tempo fa).

Ebbene, l'algoritmo funziona davvero ed è più stabile e akurasi meglio e kappa meglio... in altre parole, funziona meglio...

e funziona sia dopo 1000 nuove osservazioni che dopo 20 000 ... e l'errore è lo stesso o migliore.

Aleksey Nikolayev #:

i segni sono più o meno della stessa forza

Beh, e qui non posso essere d'accordo.

l'importanza di questo algoritmo


 
СанСаныч Фоменко #:

Sì... non ha senso discutere di quelli fatti in casa.

Perché perdere tempo con quelli fatti in casa? Ce ne sono decine di non fatti in casa con algoritmi che sono praticamente utilizzati da milioni di utenti.....

Perché posso sperimentare e fare cose che non sono incluse in questi algoritmi - scatole nere.
Non discuto di pacchetti, offro di discutere solo di idee.
 
Forester #:
Perché posso sperimentare e fare cose che non sono incluse in questi algoritmi - scatole nere.
Non discuto i pacchetti, suggerisco di discutere solo le idee.
E quanti di voi hanno implementato le idee discusse qui?
E quanti di voi hanno ottenuto risultati migliori rispetto alla libreria già pronta?

La cifra è circa zero, non è vero?

E la libreria è un codice riproducibile, tutti possono eseguirlo e tutti otterranno il risultato, un risultato riproducibile, un risultato reale, sotto forma di risposta sì-no + esperienza e conoscenza aggiunte.

E le discussioni sono solo una perdita di tempo, abbiamo discusso, discusso e dimenticato, nessuno ha scritto nemmeno una riga di codice, proprio come le nonne sulla panchina, e il tempo è passato e la vita con esso... E non è stata aggiunta né conoscenza né esperienza.

 
La sensazione è che la conoscenza stia diminuendo, colpa del pensiero batch.