L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2751

 
Aleksey Nikolayev #:

Avete fatto un confronto tra il vostro algoritmo e KNN (o qualche sua modifica)? Sarebbe interessante capire quanto sia significativo il guadagno.

KNN non è affatto la stessa cosa.


A me interessa la "capacità predittiva", non la classificazione, e anche senza un maestro, che sono inutili nel nostro settore.

 
Vladimir Perervenko #:

Questo è davvero un grande passo avanti. Gli indicatori e gli esperti devono essere riscritti?

Già che ci sei, grazie per l'ICA e ancora una domanda sulla feature_extraction(che tu caratterizzi come"riconoscimento di componenti uniche e significative") -- ho sfogliato questo argomento una volta (descrizione per Python), e poi l'ho abbandonato.... Ho avuto l'impressione che usino questa estrazione solo quando lavorano con immagini e testo -- dovremmo preoccuparci di questo approccio quando lavoriamo con dati strutturati (come una tabella di fattori)?... puoi scrivere qualche parola sull'essenza dell'algoritmo per capirne l'utilità?, solo nel tuo articolo ho intravisto qualcosa al riguardo...? o mi sono perso qualcosa? (e quello che ho visto in Python non mi ha ispirato ad applicare feature_extraction ai fattori del mercato).

per quanto riguarda le preferenze: hai deciso di rimanere con la PCA normale (o gerarchica, come hai descritto)?

quale riduzione della dimensionalità stai usando ora?

e grazie per l'articolo

Глубокие нейросети (Часть III). Выбор примеров и уменьшение размерности
Глубокие нейросети (Часть III). Выбор примеров и уменьшение размерности
  • www.mql5.com
Эта статья продолжает серию публикаций о глубоких нейросетях. Рассматривается выбор примеров (удаление шумовых), уменьшение размерности входных данных и разделение набора на train/val/test в процессе подготовки данных для обучения.
 

ci sono dubbi significativi sul fatto che le NN possano funzionare con un numero crescente di informazioni. Poco sopra si faceva riferimento a qualcosa che correva tra le pareti e mangiava il verde senza toccare il rosso. Quando il labirinto aumenta (crescita dell'informazione), la memoria del rosso/verde viene spazzata via. Quindi si muove bene nella vecchia formazione, ma non in quella nuova. Finché gli schemi si ripetono, funziona più o meno bene. E funziona perfettamente solo dove è allenato.

La contro-tesi dello stesso NN per le stesse condizioni è che uno studente può scrivere un algoritmo più efficiente. E questo algoritmo un altro studente può migliorare o portare alle condizioni dell'altro_spazio_curvatura (o ottimizzare/semplificare). L'uso di NN in questo esempio semplificato è un vicolo cieco, il suo risultato non può essere migliorato consapevolmente e qualitativamente. E questo è un problema generale di NN (e anche di DL). Questi metodi possono essere utilizzati per riconoscere rosso/verde, tondo/quadrato da un insieme di immagini rossastre, verdastre, su uno sfondo viola, in B/N oblungo. La soluzione di problemi speciali ristretti, non l'uscita di equità all'infinito.

 
СанСаныч Фоменко #:

KNN non è affatto la stessa cosa.


A me interessa la "capacità predittiva", non la classificazione, e anche senza un maestro, che sono inutili nel nostro settore.

Tuttavia, KNN offre il modo più semplice per gestire la non stazionarietà se lo si utilizza in una finestra scorrevole. Utilizza sempre lo stesso insieme di predittori, il che consente di confrontarlo con un algoritmo che cambia l'insieme dei predittori e di valutare i vantaggi di questa complicazione.

 
Alexey Burnakov " stima e selezione dei predittori" hanno fallito.

Pubblicherò il mio metodo, che risolve problemi simili in modo robusto e sensibile - fornirò la teoria e pubblicherò il codice in R.

Questo è fatto per un arricchimento reciproco della "comprensione" dei compiti di apprendimento automatico.

Quello che ho postato non è sufficiente per postare quello che hai detto?

 
Aleksey Nikolayev #:

Tuttavia, KNN offre il modo più semplice per gestire la non stazionarietà quando viene utilizzato in una finestra scorrevole. Utilizza sempre lo stesso insieme di predittori, il che consente di confrontarlo con un algoritmo che cambia l'insieme dei predittori e di valutare i vantaggi di questa complicazione.

Non vedo il motivo di fare qualcosa che non può produrre il risultato desiderato.

 

Chi ha chiesto l'applicazione di NN e AI nel trading?

La piattaforma (moderata) (moderata ) ( moderata) (moderata) (moderata) (moderata) (moderata) comprende la descrizione di condizioni/regole/parti-algoritmi di trading in linguaggio naturale. Naturalmente in inglese

A mio parere, questa è la giusta direzione di movimento e di applicazione degli sforzi dell'IA. Come nel suo dominio Wolfram, ma Wolfram è soprattutto un'enciclopedia.

---

in questo momento, persone che operano nello stesso campo e che comunicano da molto tempo non sono in grado di capirsi. Senza un traduttore automatico o un accordo reciprocamente firmato e vincolante sulla denominazione delle entità:-)

 
Aleksey Nikolayev #:

Avete fatto un confronto tra il vostro algoritmo e KNN (o qualche sua modifica)? Sarebbe interessante capire quanto sia significativo il guadagno.

SanSanych Fomenko #:

Non vedo il motivo di fare qualcosa che in linea di principio non può dare il risultato desiderato.


Aleksey Nikolayev #:

Tuttavia, KNN offre il modo più semplice per gestire la non stazionarietà se lo si usa in una finestra scorrevole. Utilizza sempre lo stesso insieme di predittori, il che consente di confrontarlo con un algoritmo che cambia l'insieme dei predittori e di valutare i vantaggi di questa complicazione.

se KNN è essenzialmente K-means (nome straniero per k-nearest-neighbors?), allora esso(K-means) utilizza la distanza euclidea ... "quando le variabili non sono correlate -- la distanza Mahalanobis coincide con la solita distanza euclidea " ... in LDA . .. beh, se sono correlate -- allora Mahalanobis è migliore, come notato ieri in termini generali
 
СанСаныч Фоменко #:

Non posso essere d'accordo.

Il mercato sta cambiando e gli intervalli di tempo del cambiamento sono diversi e indipendenti l'uno dall'altro.

Un tempo ero in grado di scrivere Expert Advisor che vivevano da 3 a 6 mesi. Li ottimizzavo nei fine settimana. Poi morivano, e per un breve periodo abbastanza da prosciugare il deposito. Non c'era abbastanza tempo per ottimizzare. Alla fine la situazione era ancora peggiore: dopo qualche tempo si scoprì che esisteva un limite, allontanandosi dal quale era impossibile selezionare i parametri.

I periodi di cambiamento del mercato sono più lunghi: 5-7 anni. Ma il risultato è lo stesso dei periodi mensili. Il bot muore per sempre. Invierò un bot specifico del mercato in un messaggio privato - non è possibile farlo qui.

Quindi tutta questa idea del "fuori campione" è una sciocchezza. Un bot ha ancora una vita, non sappiamo quanto lunga: 3 mesi o 7 anni. Quando il bot muore, lo confondiamo con un altro drawdown e svuotiamo il nostro deposito.

L'ideale sarebbe riqualificarlo alla candela successiva. Se lavoriamo sui tick, allora sul tick successivo, sull'H1 e sull'arrivo dell'ora successiva.

Grazie, è abbastanza chiaro, perché su ogni barra))))) E perché dopo i minuti si passa ai tick))))))

 
JeeyCi #:


se KNN è essenzialmente K-means (nome straniero per k-nearest-neighbors?), allora esso(K-means) utilizza la distanza euclidea ... "quando le variabili non sono correlate -- la distanza Mahalanobis coincide con la distanza euclidea ordinaria" .... in LDA . .. beh, se sono correlate -- allora Mahalanobis è migliore, come notato ieri in modo generale

Nulla vieta di utilizzare qualsiasi altra distanza al posto della distanza euclidea. Non si può usare Mahalanobis, ovviamente, perché è la distanza tra un punto e un campione, non tra due punti.