L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 362

 
Ildottor Trader:

Un riassunto delle cento pagine precedenti :)

Neuronics e quasi tutti gli altri modelli popolari sono molto lontani dall'intelligenza artificiale. Possono semplicemente trovare tali combinazioni di valori predittivi che raggiungono la precisione di apprendimento desiderata, e nelle previsioni future interpolano (o estrapolano) i risultati passati per ottenere una nuova previsione.

Significa che se prendiamo, per esempio, Ma, Rci e Stochastic come predittori e addestriamo la rete neurale usando le inversioni a zig zag come obiettivo di addestramento - diremo alla rete neurale "questi tre predittori possono prevedere le inversioni. E la rete neurale stessa non sarà in grado di capire se questi predittori sono davvero adatti. Memorizzerà quei dati con una precisione accettabile e nel trading spereremo che le stesse combinazioni di Ma, Rci e Stocastico saranno salvate prima dell'inversione. Ma non lo faranno, e fallirà.

Un modello addestrato su predittori inutili fallirà anche se è gbm, anche se è rete neurale, anche se è regressione. Si possono anche generare serie casuali e usarle come predittori, la neuronica troverà combinazioni ricorrenti tra di esse e le ricorderà.
È compito di un data miner umano selezionare i predittori e lo scopo della formazione, utilizzando altri strumenti. E l'addestramento del modello (il neurone) è un piccolo penultimo passo.

I predittori devono mantenere la correlazione con l'obiettivo sui dati di allenamento, sia nel passato che nel futuro. Ecco perché SanSanych parla di testare il modello su diversi file, solo per assicurarsi che le dipendenze trovate non spariscano con i nuovi dati.
Cioè studiamo e raccogliamo attentamente i predittori e l'obiettivo, addestriamo il modello e lo testiamo. Poi lo testiamo su dati completamente nuovi per il modello. Se la precisione della previsione in entrambi i casi non coincide, i predittori o l'obiettivo non sono adatti. Dovremmo cercarne un altro.


A mio parere la neuronica non è adatta a prevedere serie temporali non stazionarie. Il comportamento dei prezzi cambia continuamente, i modelli trovati smettono di funzionare dopo ore, tutto è caotico. E poi qualcuno prende un neuroncu, gli dà dei prezzi per un paio di mesi e chiede di trovare le dipendenze che si ripetono durante questo tempo. Ma non ci sono dipendenze che si ripetono e ciò che il neurone può trovare e ricordare sarà solo una coincidenza casuale al 100%.

Se prendiamo un neurone, allora possiamo dargli solo prezzi elaborati (e non ohlc puro), come gli indicatori.


Perché siete di vedute così ristrette, tutti scrivono qui come se non avessero mai visto niente di più dolce di una carota )) Non preoccupatevi dei predittori, insegnate al neurone a trovare questi predittori, insegnate al neurone a insegnare al neurone, sperimentate :) Ovviamente è molto stupido prendere dei semplici indicatori, alimentarli all'ingresso e all'uscita a zig zag, non so perché tutti ne discutono :) E naturalmente questa non è AI, è solo classificazione, non c'è bisogno di un neurone! Si può fare con un classificatore bayesiano
 
Maxim Dmitrievsky:

Perché pensare in modo così ristretto, ognuno qui scrive come se non avesse mai visto niente di più dolce di una carota )) Fanculo i predittori, insegnare al neurone a trovare questi predittori, insegnare al neurone a insegnare al neurone, sperimentare :)
Penso che neuronka dovrebbe impostare i predittori inutili a 0 - e non influiranno sull'output! L'unica differenza sarà nella velocità di calcolo tra tutti i predittori e con la metà di quelli più importanti. Ma anche questo è importante.
 
elibrario:
Beh, sembra anche a me che la neuronica dovrebbe fattorizzare i predittori inutili a 0 - e non influenzano l'uscita! L'unica differenza sarebbe la velocità di calcolo tra tutti i predittori e la metà di quelli più importanti.

Questo è il modo in cui i neuroni sono stati creati per compiti ad alta intensità di risorse, l'unico problema è che in mt5 è molto limitato. Si possono creare modelli molto complessi, originali e non ovvi, solo allora il potenziale dell'applicazione di NS sarà rivelato, ma certamente non in quelle tecniche, che sono discusse qui, è come le basi per i principianti :) Se non avete abbastanza capacità, ci sono server per l'addestramento NS... Tutto ciò che può essere addestrato in 5-30 minuti su un normale PC non è, secondo me, affatto neuronico e primitivo :)
 
Maxim Dmitrievsky:

Questo è il modo in cui sono stati creati i neuroni per i compiti ad alta intensità di risorse, l'unico problema è che in mt5 è molto povero. È possibile creare modelli molto complessi, originali e non ovvi, solo allora il potenziale dell'applicazione NS sarà svelato, ma certamente non in quelle tecniche, che sono discusse qui, è come le basi per i principianti :)

Perché ho intenzione di utilizzare la neuronica in MQL puro per l'ottimizzazione (per scegliere i parametri degli indicatori) ed eseguirla in una rete o nel cloud. 20000 agenti possono contare - è impossibile confrontare con qualsiasi R per quanto riguarda la velocità. Anche se R sembra avere la distribuzione dei compiti al cloud Azure

 
elibrario:

Sto progettando di utilizzare la neuronica in MQL puro per l'ottimizzazione (per selezionare i parametri degli indicatori) e di eseguirla su una rete o nel cloud. 20000 agenti possono contare - nessuna R può essere paragonata a qualsiasi altra per velocità.


Voglio dire che i neuroni in mt5 non sono sufficienti, solo uno :)
 
Maxim Dmitrievsky:

Volevo dire che i neuroni in mt5 sono pochi, solo uno :)
Bene, la cosa più importante è ancora la qualità dei dati di input, se ce l'avete, allora anche 1 neurone risolverà il problema
 
elibrario:
Bene, la cosa più importante sono ancora i dati di input qualitativi, se li avete, allora 1 neurone risolverà il problema.

No, non lo farà. Se si aumenta il campione il neurone si restringe per lo stress e scoppia :) Non sarà in grado di approssimare un tale campione e produrrà permanentemente lo 0,5
 
Maxim Dmitrievsky:

No, non lo farà. Se aumenti il campione il tuo neion si ridurrà per lo stress e scoppierà :) Non sarà in grado di approssimare un tale campione e genererà costantemente 0,5 all'uscita

0,5 sarà 0,5 se tutti gli ingressi hanno un moltiplicatore di 1. Ma se la rete impara e imposta il moltiplicatore per gli ingressi insignificanti a 0, e per quelli più importanti a 1, allora tutto andrà bene. L'uscita naturalmente non sarà 1, ma per esempio reagire se l'uscita è >0,8

Ma purtroppo non ci sono indicatori che si correlano con le uscite corrette. Perciò i prelievi avverranno sicuramente. Devi solo piegare la probabilità al tuo lato
 
elibrario:

0,5 sarà se tutti gli ingressi hanno moltiplicatore = 1. E se la rete impara e imposta gli ingressi insignificanti a 0 e gli ingressi più importanti a 1, allora tutto andrà bene. L'uscita naturalmente non sarà 1, ma per esempio reagire se l'uscita è >0,8

Ma purtroppo non ci sono indicatori che si correlano con le uscite corrette. Ecco perché i prelievi sono destinati ad accadere. Devi solo piegare le probabilità a tuo favore.

Non è che non siano correlati, si contraddicono quando il campione aumenta, sì, alla fine o l'uscita è sempre 0 o 1, o 0,5... inoltre per 1 neurone. Quindi se >0,5 vendere e <0,5 comprare. Si impostano predittori corretti (secondo voi) e risposte corrette, cioè, se psi è ipervenduto e il mercato cresce sulle prossime n-barre, allora output 0, e se psi è ipercomprato e il mercato scende, allora output 0. Ma ci saranno molti casi in cui è il contrario e si smussa, confonde i segnali e va in trance. Di conseguenza l'uscita sarà sempre intorno a 0,5 con piccolissime deviazioni in una direzione o nell'altra... e succederà con tutti gli oscillatori, perché non sono affatto predittori, sono derivati del prezzo :)
 
Ildottor Trader:

Quindi se prendiamo, per esempio, Ma, Rci e Stochastic come predittori, e addestriamo la rete neurale usando le inversioni a zig-zag come obiettivo di addestramento - diciamo alla rete neurale "questi tre predittori possono prevedere le inversioni. E la rete neurale stessa non saprà se questi predittori sono davvero adatti. Memorizzerà quei dati con una precisione accettabile e nel trading spereremo che le stesse combinazioni di Ma, Rci e Stocastico siano salvate prima dell'inversione. Ma non lo faranno, e fallirà.

IMHO è più corretto pensare alla classificazione e alla regressione come diversi tipi di media dei punti in N-d, in prossimità di qualche kernel, come accade per esempio in kNN che si dice essere un approssimatore "ideale", ma lento e non pratico. Nella classificazione si fa la media solo delle risposte, nella regressione si fa la media delle schede e delle risposte. Ovviamente se questa media mescola punti contraddittori allora il risultato sarà rumoroso, non pronunciato.