L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 716

 
Alexander_K2:

Michael, come sono finiti gli esperimenti di entropia/non entropia?

I miei fratelli mi hanno consigliato di installare R e ci hanno buttato dentro un paio di plugin con frammenti di codice. Di conseguenza, ho smesso tutti i calcoli in Excel e uso pacchetti già pronti. In R ho fatto un calcolo del numero di variabili di input importanti per l'output per ogni riga della tabella, e per diversi output. Come risultato ottengo una certa quantità di dati a seconda della dimensione della tabella e della variabile di uscita. Scelgo l'uscita dove ho il massimo numero di variabili importanti alla massima profondità di campionamento. Poi alleno i modelli sul campione preparato. E sapete, in tutti gli anni di formazione AI questa è la prima volta che i test mostrano risultati così stabili e soddisfacenti. Ma tutti i test non avranno alcun valore se il segnale non si alza, e quando si alzerà e la gente ci farà caso, tutti ricominceranno a leggere il mio articolo e cercheranno di capire cosa ho fatto e come l'ho fatto. Dopotutto, non importa come l'ho fatto, basta che funzioni a lungo termine. E non importa se si usa un computer o l'IA. L'importante è il risultato finale!!!!!

 

E questo è il legame logoro che dà inizio a tutta l'azione nel mercato. È interessante guardare dal minuto 20 in poi. Ecco dove ha preso il succo del discorso...

https://www.youtube.com/watch?v=d4XzMqHNeew

Ho lanciato questo a coloro che pensano che la mia conoscenza del mercato sia ridicola. Anche se conosco poco il mercato, lo guardo con sobrietà, senza illusioni e occhiali rosa. Vi auguro lo stesso a.....
 
Mihail Marchukajtes:

I miei fratelli mi hanno consigliato di installare R e ci hanno buttato dentro un paio di plugin con frammenti di codice. Di conseguenza, ho smesso tutti i calcoli in Excel e uso pacchetti già pronti. In R ho fatto un calcolo del numero di variabili di input importanti per l'output per ogni riga della tabella, e anche per diversi output. Come risultato ottengo una certa quantità di dati a seconda della dimensione della tabella e della variabile di uscita. Scelgo l'uscita dove ho il massimo numero di variabili importanti alla massima profondità di campionamento. Poi alleno i modelli sul campione preparato. E sapete, in tutti gli anni di formazione AI questa è la prima volta che i test mostrano risultati così stabili e soddisfacenti. Ma tutti i test non avranno alcun valore se il segnale non si alza, e quando si alzerà e la gente ci farà caso, tutti ricominceranno a leggere il mio articolo e cercheranno di capire cosa ho fatto e come l'ho fatto. Dopotutto, non ha molta importanza come l'ho fatto, basta che funzioni a lungo termine. E non importa se si usa un computer o l'IA. L'importante è il risultato finale!!!!!

Beh, voglio dire che in questo momento tutte le ricerche sono sospese. Si usano modelli pronti da R, contando anche su un piccolo +. Poi - aprire il segnale e, se c'è denaro costante nel borsellino, continuare la ricerca fuori dai modelli. Ho capito bene la situazione attuale?

 
Alexander_K2:

Beh, vale a dire che, in questo momento, tutte le ricerche sono sospese. I modelli pronti di R vengono utilizzati, anche se solo per un piccolo +. Poi, aprite il segnale e, se c'è denaro costante nella borsa, continuate la ricerca fuori dai modelli. Ho capito bene la situazione attuale?

No. Ora la ricerca è in pieno svolgimento, vale a dire test su larga scala in relazione a nuove opportunità. I risultati finora sono più che soddisfacenti. Il segnale è già lì, ora ho solo bisogno di sollevarlo :-).

In R sto pre-elaborando i dati e scaricando la spazzatura dai dati. Come si scopre, la presenza di spazzatura nell'input degrada molto le prestazioni del modello sull'OOS. Dopo la pre-elaborazione, quando R mi dice che questi input esatti hanno dipendenza dall'output, cerco la dipendenza stessa nell'ottimizzatore. Ottengo circa 3-5 modelli, poi faccio dei test di controllo di ogni modello e seleziono quello che ha superato il test. Poi lo metto nel robot e controllo.....

 
Mihail Marchukajtes:

.... Come si scopre, la presenza di spazzatura nell'input degrada molto le prestazioni del modello sull'OOS.

+100

E non solo in circuito aperto.

 
È chiaro che un modello al 100% è ancora un incidente piuttosto che una sorta di stabilità (ottenerli). Ma cosa c'è di buono in un modello? Perché è sbagliato in piccoli casi e dice sempre correttamente in quei casi in cui c'è un grande profitto sul segnale. Dovrei solo occuparmi di alcune faccende domestiche e finire i miei test e vi mostrerò il mio approccio a uno strumento come le opzioni binarie. Si scopre che si può guadagnare anche su di loro con un vantaggio sul mercato nel suo complesso. Questo è un approccio professionale allo strumento, piuttosto che attacchi frenetici con principi da casinò. Pura strategia.....!!!
 
Mihail Marchukajtes:

No. La ricerca è ora in pieno svolgimento, vale a dire test su larga scala in relazione alle nuove possibilità emerse. I risultati sono più che soddisfacenti finora. Il segnale è già lì, ora ho solo bisogno di sollevarlo :-).

In R sto pre-elaborando i dati e scaricando la spazzatura dai dati. Come si scopre, la presenza di spazzatura nell'input degrada molto le prestazioni del modello sull'OOS. Dopo la pre-elaborazione, quando R mi dice che questi input esatti hanno dipendenza dall'output, cerco la dipendenza stessa nell'ottimizzatore. Ottengo circa 3-5 modelli, poi faccio dei test di controllo di ogni modello e seleziono quello che ha superato il test. Poi lo metto al robot e vedo come va.....

quindi tutto quello che dovete fare è buttare via il jpredictor e usare l'abbondanza di modelli in R

forse i tuoi tratti sono così focosi che qualsiasi modello starebbe bene con loro

 
Maxim Dmitrievsky:

quindi tutto quello che dovete fare è buttare via il jpredictor e usare l'abbondanza di modelli in R

forse i vostri segni sono così focosi che qualsiasi modello starebbe bene con loro

Questa è un'affermazione fondamentalmente sbagliata. Il punto è che Reshetov ha stretto tutte le viti dell'ottimizzatore al limite in termini di riqualificazione. Condizioni di massima severità per la selezione dei modelli, per non parlare della costruzione casuale dell'addestramento e dei test. Mi sembra che i dadi siano stretti anche troppo, perché con l'abbondanza di dati di input i modelli raramente avevano anche un decimo di tutti gli input. MA cosa ha fatto R?

Con la pre-elaborazione di R, questi input hanno una qualche relazione con questo output. Quindi R dice solo dell'esistenza di questa correlazione, e la ricerca di questa correlazione è fatta dall'ottimizzatore e con le sue regole rigide per ridurre l'overtraining costruisce modelli nel campo dei dati utili per l'output e non è overtrained. Almeno ci prova..... Quindi è una buona simbiosi !!!!

 
Mihail Marchukajtes:

Bene. La critica è in grande considerazione..... Vai così.....

Dimmi, cosa c'è di così ridicolo nel mio post? Cosa c'è che non va????

Niente, solo generalità nello stile di Gertschik.


 
Mihail Marchukajtes:

Mi è stato consigliato dai miei fratelli nella scienza di installare R...