L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3377

 
fxsaber #:

Domanda teorica.

Esiste una TS che si adatta splendidamente. Allo stesso tempo, è noto che un certo insieme di parametri di input sfrutta con profitto il modello reale. Cioè, questo insieme non si adatta.

È possibile trovare questo insieme?

Se si elimina la clausola"TC che si adatta perfettamente", sipuò restringere notevolmente il campo. Inoltre, è necessario conoscere subito il modello che si sta cercando.

Non si può prendere un gruppo arbitrario di indicatori, rimuovere quelli ovviamente dipendenti e da lì ottenere un "TS adattato" e in tutto questo isolare lo sfruttamento della regolarità reale.

Una buona domanda è una mezza risposta - Nel mondo reale, dove si applicano alg.optimisations e ML, di solito si sa cosa si sta cercando esattamente (oscurità delle caratteristiche) ed è necessario evidenziare le caratteristiche, delineare i limiti. E qui nessuno sa cosa vuole trovare, ma sa come far funzionare l'ottimizzatore :-)

 
fxsaber #:

La natura della curva dei profitti non cambia in base all'OOS: Size(OOS_Left) = Size(OOS_Right) = Size(Sample). Tutto sommato, un risultato che non si può ignorare.

Ebbene, attraverso una ri-ottimizzazione con un controllo su OOS si può trovare :) che è il caso più semplice di wolf forward OR cross-validation con una sola piega.
 
Maxim Dmitrievsky #:
Beh, attraverso la ri-ottimizzazione con il controllo OOS può essere trovato :)

Si prega di rivelare in poche frasi.

 
fxsaber #:

Si prega di divulgare in poche frasi.

Tutti sembrano essere a conoscenza di wolf-forward. Quando si ottimizza per il campione, i risultati vengono presi da oos. Viene preso il miglior risultato complessivo con parametri mediati in modo che le curve non differiscano.
 
Non dimostrerà che non si tratta di un adattamento. Fornirà i parametri più robusti. È impossibile dimostrare che non si tratta di un adattamento globale. E soprattutto non attraverso i minimi globali.
 
Maxim Dmitrievsky #:
Penso che tutti conoscano il wolf-forward. Quando si ottimizza il campione, i risultati vengono presi da oos. Viene preso il miglior risultato complessivo con parametri mediati in modo che le curve non differiscano.

Supponiamo che vengano eseguiti 100 passi - otteniamo 100 serie di input. Se formiamo il set medio secondo il principio "ogni set di input è uguale alla media dei 100 set di input corrispondenti", è improbabile che questo set superi bene l'intero intervallo iniziale.

 
fxsaber #:

Supponiamo che siano stati eseguiti 100 passi e che siano stati ottenuti 100 insiemi di input. Se formiamo un insieme medio secondo il principio "ogni insieme di input è uguale alla media dei corrispondenti 100 insiemi di input", è improbabile che questo insieme passi bene attraverso l'intero intervallo iniziale.

In caso contrario, logicamente non esistono insiemi validi. In termini di fiducia nel futuro.

Questo è il grande e spietato matstat.
 
Maxim Dmitrievsky #:
Se non lo fa, non ci sono set buoni, logicamente.

Non è logico! Gli insiemi dipendono da FF, per esempio.

 
fxsaber #:

Illogico! Gli insiemi dipendono dalla FF, ad esempio.

Pensate un paio di volte, poi formulate la domanda tenendo conto che quello che state facendo lo sapete solo voi. E se volete essere aiutati dovete essere il più possibile chiari e comprensibili nelle vostre espressioni, oltre a dare il maggior numero di informazioni possibili....
 
mytarmailS #:
Mi chiedo: qualcuno legge questo flusso infinito di articoli intitolati "le reti neurali sono facili"?
Mi sembra che se si calcola il tempo medio di lettura di queste sciocchezze, non superi i 10-15 secondi.


Il tizio sta solo cercando di guadagnare soldi per comprarsi un'auto.

Scorro fino al saldo e mi rendo conto che l'uomo non conosce il seguente detto:

"qui non basta vedere, qui bisogna guardare, qui bisogna pensare...". "

studia il materiale in modo superficiale e le sue conclusioni non sono del tutto competenti.