L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 493

 
Maxim Dmitrievsky:

wolf-forward è necessario, non si può ottimizzare così, forward sarà sempre cattivo (o casuale) in questo caso, a seconda di quale fase del mercato si entra, ho già un sacco di versioni di tali sistemi sul backtest, che su forward funzionano come una moneta) questo si chiama overfitting

Esiste un algoritmo di selezione dei parametri di sistema nel rolling forward?
Ho una dozzina di ottimizzazioni con compensazioni mensili. In ogni mese i migliori parametri di input differiscono da quelli degli altri mesi. Quale di loro dovrei scegliere per il mio lavoro?
 
elibrarius:
C'è un algoritmo per selezionare i parametri del sistema quando si fa il valving in avanti?
Ho ricevuto una dozzina di ottimizzazioni con un offset al mese, in ogni mese i migliori parametri di input sono diversi da quelli degli altri mesi. E quale scegliere?

Non mi sono espresso correttamente, intendevo "qualcosa di simile", cioè un sistema auto-ottimizzante con qualche criterio di ottimizzazione, e lo stesso NS può essere usato come ottimizzatore

 
elibrario:
C'è un algoritmo per la selezione dei parametri del sistema quando si fa il valving in avanti?
Ho una dozzina di ottimizzazioni con un offset per mese, ogni mese i migliori parametri di input differiscono da quelli degli altri mesi. E quale scegliere per lavorare?
A proposito di ottimizzazione e formazione. Mi ci vogliono 23 ore, senza contare le manipolazioni intermedie. Dopo ogni passaggio (sono diverse epoche) cambio il campione di allenamento. No, non lo mischio, lo cambio, cioè non mostro le stesse immagini. Non ci sono campioni che si ripetono nel processo di apprendimento.
 
Yuriy Asaulenko:
Parlando di ottimizzazione e apprendimento. Mi ci vogliono 23 ore, senza contare le manipolazioni intermedie. Dopo ogni passaggio (sono diverse epoche) cambio il campione per l'allenamento. No, non lo mischio, lo cambio, cioè non mostro le stesse immagini. Non ci sono campioni che si ripetono nel processo di apprendimento.

E qual è esattamente l'algoritmo di ottimizzazione? Cercatene uno con l'algoritmo L-BFGS, sarà molto più veloce

e il vostro NS imparerà, beh, 100 volte più velocemente, per esempio, non 23 ore ma 10 minuti (come tutte le persone normali) :))) se avete una semplice discesa a gradiente con un passo fisso


Ecco un confronto:

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
  • docplayer.ru
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ Математико-Механический факультет Кафедра Системного Программирования Корыстов Максим Андреевич Исследование алгоритмов обучения искусственной нейронной сети для задач классификации Курсовая работа Научный руководитель: Невоструев К. Н. Санкт-Петербург 2014 г. Введение 1.1 Мотивация В последнее...
 
Maxim Dmitrievsky:

E qual è esattamente l'algoritmo di ottimizzazione? Cercatene uno con l'algoritmo L-BFGS, sarà molto più veloce

e il vostro NS imparerà, beh, 100 volte più velocemente, per esempio, non 23 ore ma 10 minuti (come tutte le persone normali) :))) se avete una semplice discesa a gradiente con un passo fisso

Ecco un confronto:

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Grazie, lo leggerò.

Più che altro per imparare, non per ottimizzare. Non è semplice. Ho già scritto - BP standard con ricottura simulata a mano.

Forse alcuni algoritmi sono migliori, ma io uso solo ciò che è disponibile nell'ambiente di sviluppo. Altri, esterni, sono problematici.

In generale, la velocità non è critica, se mi alleno una volta ogni 3 mesi - 23 ore è anche ufu. Ma su un test di 3 mesi, non si è vista alcuna degradazione. Probabilmente funziona per un tempo più lungo.

 
Yuriy Asaulenko:

Più che altro per imparare, non per ottimizzare. Non è semplice. Ho già scritto - BP standard con ricottura manuale simulata.

Forse alcuni algoritmi sono migliori, ma io uso solo ciò che è disponibile nell'ambiente di sviluppo. Altri, esterni, sono problematici.


qualunque cosa, l'addestramento è l'ottimizzazione della funzione obiettivo

Giusto, hanno scritto della ricottura, non ho familiarità con essa, la leggerò

 
Maxim Dmitrievsky:

qualunque cosa, l'addestramento è l'ottimizzazione della funzione obiettivo

Non ho nessuna funzione obiettivo nell'addestramento, cioè non c'è una classificazione iniziale nella sequenza di addestramento). È come imparare la tavola della moltiplicazione con un insegnante che non la conosce nemmeno abbastanza bene. La stessa NS sta cercando una via di fuga non so dove. Quindi è improbabile che l'apprendimento più veloce funzioni.
 
Maxim Dmitrievsky:

qualunque cosa, l'addestramento è l'ottimizzazione della funzione obiettivo

Giusto, hanno scritto della ricottura, non ho familiarità con essa, la leggerò

Sì, l'annealing è imitato manualmente cambiando i parametri di allenamento dopo N epoche. Inoltre la sequenza di allenamento è completamente sostituita (non mescolata, ma sostituita).
 
Yuriy Asaulenko:
Sì, l'annealing è simulato manualmente cambiando i parametri di apprendimento dopo N epoche. Inoltre, la sequenza di apprendimento è completamente sostituita (non mescolata, ma sostituita).

È forte, dove posso leggere di più su questo tipo di NS? cioè è come senza un insegnante, ma si alimenta ancora qualcosa all'uscita?

 
Maxim Dmitrievsky:

Non sono sicuro di dove si può leggere di più su questo tipo di NS? cioè è come se si ottenesse senza un insegnante, ma si alimenta comunque qualcosa all'uscita?

Posso leggere le reti neurali di Haykin e la teoria di Bishop in inglese - non c'è una traduzione, ma sembra essere pronta.

È semplice. Si inseriscono compravendite casuali e si produce il risultato. Il metodo Monte Carlo è chiamato, e non è molto veloce di per sé. E la sua sistematizzazione è una questione di analisi sistematica.