L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 392

 

Questo è NS che lavora fuori dal campione al prezzo del segnale

E questa è entrata di 0,00050 pip meglio del segnale.

Le operazioni sono più piccole, ma l'id della curva è molto meglio e c'è un'uscita al segnale, non 50 pips meglio. Significa che in questo caso la curva sarà ancora migliore. Questo è il vantaggio statistico per te....

 
Linea di fondo. Guida all'esecuzione di JPrediction su GPU??????
 
Mihail Marchukajtes:

Cosa significa? Un link a JPrediction?

Letteralmente, sì.
 
Maxim Dmitrievsky:

Letteralmente, sì.

Te l'ho mandato in un messaggio privato.
 
Mihail Marchukajtes:
Linea di fondo. Aiuto per eseguire JPrediction su GPU??????

Dovrei riscriverlo prima su mql, non c'è bisogno di un programma separato, non è conveniente
Mihail Marchukajtes:

L'ho copiato in un messaggio personale.

Grazie
 
Maxim Dmitrievsky:

Beh, dobbiamo riscriverlo in mql prima, non c'è bisogno di un programma separato, non è conveniente
Vedere

In questo modo, il codice in MQL5 sarà l'output. Questo richiederà un po' di tempo per essere riscritto. In questo caso, potete avviarlo sulla vostra macchina virtuale e il risultato sarà un codice per MQL5. La cosa principale è imparare a farlo funzionare sul widget. Anche un incremento di 20 volte sarà un successo. IMHO
 
Mihail Marchukajtes:

Quindi, il risultato è il codice in MQL5. Ci vuole tempo per riscriverlo, ma in questo modo è possibile eseguirlo su una scheda video e il risultato sarà il codice per MQL5. La cosa principale è imparare a farlo funzionare sul widget. Anche un incremento di 20 volte sarà un successo. IMHO


È strano che l'autore non supporti più il sito. Mi sembra di capire che lo sviluppo sia andato sottoterra per qualche tempo.

E il parallelismo sulla gpu è la prima cosa a cui una persona che lavora con le reti neurali dovrebbe pensare)

 
Maxim Dmitrievsky:


Mi chiedo perché l'autore non supporta più il sito, mi sembra di capire che lo sviluppo è andato sottoterra per qualche tempo.

E il parallelismo sulla gpu è la prima cosa a cui una persona che lavora con le reti neurali dovrebbe pensare)


Beh, dopo la versione 3 è apparso il parallelismo, ho scritto proprio in quel momento, sarebbe bello parallelizzare. Da quanto ho capito, il programma torce i dati sia in senso longitudinale che trasversale. Dividendo casualmente per 100 volte, e ad ogni divisione, allenandosi per 1000 epoche. Comunque, va così. In altre parole, il punto era ON/OFF. L'ha sostenuto ma in un altro sito, e poi come è scomparso. Penso che forse era malato o qualcosa del genere. Ma poiché è scomparso così improvvisamente, penso che il suo ritorno non sia previsto. Dato che una volta ha detto che sarebbe andato presto, ma dove. Si può solo indovinare e usare quello che abbiamo, purtroppo :-(
 

Ma l'ultima versione del predittore è anche abbastanza fattibile. Ecco il risultato dalle 05.22 ad oggi con 0.00050 pip meglio del prezzo del segnale. Mi sembra abbastanza fattibile.


 
Mihail Marchukajtes:

Beh, dopo la versione 3 è apparso il parallelismo, ho scritto a quel tempo su di lui, che sarebbe stato bene fare il parallelismo. Da quanto ho capito, il programma torce i dati sia in senso longitudinale che trasversale. Dividendo in modo casuale per 100 volte, e ad ogni divisione, allenandosi per 1000 epoche. Comunque, va così. In altre parole, il punto era ON/OFF. L'ha sostenuto ma in un altro sito, e poi come è scomparso. Penso che forse era malato o qualcosa del genere. Ma poiché è scomparso così improvvisamente, penso che il suo ritorno non sia previsto. Dato che una volta ha detto che sarebbe andato presto, ma dove. Si può solo indovinare e usare quello che abbiamo, purtroppo :-(

Sì, in generale ci vuole molto tempo per contare a gesti, gli alberi di decisione nello studio sono stati contati istantaneamente, ma vediamo che tipo di errore sarà, è anche interessante confrontare i modelli... ha senso...