L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 549

 

Ecco un altro esempio di profeta ma per R (python non ha mai funzionato per me)

Penso che se si trasformano i dati invece delle citazioni, prevederà meglio di arima

e confrontare con arima per interesse

https://strategy.doubledoji.com/how-to-use-facebooks-prophet-algorithm-in-forex-trading/

Get My Forex Systems FREE!
Get My Forex Systems FREE!
  • admin
  • strategy.doubledoji.com
Trading is all about forecasting price. If you have been reading my Forex Strategies 2.0 Blog, you must have seen I am focusing more and more on algorithmic trading. If you can forecast currency pair price with a reasonable degree of accuracy, you can make a lot of pips. Markets have changed a lot. Today algorithms rule the market. Wall Street...
 
Processing and Analyzing Financial Data with R
  • Marcelo S. Perlin (marcelo.perlin@ufrgs.br)
  • msperlin.github.io
Here we will present three elaborate examples of financial research with R. Every script provided here is reproducible, using refreshable data from the internet. You can download the code and replicate all results. Each research script is saved in a single .Rmd file and is available in the book repository, folder . The first example of research...
 
Maxim Dmitrievsky:

Ecco un altro esempio di profeta ma per R (python non ha mai funzionato per me)

Penso che se si trasformano i dati invece delle citazioni, prevederà meglio di arima

e confrontare con arima per interesse

https://strategy.doubledoji.com/how-to-use-facebooks-prophet-algorithm-in-forex-trading/


Dovrebbe essere testato sull'arco. Ci sono alcune serie temporali in cui non c'è l'effetto arco, ma se è presente, allora ha bisogno di garch, ed è necessario prenderne una certa (ce ne sono molte) e poi è molto utile per modellare la distribuzione.

 

Qui sotto ci sono due estratti del mio articolo che sto finendo. Non c'è bisogno di perdere tempo a reinventare la bicicletta. Non riuscirete a fare meglio dei professionisti. Python e R sono già meravigliosamente integrati. Basta usare.

"Usare la libreria TensorFlow".

Il fiorente campo delle reti neurali profonde è stato recentemente arricchito da una serie di librerie open source. L'ampiamente pubblicizzatoTensorFlow (Google),CNTK (Microsoft),Apache MXNet e molti altri. Dato che tutti questi e altri importanti sviluppatori di software fanno parte del Consorzio R, viene fornita un'API per R per tutte queste librerie.

Tutte le librerie di cui sopra sono di livello molto basso. Per i principianti che imparano questo settore, sono difficili da digerire. Con questo in mente, il team di Rstudio ha sviluppato il pacchettokeras per R.

Keras è un'API di alto livello per reti neurali, progettata con l'obiettivo di essere in grado di sperimentare rapidamente. La capacità di passare dall'idea al risultato con il minor ritardo possibile è la chiave per fare una buona ricerca. Keras ha le seguenti caratteristiche chiave:

  • Consentendovi di eseguire ugualmente su CPU o GPU.
  • API amichevole che permette una facile prototipazione di modelli di deep learning.
  • Supporto incorporato per reti convoluzionali (per la computer vision), reti ricorsive (per l'elaborazione di sequenze) e qualsiasi combinazione di entrambe.
  • Supporta architetture di rete arbitrarie: modelli con più ingressi o più uscite, condivisione dei livelli, condivisione dei modelli, ecc. Questo significa che Keras è adatto per costruire essenzialmente qualsiasi modello di deep learning, da una rete di memoria a una macchina neurale di Turing.
  • È in grado di funzionare sopra diversi back-end, tra cui TensorFlow, CNTK o Theano.

Basta installare e scaricare il pacchetto keras R e poi eseguire la funzione keras :: install_keras (), che installa TensorFlow, Python e qualsiasi altra cosa di cui avete bisogno, compresi gli ambientiVirtualenv oConda. Funziona e basta! Per istruzioni sull'installazione di Keras e TensorFLow su GPU, vedere.Qui. Vedere l'articolo per maggiori dettagli".

"Il pacchetto tfruns è per sperimentare con TensorFlow. Il pacchettotfruns fornisce un insieme di strumenti per controllare l'allenamento e gli esperimenti di TensorFlow da R:

  • Traccia gli iperparametri, le metriche, l'output e il codice sorgente di ogni ciclo di allenamento.
  • Confrontare iperparametri e metriche tra le esecuzioni per trovare il modello più efficiente.
  • Genera automaticamente dei report per visualizzare i singoli allenamenti o le comparazioni tra gli allenamenti.
  • Non sono richieste modifiche al codice sorgente (i dati di esecuzione sono catturati automaticamente per tutti i modelli Keras etfestimators).

TensorBoard fornisce la migliore visualizzazione del processo e dei risultati della formazione DNN.

E, naturalmente, i conoscitori dell'apprendimento profondo possono lavorare direttamente con la libreria di basso livello TensorFlow utilizzando il pacchetto tensorflow.

Tutti questi pacchetti sono basati sull'interfaccia di base -reticolata- di R verso moduli, funzioni e classi Python. Quando vengono chiamati in Python, i tipi di dati R vengono automaticamente convertiti nei loro tipi Python equivalenti. Quando i valori vengono restituiti da Python a R, vengono riconvertiti in tipi R. Degno di uno studio attento.

Tutti questi pacchetti sono ben documentati, il che non è sorprendente data la classe degli sviluppatori, forniti con tonnellate di esempi, e sono in continua evoluzione. Così abbiamo un'opportunità unica di utilizzare in esperti e indicatori i modelli di apprendimento profondo più avanzati e avanzati (DNN, RNN, CNN, LSTM, VAE, ecc.), apprendimento di rinforzo (RL) e molti altri sviluppi di Python nel campo dell'apprendimento automatico, se avete abbastanza conoscenza ed esperienza".

Buona fortuna

 

allo stesso tempo, la complessità delle strategie e la quantità di lavoro diventa troppo per 1 persona che non è professionalmente impegnata nel satanismo data :) anche se questo può essere solo al 1 ° sguardo

 

Quasi finito di integrare Python e MT. Ho dovuto scrivere una DLL aggiuntiva. Sono rimaste alcune piccole cose. Finisci il mqh e scrivi il documento. La libreria non ha molte funzioni, ma è sufficiente. È possibile caricare ed eseguire uno script Python. E anche chiamare qualsiasi funzione da esso. Funzionerà con le liste, ma solo monodimensionali e omogenee. Cioè l'array MQL viene convertito in una lista e viceversa.

 
Apprendimento automatico da Yandex https://habrahabr.ru/company/yandex/blog/333522/
Яндекс открывает технологию машинного обучения CatBoost
Яндекс открывает технологию машинного обучения CatBoost
  • 2018.07.17
  • habrahabr.ru
Сегодня Яндекс выложил в open source собственную библиотеку CatBoost, разработанную с учетом многолетнего опыта компании в области машинного обучения. С ее помощью можно эффективно обучать модели на разнородных данных, в том числе таких, которые трудно представить в виде чисел (например, виды облаков или категории товаров). Исходный код...
 

Ma il tutorial su R è buono... dalle basi e i modelli lineari a Garch e Facebook prophet...(non per niente carico profeta qui, visto che suscita interesse in certi ambienti ed è mega facile da usare) quasi lo stesso che per python, ma in modo più dettagliato, da R teacher

in generale, è logico, naturalmente, per andare da econometria a reti neurali, e non viceversa, cioè per studiare ciò che è già lì (se non hai studiato all'università), che avrebbe un senso per la riflessione, e poi affondare nelle griglie

E in generale, si noti che le reti neurali in econometria stanno a parte e non sono l'argomento principale (ancora)

https://msperlin.github.io/pafdR/

Processing and Analyzing Financial Data with R
  • Marcelo S. Perlin (marcelo.perlin@ufrgs.br)
  • msperlin.github.io
Welcome to the book site of Processing and Analyzing Financial Data with R. Here you can find the full online content of the book. The book is also available as an ebook (Amazon) and hardcover (CreateSpace / Amazon). If you liked the material and are using the book, please consider purchasing it. As an author, I certainly appreciate the gesture...
 
Maxim Dmitrievsky:


In generale, è logico, naturalmente, passare dall'econometria alle reti neurali, e non viceversa, cioè studiare qualcosa che già esiste (se non l'hai studiato all'università), per avere qualcosa a cui pensare, e poi incastrarsi nelle reti

E in generale, si noti che le reti neurali in econometria stanno a parte e non sono l'argomento principale (ancora)

https://msperlin.github.io/pafdR/

Alcuni anni fa mi sono interessato a Matlab e contrariamente alle mie idee sugli strumenti di econometria c'erano SOLO modelli GARCH nella casella degli strumenti sotto il nome di "Econometria".

Ha finito per fare ME. Ciò che mi ha sorpreso di più sono state le pubblicazioni molto povere sull'applicazione del MO ai mercati finanziari.

Recentemente, sono tornato a GARCH. Quello che mi ha stupito è il gran numero di pubblicazioni sull'applicazione di GARCH sui mercati finanziari: borse, indici, futures, coppie di valute. È semplicemente uno spasso.

Quindi forse Matlab ha ragione? Forse tutti gli strumenti di IO, compresi i NS sono strumenti di terzi per i mercati finanziari?

 
SanSanych Fomenko:

Quindi forse Matlab ha ragione? Forse tutti gli strumenti di IO, incluso NS sono strumenti di terzi per i mercati finanziari?


Beh, sì, non sono modelli econometrici già pronti, ma solo un insieme di strumenti universali per tutti i settori.

L'econometria non parametrica riguarda solo l'IR e la logica fuzzy, ma non ho visto alcune cose chiare, forse perché alcuni approcci comuni non sono stati elaborati. Non so come funziona :).