Reti neurali - pagina 27

 

Forum sul trading, sistemi di trading automatizzati e strategie di trading di prova

Portare le reti neurali al livello successivo

Sergey Golubev, 2021.04.13 10:14

L'apprendimento automatico nei sistemi di trading Grid e Martingale. Ci scommetteresti? - MT5

L'apprendimento automatico nei sistemi di trading Grid e Martingale. Ci scommetteresti?

Abbiamo lavorato duramente studiando vari approcci all'uso del machine learning per trovare modelli nel mercato forex. Sapete già come addestrare i modelli e implementarli. Ma ci sono un gran numero di approcci al trading, quasi ognuno dei quali può essere migliorato applicando i moderni algoritmi di apprendimento automatico. Uno degli algoritmi più popolari è la griglia e/o martingala. Prima di scrivere questo articolo, ho fatto una piccola analisi esplorativa, cercando le informazioni pertinenti su Internet. Sorprendentemente, questo approccio ha poca o nessuna copertura nella rete globale. Ho fatto un piccolo sondaggio tra i membri della comunità per quanto riguarda le prospettive di una tale soluzione, e la maggioranza ha risposto che non sapeva nemmeno come affrontare questo argomento, ma l'idea in sé sembrava interessante. Anche se l'idea stessa sembra abbastanza semplice.

Conduciamo una serie di esperimenti con due scopi. In primo luogo, cercheremo di dimostrare che non è così difficile come potrebbe sembrare a prima vista. In secondo luogo, cercheremo di scoprire se questo approccio è applicabile ed efficace.



 

Reti neurali rese facili (parte 12): Dropout

Since the beginning of this series of articles, we have already made a big progress in studying various neural network models. But the learning process was always performed without our participation. At the same time, there is always a desire to somehow help the neural network to improve training results, which can also be referred to as the convergence of the neural network. In this article we will consider one of such methods entitled Dropout.

 

Reti neurali rese facili (parte 13): Normalizzazione dei lotti

In the previous article, we started considering methods aimed at increasing the convergence of neural networks and got acquainted with the Dropout method, which is used to reduce the co-adaptation of features. Let us continue this topic and get acquainted with the methods of normalization.

Neural networks made easy (Part 13): Batch Normalization
Neural networks made easy (Part 13): Batch Normalization
  • www.mql5.com
In the previous article, we started considering methods aimed at improving neural network training quality. In this article, we will continue this topic and will consider another approach — batch data normalization.
 

Forum sul trading, sistemi di trading automatizzati e strategie di trading di prova

Portare le reti neurali al livello successivo

Sergey Golubev, 2021.10.20 11:21

Programmare una rete neurale profonda da zero usando il linguaggio MQL

https://www.mql5.com/en/articles/5486

Dal momento che l'apprendimento automatico ha recentemente guadagnato popolarità, molti hanno sentito parlare di Deep Learning e desiderano sapere come applicarlo nel linguaggio MQL. Ho visto semplici implementazioni di neuroni artificiali con funzioni di attivazione, ma niente che implementi una vera rete neurale profonda. In questo articolo, vi presenterò una Rete Neurale Profonda implementata nel linguaggio MQL con le sue diverse funzioni di attivazione, come la funzione di tangente iperbolica per gli strati nascosti e la funzione Softmax per lo strato di uscita. Ci muoveremo dal primo passo fino alla fine per formare completamente la Rete Neurale Profonda.

 
Ciao Sergey Golubev: vorrei augurarti buone vacanze, ho letto i tuoi articoli e riferimenti molto, conosci qualche programmatore che ha l'esperienza di fare lavoro con i neuroni? Io uso 3 indicatori, che quando allineati, è molto redditizio!!, Grazie mille per qualsiasi informazione, un abbraccio!