L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 591
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
In realtà, tutto deve essere scritto in C++/C# e non ci sono problemi di interazione con nulla. Il problema è che le principali librerie DM sono in Python e R, e questo è necessario, almeno, per padroneggiare. E l'interazione non è niente, ci sono API ovunque (tranne MQL). Puoi almeno trasferire i file tramite RAM-Disk.
Sì, è vero, non c'è nessun problema.
Il problema è quanto profondamente bisogna mettere radici in MO e a che punto capire che questi modelli sono già abbastanza...
Mi sono sistemato sui classici per ora e tutto è sufficiente per me... Non sto cercando un 1-10% di aumento della precisione :) ora mi sto concentrando sulle strategie, un sacco di idee che ho - e tutto questo deve essere testato, tshe
Sto studiando PNN in dettaglio - lavorano con valori di probabilità e non si riqualificano molto.
Yura, sei davvero qualcosa! )) Parlare così nel forum MQL. Ora i tuoi compagni verranno di corsa a lanciarti pietre.
Uso anche MQL solo per aprire/chiudere gli ordini. Tutti i calcoli sono in Wissima. Questo è l'unico forum dove abbiamo fisici e matematici più o meno professionisti, per questo sono qui. Sul resto dei siti, sono solo degli idioti di paese.
Alexander, potresti essere interessato a questo argomento :)
Ilmetodo di approssimazione delle funzioni di densità di probabilità per mezzo di funzioni kernel è molto simile al metodo dellefunzioni a base radiale, e quindi si arriva naturalmente alle nozioni direte neurale probabilistica (PNN) erete neurale di regressione generalizzata (GRNN)(Speckt 1990, 1991). Le PNNN sono per compiti diclassificazione e le GRNN sono per compiti diregressione. Le reti di questi due tipi sono implementazioni di metodi di approssimazione kernel, inquadrati comeuna rete neurale.
Alexander, potresti essere interessato a questo argomento :)
Ilmetodo di approssimazione delle funzioni di densità di probabilità per mezzo di funzioni kernel è molto simile al metodo dellefunzioni a base radiale, e quindi si arriva naturalmente alle nozioni direte neurale probabilistica (PNN) erete neurale di regressione generalizzata (GRNN)(Speckt 1990, 1991). Le PNNN sono per compiti diclassificazione e le GRNN sono per compiti diregressione. Questi due tipi di reti sono implementazioni di metodi di approssimazione kernel, progettati comeuna rete neurale.
Sì. Grazie, Maxim!
Ma dobbiamo ricordare che le persone che leggono molto, diventano incapaci di pensare da sole (c). Indovina chi?))
C'è anche questa opinione:
La gente smette di pensare quando smette di leggere. Diderot
Maxim è davvero buono. A volte mi stupisce la sua prospettiva. Ma bisogna ricordare che le persone che leggono molto si disabituano a pensare da sole. Indovina chi?))
C'è anche questa opinione:
La gente smette di pensare quando smette di leggere. Diderot
Sono d'accordo. Ma il link è interessante - lo leggerò quando avrò tempo. Ora sono occupato - vedo il Graal all'orizzonte e, spinto dalle potenti mani di mio suocero, mi muovo verso di esso.
Cercate e troverete. (с)
Ma non questa volta.
Maxim è davvero molto buono. A volte mi stupisce la sua prospettiva. Ma ricordate - le persone che leggono molto si disabituano a pensare da sole. Indovina chi?))
Sì, ho appena passato in rassegna tutti i tipi di articoli per vedere cosa c'è di interessante sull'argomento :) Bene, il vantaggio principale rispetto a MLP, per quanto ho capito, è la velocità e le impostazioni minime (qui non lo sono affatto) e che queste griglie non vengono quasi riqualificate
Bene e la forza f gaussiana è usata al posto di quella di Stydent. Per ogni ingresso, viene creata una densità di vertici fi, poi i risultati in uscita vengono sommati linearmente
a proposito, PNN e GRNN sono disponibili in forma di mql, ma non li ho ancora provati e non li ho confrontati con MLP
https://www.mql5.com/ru/code/1323