L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 592
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Sì, ho appena passato in rassegna tutti i tipi di articoli per vedere cosa c'è di interessante su questo argomento :) Bene, il vantaggio principale rispetto a MLP, per quanto ho capito, è la velocità e le impostazioni minime (qui non lo sono affatto) e che queste griglie non vengono quasi riqualificate
Bene e la forza f gaussiana è usata al posto di quella di Stydent. Per ogni ingresso, viene creato un fie di densità dei vertici, poi i risultati in uscita vengono sommati linearmente
a proposito, PNN e GRNN sono disponibili in forma di mql, ma non li ho ancora provati e non li ho confrontati con MLP
https://www.mql5.com/ru/code/1323
Bene, finalmente sputo su questi trucchi MKL. C'è un software professionale, testato da migliaia di utenti, e lo usano. Imho.
Sono d'accordo.
Se fossi Maxim, metterei su carta tutte le sue scoperte interessanti, e per il drenaggio specifico del graal userei Visim o qualcosa del genere.
Io ti sostengo.
Se fossi Maksim, scriverei tutte le sue scoperte interessanti come articoli, e userei Wissim o qualcosa del genere per il drenaggio specifico del graal.
Rinunciare finalmente a questi trucchi MKL. Prendete un software professionale, testato da migliaia di utenti, e usatelo. Imho.
Faccio il mio, puramente per TC :) ci saranno anche elementi di memoria (ritardi), come ricorrenza (un po') :) è semplice, voglio dire, fare qualsiasi architettura di griglia, più complicato fare un solutore come backprops, ma è possibile nell'ottimizzatore se i pesi non sono molto
questo è solo un esempio, potete guardare il codice per vedere come sono implementati i backprop e i NS
Faccio il mio, puramente per TC :) ci saranno anche elementi di memoria (ritardi), come ricorrenza (un po') :) è semplice, voglio dire, fare qualsiasi architettura di griglia, più complicato fare un solutore come backprops, ma è possibile nell'ottimizzatore se i pesi non sono molto
questo è solo un esempio, potete guardare il codice per vedere come sono implementati i back-up e i NS
Beh, imho, non c'è bisogno di essere un radioamatore - il tempo è diverso. Né tu né io lo faremo in modo professionale.
Riparo sistemi di comunicazione satellitare con un amico. E sono quasi gli unici nella Federazione Russa. Beh, non si possono mai fare (voglio dire fabbricare) queste cose... Il tempo dei radioamatori è finito.
Beh, imho, non c'è bisogno di essere un radioamatore - è un'altra epoca. Non è che tu o io possiamo più farlo in modo professionale.
Io e il mio amico ripariamo sistemi di comunicazione satellitare. E sono quasi gli unici nella Federazione Russa. Beh, non farete mai (voglio dire fabbricare) queste cose... Il tempo dei radioamatori è finito.
ora tutto è fatto da robot :) dovremmo fare robot che fanno robot che fanno cose
Capisco, ho solo alcune idee, è una specie di creativo ... nessun compito specifico come farlo bene
tutti stanno facendo robot ora :) abbiamo bisogno di fare robot per fare robot che fanno cose
Ho capito, ci sono solo alcune idee, è un po' creativo
Non sto parlando di creatività. Ma usate un software professionale in esso, non artigianale. Ma non insisto. Dipende dall'afftor).
Ho postato sopra un link a PNN in Python. Probabilmente non l'ha capito).
Reti di propagazione in avanti focalizzate con ritardi temporali
Nel riconoscimento del patema strutturale, è comune l'uso di reti neurali statiche. Al contrario, il riconoscimento del patema d'animo temporale richiede l'elaborazione di immagini che cambiano nel tempo, e la generazione di una risposta in un particolare punto nel tempo che dipende non solo dall'attuale, ma anche da diversi valori precedenti.
Ce ne sono? :) Esattamente il tipo di tali architetture funzionerà in Forex, in teoria... ma bisogna sperimentare. Facile da fare, basta aggiungere un paio di neuroni "interessanti" a MLP, o combinare 2 modelli.
Basta prendere PNN al posto di MLP, e avvitare il resto sopra e ai lati.