L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 594

 
Alexander_K2:

Non riesco a dormire - ho letto un po' su internet. Questo mi è piaciuto:

"Il fatto che gli incrementi siano usati non è davvero così male contro lo sfondo generale, la maggior parte dei prezzi logaritmici sono alimentati all'input, gli incrementi sono un passo avanti, anche se entrambi sono adatti.

Conosco persone che hanno tirato fuori il graal da NS, ma quei ragazzi sono così chiusi per la comunicazione e anche i suggerimenti su ciò che fanno, io sono un principiante quindi sicuramente non ho una possibilità. So solo che è tutto complicato, non è Vels, non è Metatrader e nemmeno S#, e C++ e MatLab con dei chip che decodificano e interpretano i dati provenienti dai calider, si è scoperto che si tratta di una stessa metodologia, ho sentito e mi sono spaventato, stanno lavorando con lo zio che macinava terabyte al giorno al CERN cercando nuove particelle nel caos quantistico.

Questo è divertente. Rimango della mia opinione - è necessario alimentare il più puro, come una lacrima, incrementi di prezzo a NS input. Sono gli incrementi che sono la chiave di tutto. Essi costituiscono la base della soluzione di questo problema. Infatti, in Forex seguiamo un processo pseudo-stazionario di movimento di un pacchetto d'onda ( funzione di densità di probabilità) di questi incrementi. E niente di più. (Ho già scritto questo paragrafo :)))


È notevole dalla biografia di B.Fritzke che nel 2001 ha terminato la sua carriera di scienziato all'Università Ruhr (Bochum, Germania) per un'offerta di lavoro alla Borsa tedesca (Deutsche Bӧrse) . Non nascondo che questo fatto mi è servito come ulteriore incentivo per scegliere il suo algoritmo come base per scrivere questo articolo.

https://www.mql5.com/ru/articles/163

in generale, sono stupito... seduto al mio computer la sera... perché non scrivo un er... gas neurale crescente... come...

Cazzo, mi stupisce quanto siano intelligenti le persone

Растущий нейронный газ - реализация на языке программирования MQL5
Растущий нейронный газ - реализация на языке программирования MQL5
  • 2010.09.24
  • Alexey Subbotin
  • www.mql5.com
В 90-х годах прошлого века исследователи искусственных нейросетей пришли к выводу о необходимости развития нового класса этих вычислительных механизмов, особенностью которого было бы отсутствие фиксированной топологии слоев сети. Это означает, что количество и расположение искусственных нейронов в пространстве признаков не задается заранее, а...
 
Maxim Dmitrievsky:

...che sta giocando a forex con se stessa...

...beh, Yuri ne ha già scritto...

Che tipo di neurone può fare questo? In qualche modo ho perso quei messaggi.

 
Dr. Trader:

Che tipo di neuroni possono fare questo? In qualche modo ho perso quei messaggi.


Beh, l'apprendimento per rinforzo in generale, ma ci potrebbero essere variazioni su

q-learning, per esempio.

Non è incluso nella sezione di neurodinamica ... perché è addestrato in modo diverso, ma la topologia e i pesi dei neuroni non cambiano dopo l'addestramento.

 
Yuriy Asaulenko:
È in onda. Ma tu sei tutto su MCL, sì MCL. Dico sul serio. Non va bene, finché siamo impegnati in DM. Imho.
In primo luogo, non me, e Maxim circa il MCL, che è in realtà quello che ho scritto che non è andato.
In secondo luogo, io stesso ho MCL solo come interfaccia, il che significa che, se necessario, posso cambiare le interfacce senza cambiare il sistema di analisi.
 

Tutti parlano di cosa dare in pasto all'input. Secondo me, cosa dare in pasto all'uscita è altrettanto importante. Se si alimenta lo zigzag, la rete non viene affatto addestrata su nessun input. Se si equilibrano le classi. Cioè, se rimuoviamo la maggior parte degli input che non mostrano inversioni, il risultato non regge nemmeno. Se impostiamo il prezzo medio di una barra superiore o inferiore alla barra precedente agli output. Otteniamo esattamente il 50% delle risposte corrette. Il che non è nemmeno buono. Cos'altro possiamo inventarci?

 

Ciao, hai finito il robot? con AI.

è il momento di testarlo ))

 

Pensiero interessante https://monographies.ru/en/book/section?id=2465.

Quando si modellano le reti neurali con funzioni di attivazione dei neuroni lineari, è possibile costruire un algoritmo che garantisce di ottenere un errore di apprendimento minimo assoluto. Per le reti neurali con funzioni di attivazione non lineari non è generalmente possibile garantire il raggiungimento di un minimo globale della funzione di errore.
...............

Nel caso di un modello di rete lineare e di una funzione di errore come somma di quadrati, tale superficie (della funzione di errore) sarebbe un paraboloide, che ha un unico minimo, e questo rende relativamente facile trovare tale minimo.

Nel caso di un modello non lineare, la superficie di errore ha una struttura molto più complessa e ha una serie di proprietà sfavorevoli, in particolare può avere minimi locali, aree piatte, punti di sella e burroni lunghi e stretti.

Forse dovremmo usare più neuroni per funzioni di attivazione non lineari? Per appianare tutte queste irregolarità.

 
Grigoriy Chaunin:

Tutti parlano di cosa dare in pasto all'input. Secondo me, cosa dare in pasto all'uscita è altrettanto importante.


Quando si entra in un edificio chiamato "Statistica", sopra l'ingresso c'è scritto"Garbage in, rubbish out".



 
SanSanych Fomenko:

Quando si entra in un edificio chiamato "Statistica", sopra l'ingresso c'è scritto"Garbage in, rubbish out".

))

 
Aleksey Terentev:
In primo luogo, non sono io, ma Maxim su MCL, che è il motivo per cui ho effettivamente scritto che non ha funzionato.
In secondo luogo, io stesso ho MCL solo come interfaccia, quindi, se necessario, posso cambiare le interfacce senza cambiare il sistema di analisi.
Scusa, pensavo davvero di rispondere a Maxim.