"New Neural" è un progetto di motore di rete neurale Open Source per la piattaforma MetaTrader 5. - pagina 70

 

Se qualcuno se la sente, mi faccia sapere di cosa si tratta.

Combinazione di approcci di controllo adattivo e caos deterministico per costruire efficienti sistemi di controllo autonomo

Metodo di controllo adattivo autonomo.

Automati di controllo logico adattivo con un numero finito di ingressi

In breve, potete cercare qui http://www.aac-lab.com/rus/

Группа Методов адаптивного управления
Группа Методов адаптивного управления
  • www.aac-lab.com
Определение живого: живым является то, что содержит в себе систему управления! (Жданов А.А.) Основным направлением научной деятельности группы является исследование возможностей построения адаптивных систем управления на бионических основах. Концепция построения такого рода систем, выработанная сотрудниками отдела, названа нами методом...
File:
 

Come sono scappato in tempo :)) ...

yu-sha:

Grazie per il lib :)

 
TheXpert:

Come sono scappato in tempo :)) ...

Non ho ancora postato tutto, sono ancora alla ricerca di materiale utile, altro divertimento in arrivo :)
 
TheXpert:

Che buon tempismo :)) ...

Grazie per il lib :)

Non per amore della pubblicità, ma per una buona causa:https://www.mql5.com/ru/code/712 è un Xml-parser nativo.

Lo sto usando da molto tempo e ho risolto tutti i miei bug.

XML parser
XML parser
  • voti: 7
  • 2011.11.29
  • yu-sha
  • www.mql5.com
Библиотека для парсинга XML-документов. Реализация на MQL5 без использования сторонних библиотек.
 
Lo sto usando da molto tempo, ma credo di aver risolto tutti i bug e diaverli sistemati:

Non per amore della pubblicità, ma per una buona causa:https://www.mql5.com/ru/code/712 - Xml-parser nativo

Lo sto usando da un po' e ho risolto tutti i miei bug.

Sì, l'ho già scaricato, ma l'ho eseguito, ma nessuna reazione, l'ho lasciato per dopo da risolvere.

Finirò di analizzare la letteratura sui sistemi di controllo adattivi, poi ci arriverò.

 
yu-sha:

Domani copierò dal mio computer di lavoro il mio lavoro sulla memorizzazione dei prototipi di rete, l'impostazione dei compiti di formazione, la memorizzazione delle soluzioni trovate qui

???

 
Urain:

Beh, in realtà la GPU nel mio modello è apparsa nella fase di calcolo della NS, se leggete attentamente quello che ho scritto prima, avrete notato che nel mio modello di rete universale l'elaborazione stessa è divisa in strati, quindi i neuroni sono combinati in strati non formalmente (per proprietà), ma effettivamente (lo strato ha una memoria e il neurone no, il neurone deve essere solo un'entità informativa che informa lo strato su dove e perché). Quindi, il parallelismo è definito dalla struttura stessa del motore (le informazioni all'interno del livello sono elaborate in parallelo). Ho già fatto NS addestrato da GA e la più grande perdita di produttività è stata proprio sul calcolo di NS (soprattutto su grandi reti). E come pubblicità, posso dire che per UGA proposto da joo , imparare NS è un gioco da ragazzi.

Ma se è possibile parallelizzare anche i calcoli di FF (e NS per GA è una parte di FF), sono solo per questo. Anche se non credo che sarà un compito semplice, nei livelli si fanno azioni semplici, e il calcolo dei FF può comportare una sequenza abbastanza complessa.

Nel resto abbiamo: l'idea di un motore universale per qualsiasi topologia, l'idea di un metodo di inizializzazione universale per qualsiasi topologia, e GA come tutorial universale per tutto questo.

Possiamo fermarci qui per ora, imho.

Il GA standard e il cloud aiuterebbero a parallelizzare il calcolo di FF. Soprattutto Renat ha promesso:


Admin
2516
Renat2011.10.18 10:50
La situazione è abbastanza buona con il tempo di esecuzione deiprogrammi MQL5+ stiamo preparando una nuova versione del compilatore con ottimizzazioni abilitate, che darà un aumento multiplo della velocità.

Proprio in parallelo con lo sviluppo di una rete neurale, espanderemo la funzionalità degli agenti per supportare i calcoli matematici e lo scambio di grandi volumi (file) di dati.

Ma come dice il proverbio, non si possono mantenere le promesse per tre anni.

Quindi, per il momento, è possibile ottimizzare l'algoritmo joo specificamente per le reti neurali, funzionerà ancora più velocemente. Spero che ad Andrey non dispiaccia.

 
lei.umana:

???

a) disassemblare XmlParser

b) https://www.mql5.com/ru/forum/4956/page32#comment_110831

Andremo avanti man mano che avremo altre domande.

 
yu-sha:

a) disassemblare XmlParser

b) https://www.mql5.com/ru/forum/4956/page32#comment_110831

Andremo avanti man mano che avremo altre domande

Posso avere un piccolo esempio di come usarlo per MT5?

 

Se consideriamo l'addestramento dei neuroni come livello micro (cicli di elaborazione di array indipendenti in GA, calcolo dei singoli neuroni di una rete, ecc.) e livello macro (l'intero PF), allora non ci sono domande e problemi con il primo - tutto è perfettamente parallelo e funzionerà bene su GPU.

Ma c'è un problema a livello macro. Prima di tutto, sospetto che non sia possibile a causa delle limitazioni della quantità di informazioni gestite sulla GPU. Potremmo lavorare intorno a questo, usando tester regolare e cloud (ogni livello macro sarà trasferito ad agenti separati, e lì sarà elaborato a livello micro - se l'host lo permette, naturalmente). Ma non abbiamo gli strumenti per controllare il tester esternamente per usare GA esterni.

Quindi dovremo limitarci all'accelerazione a livello micro. L'accelerazione sarà anche molto decente, poiché le maglie e gli stessi GA abbondano di calcoli indipendenti l'uno dall'altro.

Per quanto riguarda UGA stesso, se non si tocca l'affinamento per OpenCL, non si ha praticamente nulla da migliorare (a meno che non si abbia qualche frammento di codice, ma questo non farà la differenza grazie a chi ha partecipato al thread di discussione dell'algoritmo nell'articolo). Si può solo provare a selezionare le impostazioni di UGA specificamente per le reti di allenamento.