L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 631

 
forexman77:

Avete tre neuroni all'ingresso del secondo strato processati dalla sigmoide? Come si regolano i pesi sul secondo strato, che vanno da -1 a 1 in passi di 0,1 per esempio.

Nella mia rete, dopo l'elaborazione del secondo strato , il numero di accordi è sceso e i miei risultati non sono migliorati molto. Era diverso quando ho semplicemente montato un perceptron con 9 ingressi e un neurone di uscita e poi ho preso un altro perceptron indipendente e l'ho montato di nuovo con le impostazioni del primo salvato, ecc.

Il 4° neurone elabora i risultati dei primi tre, cioè + 3 pesi in più

Sì, da -1 a 1 in incrementi di 0,1, ma non sigmoide ma tangente

Ho provato a fare uno strato intermedio con gli stessi pesi del primo di ingresso, il numero di scambi è sceso e la qualità è notevolmente migliorata, ma ottimizzare 9 pesi extra è troppo :)

La tua versione sembra buona... Stavo pensando di addestrare NS convenzionali sui risultati dell'ottimizzazione... Dovrò provarla. Ma mi sto annoiando con questo approccio

 
Maxim Dmitrievsky:

Il 4° neurone elabora i risultati dei primi tre, cioè + 3 pesi in più

Ora ho provato a fare uno strato intermedio con gli stessi pesi del primo strato di input - il numero di scambi è sceso e la qualità è anche migliorata, ma ottimizzare un ulteriore 9 pesi è già troppo :)

La tua versione sembra buona... Stavo pensando di addestrare NS convenzionali sui risultati dell'ottimizzazione... Dovrò provarla. Ma mi sto annoiando con questo approccio.

La mia impressione è che dovrei fare un indicatore sul primo strato e vedere visivamente quali pesi dovrebbero essere applicati sul secondo strato. Oppure elaborarlo con il sigmoide (allora si ottengono i valori da circa 0,2 a 0,9, approssimativamente) e poi si possono prendere piccoli pesi e non c'è bisogno di una grande gamma di essi.

In più il peso aggiuntivo senza legarsi all'ingresso è solo il peso del bias, quello che Dr.Trader mi ha suggerito. Il peso aggiuntivo di bias migliora un po' i risultati, per esempio 1.7 con bias diventa 1.8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699

Машинное обучение в трейдинге: теория и практика (торговля и не только)
Машинное обучение в трейдинге: теория и практика (торговля и не только)
  • 2017.10.04
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
forexman77:

Ho l'impressione che tu debba fare un indicatore sul primo strato e vedere visivamente quali pesi applicare sul secondo strato. O elaborarlo con la sigmoide (poi si ottengono valori da 0,2 a 0,9 o giù di lì) e poi si possono prendere piccoli pesi e non c'è bisogno di una grande gamma di pesi.

Inoltre il peso aggiuntivo senza legarsi all'ingresso è solo un peso, quello che mi ha suggerito il Dr.Trader. Per esempio è 1,7 con bias e ora è 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699

è difficile fare qualcosa di puramente improvvisato :) ma il problema principale finora è la riqualificazione
 
Maxim Dmitrievsky:
è difficile fare qualcosa di puramente improvvisato :) ma il problema principale rimane - la riqualificazione

Beh, 5-10 neuroni da riqualificare non sono affatto un problema). Sembra essere da qualche parte così con te.

C'era un esemplare interessante sul computer. Hai un pezzo di discorso. Un rumore viene generato e sovrapposto a questo discorso. Poi viene insegnato un semplice MLP, e si sente di nuovo un discorso quasi puro.

Sono rimasto completamente stranito da questo, anche se c'è una descrizione di un modificatore di rumore simile in Haikin come esempio.

 
Yuriy Asaulenko:

Beh, 5-10 neuroni da riqualificare non sono affatto un problema). Sembra essere da qualche parte così con te.

C'era un esemplare interessante sul computer. Hai un pezzo di discorso. Un rumore viene generato e sovrapposto a questo discorso. Poi viene insegnato un semplice MLP, e si sente di nuovo un discorso quasi puro.

Ne sono rimasto davvero sbalordito, anche se è descritto in Haikin come esempio.

Sì, ma è solo uno dei bot... Se non funziona - dimenticatelo, passerò a un altro... e così via, finché non succede la sintesi :) o vi annoiate
 
Per favore, non abbassatevi agli insulti e fate attenzione all'uso delle parolacce.
 
Sembra che qualche bastonata sia stata persa, mi dispiace di non aver avuto la possibilità di partecipare
 
Maxim Dmitrievsky:
Alcuni rifiuti sembrano essere stati persi, vorrei aver avuto il tempo di partecipare.

L'altro, quello in cui rispondevo al signor Terenyevsky, è stato cancellato. Ho risposto a Terentiev sui test delle serie temporali e ho detto che gli scrittori locali sono dilettanti perché non capiscono che con una precisione del 70-80% il rapporto Sharp sarà superiore a 20, e non hanno senso.

 
Non lo sono:

ha cancellato il mio messaggio in cui rispondevo al signor Terenyv. Terentiev sui test delle serie temporali e ha detto che gli scrittori di articoli locali sono solo dilettanti perché non capiscono che con il 70-80% di precisione Sharp ratio sarà superiore a 20, e hanno qualche sciocchezza

ah, ok )

 

Mi sono interrogato sul re-information lerning, così ho trovato un articolo interessante e sto cercando di comprarlo e forse aggiungerlo al bot.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

Sto cercando di comprare il bot, ma è un po' stupido, impara a comprare solo alla fine per qualche motivo.

The Self Learning Quant – Hacker Noon
The Self Learning Quant – Hacker Noon
  • 2016.09.27
  • Daniel Zakrisson
  • hackernoon.com
Recently there has been a lot of attention around Google DeepMinds victory over Lee Sedol in the board game Go. This is a remarkable…