L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 52

 
Dr.Trader:

Il fitness può crescere semplicemente perché il modello ha migliorato la sua topologia e abbandonato un paio di neuroni, a parità di precisione.
Per quanto ho capito dai commenti nel codice, è un porting da Lua. E anche Lua è un port, perché l'originale era già in c++:http://nn.cs.utexas.edu?neat
Port from port è sfortunato, un sacco di azioni inutili, sarebbe meglio se l'autore di RNeat prendesse il codice C++ come base, e usasse i pacchetti genetici R esistenti per far evolvere la rete.

E per qualche ragione ho pensato che fosse tutto r-ke scritto lì
 
mytarmailS:

Ho trovato questa nota su un sito web, ma non funziona più per qualche motivo

Forse qualcuno sarà interessato:

...Il passo successivo è stato un nuovo modello: applichiamo un filtro passa-bassoal prezzo di chiusura (ho usato un filtro Butterworth del 2° ordine), applichiamo un'approssimazione polinomiale-armonica, trasformiamo A*cos(wx)+B*sin(wx) per formare M*sin(wx+f) e prendiamo M e f come caratteristiche secondarie.

.... E con questo modello sono riuscito a costruire una rete che aveva ottime proprietà di generalizzazione: riconosceva correttamente quasi tutti i nuovi dati.

Yury Reshetov- Yury, hai capito cosa ha scritto qui in generale?

 
I conti in centesimi sono di moda in questi giorni
 
Combinatore:
Ultimamente è un po' una moda vantarsi dei conti in centesimi
C'era di nuovo una pubblicità da qualche parte?
 

mytarmailS:

mytarmailS:

...Il passo successivo è stato un nuovo modello: applichiamo un filtro passa-bassoal prezzo di chiusura (ho usato un filtro Butterworth di 2° ordine), applichiamo un'approssimazione polinomiale-armonica, trasformiamo A*cos(wx)+B*sin(wx) per formare M*sin(wx+f) e prendiamo M e f come caratteristiche secondarie.

.... E con questo modello sono riuscito a costruire una rete che aveva ottime proprietà di generalizzazione: riconosceva correttamente quasi tutti i nuovi dati.

Yury Reshetov- Yury, hai capito cosa ha scritto qui in generale?

Ad essere onesti, non proprio. Ci sono molte domande:

  1. Per esempio, perché si dovrebbe pre-filtrare separatamente se si potrebbe semplicemente ignorare le armoniche indesiderate nella trasformata di Fourier impostando le loro ampiezze a zero, o tagliare le ampiezze delle armoniche filtrate alle soglie?
  2. Quali frequenze specifiche sono state filtrate? Un'altra grande domanda, perché le opzioni per indovinare sono un carro e un piccolo carrello.
  3. Perché la componente a bassa frequenza è stata filtrata e non MF o HF? Dopo tutto il rumore per logica dovrebbe essere molto probabilmente in MF o HF.
  4. Come è stato risolto il problema della non periodicità del prezzo VR, cioè come è stata eliminata l'imprecisione sui bordi del periodo?

A prima vista, sembra che abbiamo una specie di testo erudito senza specifiche - asserzioni non comprovate.

E di conseguenza, senza conoscere le risposte alle domande di cui sopra, si può solo immaginare come riprodurlo nella pratica e si otterrà qualche risultato adeguato?

 
Alexey Burnakov:
C'era di nuovo una pubblicità da qualche parte?
Sì, lo era.
 

Il problema qui non è la vanagloria o i conti al centesimo.

Il problema è un altro.

I partecipanti alla discussione sperano, secondo me, di trovare qualche graal infilando loro degli input inutili.

E dimenticano completamente che devono usare una strategia o una tattica già pronta, se è meglio.

La macchina fa solo quello che ci mettete dentro.

La merda in entrata è la merda in uscita.

Mi dispiace.

 
Vadim Shishkin:

Il problema qui non è la vanagloria o i conti al centesimo.

Il problema è un altro.

I partecipanti alla discussione sperano, secondo me, di trovare qualche graal infilando loro degli input inutili.

E dimenticano completamente che devono usare una strategia o una tattica già pronta, se è meglio.

La macchina fa solo quello che ci mettete dentro.

La merda in entrata è la merda in uscita.

Mi dispiace.

Una rete neurale proteica può essere piena di merda dentro e fuori.

Mi dispiace.

 
Alexey Burnakov:

Una rete neurale proteica può anche essere piena di goo, sia in entrata che in uscita.

(Scusa.

Esattamente, è quello che sto dicendo.

Cos'ha da dire su questo argomento?

 
Vadim Shishkin:

Esattamente, è quello che sto dicendo.

Ha qualcosa da dire sull'argomento?

Quindi la domanda è per voi. )

Qual è la tattica? Cosa ti viene in mente? Allora ditemi.