L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 613

 
Vladimir Perervenko:

Sorpreso. Che tipo di modello è quello che conta per più di un'ora?

Dovrebbe essere di 1-2 minuti al massimo.

Rete 88-50-20-2, 86400 linee di dati di allenamento su 88 predittori. + 28800 per i dati di convalida e per la sezione di prova (tuttavia, sono contati velocemente).

 
Vizard_:

Insegnante, mi imbarazza chiederlo. Quanto dovrebbe costare un modello?
Sicuro che non porterà dei centesimi? Forse c'è una formula (prezzo-qualità)?)).


Beh, ovviamente non due copechi, Trickster..... Dovresti capirlo, non sei un ragazzino.....

Trovare un modello generalizzante nello spazio multidimensionale dei dati non è un compito rapido e ottimizzante. Aumentare i requisiti e le regole sempre più stringenti per la costruzione del modello per ridurre l'effetto di over-learning porta ad un aumento del tempo necessario per trovare tale modello. Quindi i dati devono essere scossi a fondo....

Perché lo stesso file su AWS e Reshetny's ha un tempo diverso? AWS 2-5 minuti, Reshetov 3 ore e il suo modello è due volte più buono dei modelli AWS/ Perché?

 
elibrario:

Rete 88-50-20-2, 86.400 linee di dati di allenamento su 88 predittori. + 28.800 per i dati di convalida e la trama di prova (tuttavia, si contano rapidamente)


Con un set del genere, Reshetov conterebbe per sempre :-)

Lasciate che vi dica un segreto del forex. Alpha nei dati può essere solo su una sezione molto breve. Con i miei dati non sono ancora riuscito ad aumentare questo parametro più di 50 righe. Voglio dire che ho 100 colonne e 50 righe. Questo copre circa due settimane di mercato. Cioè, se comincio ad aumentare l'intervallo di allenamento, la qualità del modello scende sotto il 75% e la qualità della CB diventa tale che è impossibile lavorarci sopra, a proprio rischio e pericolo. Quindi non capisco cosa volete fare con queste migliaia di dischi. Non si può costruire un modello per tutto il mercato con un livello accettabile di qualità della formazione - più grande è l'area di formazione, peggiore è il modello. E se mostra buoni risultati in tale ambito, allora non ha niente a che vedere con il concetto di generalizzazione..... Sai cosa intendo ......

Sapete perché non si possono costruire modelli su un lungo tratto con buone prestazioni? Perché tali dati... ingressi.... che potrebbe costruire un tale modello NON esiste in natura in principio..... Non ci sono questi dati, altrimenti sarebbe stato nell'uso comune molto tempo fa. Intendo dati pubblicamente disponibili....... non insider o altro.... Quindi... non capisco perché così tante linee????

 
Mihail Marchukajtes:

Con un set del genere, Reshetov conterebbe per sempre :-)

Lasciate che vi dica un segreto del forex. Alpha nei dati può essere solo su una sezione molto breve. Con i miei dati non sono ancora riuscito ad aumentare questo parametro più di 50 righe. Voglio dire che ho 100 colonne e 50 righe.

Non puoi costruire tali modelli, la lunghezza di campionamento dovrebbe essere almeno 5 volte il numero di caratteristiche, e hai più caratteristiche che campionamento e la maledizione della dimensionalità

Mostri ignoranza invece di rivelare il segreto del Forex.

 
Mihail Marchukajtes:
Quindi non capisco cosa volete fare con queste migliaia di dischi? Non sarai in grado di costruire un modello su tutto il mercato con un livello accettabile di qualità della formazione. E se mostra buoni risultati in tale ambito, allora non ha niente a che vedere con il concetto di generalizzazione..... Sai cosa intendo ......

È un M1, solo 60 giorni. Quindi non per tutto il mercato, ma per gli ultimi 3 mesi.

Quando la durata raddoppia, il modello non costruisce più.... Ottimizzare la durata, naturalmente, ma non ci sono ancora arrivati. Vorrei prima capire il numero di strati.

Se costruisci almeno 10 modelli, ci vorranno 8-10 ore per calcolarli(((

Ci sono 3 formule da calcolare, trovare min e max, contarli, poi 2-3 tra loro, e 2-3 fuori. E poi da tutto questo scegliere i migliori modelli, e se sono già calcolati - per assemblarli.

PS Hm. Questo è con 2 strati nascosti, e la stessa quantità con 1 strato.

In generale, ventiquattro ore determinano il modello.

 
elibrario:

In generale, 24 ore determinano il modello.


Non sono un maniaco del mining, il prezzo è 3 volte più alto di tutte le schede normali).

I maniaci dei minatori hanno fatto salire il prezzo di tutte le carte normali di 3 volte.

 
elibrario:

È un M1, solo 60 giorni. Quindi non per tutto il mercato, ma per gli ultimi 3 mesi.

Quando si raddoppiava la durata, il modello non era più costruito.... Ottimizzare la durata, naturalmente, ma non ci sono ancora arrivati. Vorrei prima capire il numero di strati.

Se costruisci almeno 10 modelli, ci vorranno 8-10 ore per calcolarli(((

Ci sono 3 formule da calcolare, trovare min e max, contarli, poi 2-3 tra loro, e 2-3 fuori. E poi da tutto questo scegliere i migliori modelli, e se sono già calcolati - per assemblarli.

PS Hmm. Questo con 2 strati nascosti, e la stessa quantità con 1 strato.

In generale, 24 ore determinano il modello.

Preferibilmente, si dovrebbe cercare di costruire un modello basato sul principio dell'analisi frattale utilizzando tali dati. Quando vengono utilizzati diversi timeframe per l'inserimento. Maxim ci ha mostrato un bel video sulla frattalità del mondo.
In generale posso suggerirvi un server dedicato per i7 3-4Ghz e ssd per soli 7-8 dollari al mese. Conta bene, e il computer non sarà tanto occupato.
 

Ho l'idea che l'input (ed eventualmente l'output) possa essere alimentato con distribuzioni di quotazioni di una certa profondità, o momenti di distribuzioni

Questo otterrà un po' di levigatura e un quadro probabilistico e, forse, un numero limitato di certe varianti, il che è importante. Ma non l'ho ancora fatto - per questo ho bisogno di pompare l'analisi della varianza.

Se prendiamo in considerazione i frattali, allora mb. le relazioni delle distribuzioni tra diverse tf. Ma l'argomento deve essere elaborato seriamente, disegnando un diagramma

 
Mihail Marchukajtes:

Trovare un modello generalizzabile nello spazio multidimensionale dei dati non è una questione veloce dal punto di vista dell'ottimizzazione, perché l'aumento dei requisiti e l'introduzione di regole sempre più rigide per la costruzione del modello al fine di ridurre l'effetto di over-learning comporta un aumento del tempo necessario per trovare tale modello. Quindi i dati devono essere scossi a fondo....

Perché lo stesso file su AWS e Reshetny's ha un tempo diverso? AWS 2-5 minuti, Reshetov 3 ore e il suo modello è due volte migliore dei modelli AWS/ Perché?

Il modello di Reshetov non è un punto di riferimento. Per esempio la ricerca di un insieme di predittori in esso è fatta provando diverse varianti - il modello prende un insieme casuale di predittori, è addestrato, e ricorda il risultato. Questo viene ripetuto un numero enorme di volte in un ciclo, e il risultato migliore viene usato come modello finale. Questo processo può essere notevolmente accelerato se prima si fa una selezione di predittori con un algoritmo speciale, e poi si allena il modello di Reshetov solo una volta su quel particolare set. E si ottiene la qualità del modello Reshetov a una velocità paragonabile a quella di AWS. Il "costo" di un tale modello diminuirà significativamente, ma la qualità rimarrà la stessa.

 
Aleksey Terentev:
Penso che dovreste provare a costruire un modello basato sul principio dell'analisi frattale con tali dati. Quando si devono inserire diversi intervalli di tempo. Maxim ha mostrato un buon video sulla frattalità del mondo.
In generale posso suggerirvi un server dedicato per i7 3-4Ghz e ssd per soli 7-8 dollari al mese. Conta bene, e il computer non sarà tanto occupato.
Alcuni TF e io uso) solo analizzando ogni minuto. Non ho bisogno di un server, grazie!