L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2396

 
Maxim Dmitrievsky:
Sì, potete prenderlo dai miei articoli. Beh, il tester è il più semplice. Posso mandarti alcuni esempi di bot basati su Python.

Beh, anch'io ho qualcosa - basato su test veloci delle mie idee. Ma è un po' usato per finirlo in un normale tester. Pensi che valga la pena liberarsi di questa abitudine? )

 
Aleksey Nikolayev:

Beh, anch'io ho qualcosa - affinato per testare rapidamente le mie idee. Ma è già un po' un'abitudine finire per eseguirlo nel normale tester. Pensi che valga la pena liberarsi di questa abitudine? )

Mi piacciono entrambi, se posso portare il modello rapidamente.
 

I MacBook si strappano e imprecano con i nuovi processori nei compiti del Ministero della Difesa. La cattiva notizia è che CatBoost non supporta ancora l'architettura arm, ma ci stanno lavorando

Conclusione

Da questi test, risulta che

  • per l'addestramento di MLP e LSTM, la CPU M1 è di gran lunga più veloce di tutti i server di fascia alta testati
  • per l'addestramento CNN, M1 è solo leggermente più lento dei server di fascia alta testati

Naturalmente, queste metriche possono essere considerate solo per tipi di reti neurali e profondità simili a quelle utilizzate in questo test.

Per i grandi allenamenti e i calcoli intensivi che durano più di 20 minuti, andrò ancora per le soluzioni basate sul cloud perché forniscono schede costruite per carichi pesanti così lunghi e permettono di inviare diversi lavori contemporaneamente. Ma questo scenario è solo per alcune ricerche specifiche che rappresentano solo il 10% del mio lavoro, per lo più per uso professionale in qualche specifica area di business.

Come ingegnere di machine learning, per la mia ricerca personale quotidiana, l'M1 Mac è chiaramente l'opzione migliore e più conveniente oggi.

https://towardsdatascience.com/benchmark-m1-part-2-vs-20-cores-xeon-vs-amd-epyc-16-and-32-cores-8e394d56003d

Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
Benchmark M1 (part 2) vs 20 cores Xeon vs AMD EPYC, 16 and 32 cores
  • Fabrice Daniel
  • towardsdatascience.com
In the first part of M1 Benchmark article I was comparing a MacBook Air M1 with an iMac 27" core i5, a 8 cores Xeon(R) Platinum, a K80 GPU instance and a T4 GPU instance on three TensorFlow models. While the GPU was not as efficient as expected, maybe because of the very early version of TensorFlow not yet entirely optimized for M1, it was...
 
Allora, come vanno i falconieri? Le vostre reti sono diventate intelligenti o avete fatto un passo avanti nella tecnologia? Raccontami tutto!!!!
 

Qualcuno ha familiarità con questo tipo di formazione degli insegnanti?

Quando l'insegnante non è un'etichetta ma la persona stessa, la persona clicca sull'immagine che gli piace e AMO cerca di separare questa immagine da tutto il resto e trovare le stesse immagini con lo stesso risultato nell'immagine...


Qualcuno sa se esiste una tale formazione e se sì come si chiama?

So come implementarlo, ma forse c'è un ready-made?

 
Anch'io ho il desiderio di parlare ad alta voce. Un pensiero sul tema della non stazionarietà. È chiaro come utilizzare il metodo K-nearest neighbour nelle sue condizioni. Prendiamo gli ultimi N modelli nel tempo, dai quali scegliamo K più vicini al modello in formazione e prendiamo una decisione in base ad esso. La semplicità deriva dall'assenza di apprendimento. Mi chiedo se ci sono altri algoritmi MO facili da usare in modo simile.
 
Aleksey Nikolayev:
Volevo anche esprimere un pensiero ad alta voce. Un pensiero sul tema della non stazionarietà. È chiaro come utilizzare il metodo K-nearest neighbour nelle sue condizioni. Prendiamo gli ultimi N modelli nel tempo da cui scegliamo K vicini più vicini e prendiamo una decisione in base ad essi. La semplicità deriva dall'assenza di apprendimento. Mi chiedo se ci sono altri algoritmi MO facili da usare in modo simile?

Ho ricercato e indagato molto con questo metodo così come il metodo stesso, non so perché ma è il più vicino e intuitivo per me...

Questo metodo appartiene alla famiglia delle "previsioni senza modello".

È conosciuto in rete come "predizione tramite analoghi della preistoria", "metodo di complessazione degli analoghi del MSUA" ecc...

Una volta si usava per le previsioni del tempo...

In sostanza è il solito clustering, solo più accurato... La differenza è solo che nel clustering usuale il centro di un cluster (prototipo) è qualcosa nel mezzo tra gli analoghi, e il metodo dato il centro di un cluster è il prezzo attuale o qualsiasi altra cosa, quindi è possibile trovare analoghi più precisamente per il momento attuale...

Ho persino cercato modelli multidimensionali, ho persino inventato la mia mini metodologia per cercare modelli nella preistoria, quindi sono molto profondo in questo argomento...

 
mytarmailS:

Ho cercato e indagato molto con questo metodo e il metodo stesso, non so perché ma è il più vicino e intuitivo per me.

Fa parte della famiglia "nessuna previsione di modelli".

È conosciuto in rete come "predizione tramite analoghi della preistoria", "metodo di complessazione degli analoghi del MSUA" ecc...

Una volta si usava per le previsioni del tempo...

In sostanza è il solito clustering, solo più accurato... La differenza è solo che nel clustering usuale il centro di un cluster (prototipo) è qualcosa nel mezzo tra gli analoghi, e il metodo dato il centro di un cluster è il prezzo attuale o qualsiasi altra cosa, quindi è possibile trovare analoghi più precisamente sotto il momento attuale...

Ho persino cercato modelli multidimensionali, ho persino inventato un mini metodo per cercare modelli nella preistoria, quindi sono molto profondo in questo argomento...

Il metodo è intuitivamente ovvio, quindi è impossibile da evitare. Ma voglio un po' di varietà. Per esempio, qualche semplice riqualificazione del modello, quando si aggiunge un nuovo esempio e si scartano quelli obsoleti.

 

Aleksey Nikolayev:

Qualche semplice riqualificazione del modello, dove un nuovo esempio viene aggiunto e quelli obsoleti vengono buttati via.

O di buttare fuori esempi obsoleti quando il tempo è troppo importante rispetto ad altri.

 
Aleksey Nikolayev:

O di buttare via esempi obsoleti quando il tempo si rivela una caratteristica troppo significativa rispetto ad altre.

Non vedo quale sia la differenza tra la tua idea e la riqualificazione costante di AMO nella finestra scorrevole...


Si prendono le ultime n immagini da quella corrente, ordinate per tempo, si fa una previsione in base ad esse, che cosa dovrebbe ottenere?

Basta riqualificare in una finestra scorrevole come con AMO sopra, qual è il vantaggio?