L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 607

 
Vizard_:

Parliamo di imparare DAO, ugh, TAU))


No, no... qui c'è solo DAO...

 
Vizard_:

Pacchetto learningCurve, R, curva di apprendimento.

Come aiutano a calcolare il numero di neuroni?
 
elibrario:
Come aiutano a calcolare il numero di neuroni?

se l'errore smette di scendere bruscamente allora smetti di insegnare :)

 
Maxim Dmitrievsky:

Se l'errore smette di diminuire drasticamente allora smetti di imparare :)

Possiamo allenare solo la rete con una struttura già definita e cercare gli errori. Prima di tutto bisogna determinare la struttura, cioè il numero di neuroni su cui si possono poi cercare gli errori.

Cioè la domanda è come learningCurve prima dell'allenamento aiuta a determinare il numero ottimale di neuroni.

O con qualsiasi altro metodo.

 
elibrario:

Possiamo allenare solo una rete con una struttura già data e cercare gli errori. Prima di tutto dobbiamo definire la struttura, cioè il numero di neuroni su cui possiamo osservare gli errori.

Cioè la domanda è come learningCurve prima dell'apprendimento aiuta a determinare il numero ottimale di neuroni.

O con qualsiasi altro metodo.


Si scopre che non importa il numero... l'apprendimento si ferma quando l'errore smette di diminuire e non avviene alcuna riqualificazione. Quindi ci può essere un gran numero di neuroni

se ho capito bene.

 
Vizard_:

Parliamo della cognizione DAO, ugh, TAU))


La relatività della cognizione è dovuta a molte ragioni, tra le quali dobbiamo prima di tutto menzionare la diversa prontezza della coscienza nell'atto di percepire e comprendere lo stesso fenomeno, che porta a diversi risultati della cognizione (reazioni, decisioni, azioni, ecc.).

 
Maxim Dmitrievsky:

Si scopre che il numero non ha importanza... l'addestramento si ferma semplicemente quando l'errore ha smesso di cadere e non c'è riqualificazione. Quindi ci potrebbe essere un gran numero di neuroni

se ho capito bene.

Questa è una sosta anticipata. Non vedo alcuna connessione con il pacchetto learningCurve.

Nel metodo dell'arresto anticipato, l'addestramento si ferma quando la complessità della rete raggiunge un valore ottimale. Questo momento è stimato dal comportamento temporale dell'errore di convalida.

Ma ha anche le sue debolezze: una rete troppo grande fermerà presto il suo apprendimento, quando le non linearità non hanno ancora avuto il tempo di diventare pienamente evidenti. Cioè, questa tecnica è irta di soluzioni debolmente non lineari.

Vizard_:

Errori (2pc).

Per favore, scrivi in modo più dettagliato. In che modo learningCurve aiuta a determinare il numero di neuroni per la rete?

 

Non posso dire nulla sulla regolarizzazione, non l'ho sperimentata.

Ma l'arresto precoce porta all'overfitting. Funziona in qualche modo per il riconoscimento delle immagini a causa dell'alta somiglianza dei dati di test e di allenamento, motivo per cui è spesso raccomandato in libri e articoli. Ma non è adatto al forex.


Consiglio di imparare la validazione incrociata k-fold. Ho visto diversi modi, questo funziona bene -.

Usiamo cinque falli. Diciamo che ci sono 1000 righe in una tabella di allenamento.

1) Allenare il modello sulle file 201-1000. Se si tratta di un neurone, nessuna pausa anticipata, basta insegnare al neurone un certo numero di epoche sufficienti per raggiungere un'alta precisione. Prevedere le linee 1-200.
2) Riallena il modello, ora sulle linee 1-200 insieme a 401-1000, usa gli stessi parametri del modello e in generale tutte le impostazioni identiche. Prevedere le righe 201-400.
3) Riallena il modello, ora sulle righe 1-400 insieme a 601-1000, usa gli stessi parametri del modello e in generale tutte le impostazioni identiche. Prevedere le righe 401-600.
4) Riallena il modello, ora sulle righe 1-600 insieme a 801-1000, usa gli stessi parametri del modello e in generale tutte le impostazioni identiche. Prevedere le righe 601-800.
5) Retrain del modello, ora su file 1-800, usate gli stessi parametri del modello e in generale tutte le impostazioni identiche. Prevedere le righe 801-1000.

Come risultato abbiamo cinque modelli creati con un algoritmo di apprendimento identico con parametri identici. E cinque previsioni, ognuna fatta su dati sconosciuti al modello.
Cinque matrici con le previsioni sono aggiunte l'una all'altra per ottenere una matrice lunga di lunghezza 1000, e valutate contro i dati reali con la funzione R2. Questo valuterà il nostro modello, il metodo di allenamento e tutto il resto.
Poi scegliamo i parametri del modello (funzione di attivazione, numero di strati e la loro dimensione ecc.) ogni volta che facciamo tutti questi passi (addestrare 5 modelli, prevedere 5 pezzi unici per ogni modello, unirli, R2), ottenendo una stima sempre migliore.

Per prevedere i nuovi dati in un commercio reale - prevediamo ciascuno dei cinque modelli, e per i cinque risultati troviamo la media, questa sarà la previsione finale sui nuovi dati.

p.s. Il numero di falli è meglio prendere un paio di decine, in questo esempio ce ne sono solo cinque per semplicità di descrizione.

 

Un tipo speciale di ottenere, individuare le categorie è l'operazione per analogia del seguente tipo: causa + condizione → conseguenza, qui la conseguenza viene solo quando la causa e la condizione sono combinate. Applicando questa operazione alle categorie delle parti e degli interi, si trova la categoria della struttura che svolge il ruolo di condizione necessaria: parti + struttura → intero, cioè un intero non può essere ottenuto senza una condizione strutturale corrispondente, una montagna non può essere ottenuta da un numero sufficiente di granelli di sabbia mentre sono semplicemente sdraiati sul piano. Il prerequisito per ottenere un sistema dagli elementi sono le relazioni e le connessioni tra gli elementi: elementi + connessioni → sistema. L'importanza della forma è emersa quando un semplice ago da cucito è stato trasformato in un ago da macchina da cucire, per il quale la cruna è stata spostata sulla punta dell'ago. Per ottenere una nuova qualità dell'ago, bisognava cambiare la configurazione: forma + configurazione → qualità. Questo esempio mostra allo stesso tempo la legge di sviluppo degli opposti di un sistema - un cambiamento nella qualità non richiede necessariamente un cambiamento nella quantità.

 

Il numero ottimale di elementi nascosti è un problema specifico da risolvere con l'esperienza. Ma come regola generale: più neuroni nascosti ci sono, maggiore è il rischio di sovraapprendimento. In questo caso, il sistema non impara le capacità dei dati, ma piuttosto ricorda i modelli stessi e qualsiasi rumore che contengono. Una tale rete funziona bene in un campione, ma male al di fuori del campione. Come possiamo evitare l'apprendimento eccessivo? Ci sono due metodi popolari: l'arresto anticipato e la regolarizzazione. L'autore preferisce il suo, legato alla ricerca globale.

Riassumiamo questa parte della storia. Il miglior approccio per dimensionare la rete è seguire il principio di Occam. Cioè, per due modelli con le stesse prestazioni, il modello con meno parametri generalizzerà con più successo. Questo non significa che dobbiamo necessariamente scegliere un modello semplice per migliorare le prestazioni. Il contrario è vero: molti neuroni nascosti e strati non garantiscono la superiorità. Troppa attenzione è data oggi alle grandi reti, e troppo poco ai principi della loro progettazione. Più grande non è sempre meglio.


http://ai-news.ru/2016/05/tehnologii_fondovogo_rynka_10_zabluzhdenij_o_nejronnyh_setyah_578372.html

Технологии фондового рынка: 10 заблуждений о нейронных сетях
Технологии фондового рынка: 10 заблуждений о нейронных сетях
  • ai-news.ru
Нейронные сети - один из самых популярных классов алгоритмов для машинного обучения. В финансовом анализе они чаще всего применяются для прогнозирования, создания собственных индикаторов, алгоритмического трейдинга и моделирования рисков. Несмотря на все это, репутация у нейронных сетей подпорчена, поскольку результаты их применения можно...