L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 556

 
Aleksey Terentev:
Overfitting - Si verifica in presenza di grandi pesi (~10^18), una conseguenza della multicollinearità, che porta al modello instabile A(x, w).


Il sovrallenamento è trattato da: arresto precoce dell'apprendimento del modello, limitazione della crescita dei pesi (L1(Lasso) e regolarizzazione L2), limitazione dei legami nella rete (Dropout), anche possibile applicazione di funzioni di penalità (ElacticNet, Lasso).

E la regolarizzazione L1 porta alla selezione delle caratteristiche, poiché si azzera sui loro coefficienti di peso.

La rimozione delle caratteristiche "rumorose" è la selezione delle caratteristiche. Ci sono metodi per questo. Questo non sempre avvantaggia il modello, quindi a volte si usa la regolarizzazione L2 (aiuta a risolvere il problema della multicollinearità).


SanSanych Fomenko, la sua affermazione sulla relazione tra caratteristiche e obiettivi è un po' presuntuosa. Perché come si può affermare qualcosa che non è stato ancora provato; è per questo che il modello MO è costruito. Un modello costruito e funzionante dà una stima di quale sia la relazione con una precisione "così e così".

E l'esempio con i pantaloni e le gonne, mostra la scarsità di conoscenza del ricercatore sull'area di studio, perché in un modello del genere si buttano fuori attributi preziosi sul luogo di residenza, il periodo dell'anno, la latitudine e la longitudine della regione di residenza, e così via.


Il mio esempio è un caso degenerato, pensiero puro, classificazione senza errori. In economia non ci sono queste caratteristiche, ma in genetica, se non il 100%, un po' meno è possibile.

Ora sulla regolarizzazione.

Senza dubbio.

Ma la coerenza è importante.

In primo luogo, sempre, la selezione dei tratti in base alla "relazione" con l'obiettivo. Se nei mercati azionari, basati su relazioni economiche.

Questo è sempre il primo e poi tutto il resto.


Ho un TS funzionante con rf. Seleziono 27 predittori su diverse centinaia di attributi utilizzando la "relazione". Poi seleziono da 27 con algoritmo standard su ogni barra (H1), rimangono da 5 a 15, sono sempre diversi. Limito il numero di alberi, 100 è molto, 50 non è sufficiente, l'errore a 50 non si stabilizza.

Questa è un'esperienza concreta. L'errore di classificazione ZZ è poco meno del 30%. Nessun modo di ridurre - bisogno di altri predittori, e nessuna idea nei predittori.

 
SanSanych Fomenko:

Dal momento che hai tanti parametri contemporaneamente per l'input, allora è chiaro cosa intendi.

In questo caso la riqualificazione è in qualche modo secondaria, il che è probabilmente ciò che ha attirato la mia attenzione. È più vicino ad "alleggerire" i calcoli.

 
Aleksey Terentev:

Dal momento che hai tanti parametri contemporaneamente per l'input, è chiaro cosa intendi.

In questo caso l'overfitting è in qualche modo secondario, che è probabilmente ciò che ha attirato la mia attenzione. È più vicino a un "alleggerimento" dei calcoli.


Perché secondario?

Che cosa è primario?

Cosa potrebbe essere più spaventoso dell'overfitting?

 
SanSanych Fomenko:

Perché secondario?

Che cosa è primario?

Cosa potrebbe essere più spaventoso del sovrallenamento (over-fitting)?

Nella questione sollevata sui parametri di campionamento per la classificazione con alcune correlazioni tra i dati di destinazione, avete menzionato l'overfitting. Ho cercato di correggerti e ho generalizzato questa domanda al compito di selezione delle caratteristiche. Allo stesso tempo ho fatto delle considerazioni sul sovrallenamento, dove la questione della selezione si pone come conseguenza.
Ecco perché dico che nella questione sollevata, il sovrallenamento è secondario.
Anche se hai notato correttamente, avrei dovuto dire questo: "La selezione dei parametri è secondaria alla riqualificazione, e vale la pena di guardare più da vicino la questione da lì.
 
Aggiunto un indicatore di segnale, se interessato. https://www.mql5.com/ru/blogs/post/712023
 
Leggete a vostro piacimento.
https://habrahabr.ru/post/345950/
Добро пожаловать в эру глубокой нейроэволюции
Добро пожаловать в эру глубокой нейроэволюции
  • habrahabr.ru
От имени команды Uber AI Labs, которая также включает Joel Lehman, Jay Chen, Edoardo Conti, Vashisht Madhavan, Felipe Petroski Such и Xingwen Zhang. В области обучения глубоких нейронных сетей (DNN) с большим количеством слоев и миллионами соединений, для тренировки, как правило, применяется стохастический градиентный спуск (SGD). Многие...
 

si scopre che la semplice NS oltre i limiti del campione di allenamento funziona piuttosto male (va ad una costante iperb. tangente)... nel caso della regressione, cioè non molto meglio di RF

articolo molto illustrativo

https://habrahabr.ru/post/322438/


Нейронные сети в картинках: от одного нейрона до глубоких архитектур
Нейронные сети в картинках: от одного нейрона до глубоких архитектур
  • 2022.02.17
  • habrahabr.ru
Многие материалы по нейронным сетям сразу начинаются с демонстрации довольно сложных архитектур. При этом самые базовые вещи, касающиеся функций активаций, инициализации весов, выбора количества слоёв в сети и т.д. если и рассматриваются, то вскользь. Получается начинающему практику нейронных сетей приходится брать типовые конфигурации и...
 
Maxim Dmitrievsky:

si scopre che la semplice NS oltre i limiti del campione di allenamento funziona piuttosto male (va ad una costante iperb. tangente)... nel caso della regressione, cioè non molto meglio di RF

articolo molto illustrativo

https://habrahabr.ru/post/322438/


IMHO, è un articolo utile e stimolante, senza pretese di novità ma con un buon senso pratico.


Aleksey Terentev:
Leggete a vostro piacimento.
https://habrahabr.ru/post/345950/

IMHO è un articolo inutile, cattiva traduzione, o io sono un cattivo lettore, ma per me sembra un banale accumulo di idee obsolete e purtroppo, un'altra conferma della crisi del deep learning come tecnologia di punta, anche il padre effettivo di questa tendenza Jeffrey Hinton nei suoi articoli sulle reti neurali a capsula ne ha parlato ultimamente.

Rispetto per Uber Taxi, però...))

 
Ivan Negreshniy:
IMHO articolo utile e informativo, senza pretese di novità, ma con un buon senso pratico.

Ecco perché è facile confondersi, diciamo che stavamo usando la regressione lineare o la regressione e tutto andava bene, e poi abbiamo deciso di passare a MLP per gli stessi compiti... e non è possibile :)

Ecco perché tutti preferiscono usare la classificazione, anche se la regressione è buona per la prognosi :)

Direi addirittura che per le tendenze è più adatto il lineare o la regressione, e per gli appiattimenti - MLP.

 

L'esercizio con il garch ha prodotto un modello sorprendente.

Ecco il quoziente EURCAD


Ed ecco l'autocorrelazione degli incrementi assoluti


Una regolarità sorprendente!

1. Cosa significa?

2. Come si può utilizzare questa regolarità?


PS.

Non tutte le coppie di valute hanno questa visione.

Ecco USDJPY