L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 556
![MQL5 - Linguaggio delle strategie di trading integrato nel client terminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Overfitting - Si verifica in presenza di grandi pesi (~10^18), una conseguenza della multicollinearità, che porta al modello instabile A(x, w).
Il sovrallenamento è trattato da: arresto precoce dell'apprendimento del modello, limitazione della crescita dei pesi (L1(Lasso) e regolarizzazione L2), limitazione dei legami nella rete (Dropout), anche possibile applicazione di funzioni di penalità (ElacticNet, Lasso).
E la regolarizzazione L1 porta alla selezione delle caratteristiche, poiché si azzera sui loro coefficienti di peso.
La rimozione delle caratteristiche "rumorose" è la selezione delle caratteristiche. Ci sono metodi per questo. Questo non sempre avvantaggia il modello, quindi a volte si usa la regolarizzazione L2 (aiuta a risolvere il problema della multicollinearità).
SanSanych Fomenko, la sua affermazione sulla relazione tra caratteristiche e obiettivi è un po' presuntuosa. Perché come si può affermare qualcosa che non è stato ancora provato; è per questo che il modello MO è costruito. Un modello costruito e funzionante dà una stima di quale sia la relazione con una precisione "così e così".
E l'esempio con i pantaloni e le gonne, mostra la scarsità di conoscenza del ricercatore sull'area di studio, perché in un modello del genere si buttano fuori attributi preziosi sul luogo di residenza, il periodo dell'anno, la latitudine e la longitudine della regione di residenza, e così via.
Il mio esempio è un caso degenerato, pensiero puro, classificazione senza errori. In economia non ci sono queste caratteristiche, ma in genetica, se non il 100%, un po' meno è possibile.
Ora sulla regolarizzazione.
Senza dubbio.
Ma la coerenza è importante.
In primo luogo, sempre, la selezione dei tratti in base alla "relazione" con l'obiettivo. Se nei mercati azionari, basati su relazioni economiche.
Questo è sempre il primo e poi tutto il resto.
Ho un TS funzionante con rf. Seleziono 27 predittori su diverse centinaia di attributi utilizzando la "relazione". Poi seleziono da 27 con algoritmo standard su ogni barra (H1), rimangono da 5 a 15, sono sempre diversi. Limito il numero di alberi, 100 è molto, 50 non è sufficiente, l'errore a 50 non si stabilizza.
Questa è un'esperienza concreta. L'errore di classificazione ZZ è poco meno del 30%. Nessun modo di ridurre - bisogno di altri predittori, e nessuna idea nei predittori.
Dal momento che hai tanti parametri contemporaneamente per l'input, allora è chiaro cosa intendi.
In questo caso la riqualificazione è in qualche modo secondaria, il che è probabilmente ciò che ha attirato la mia attenzione. È più vicino ad "alleggerire" i calcoli.
Dal momento che hai tanti parametri contemporaneamente per l'input, è chiaro cosa intendi.
In questo caso l'overfitting è in qualche modo secondario, che è probabilmente ciò che ha attirato la mia attenzione. È più vicino a un "alleggerimento" dei calcoli.
Perché secondario?
Che cosa è primario?
Cosa potrebbe essere più spaventoso dell'overfitting?
Perché secondario?
Che cosa è primario?
Cosa potrebbe essere più spaventoso del sovrallenamento (over-fitting)?
Ecco perché dico che nella questione sollevata, il sovrallenamento è secondario.
Anche se hai notato correttamente, avrei dovuto dire questo: "La selezione dei parametri è secondaria alla riqualificazione, e vale la pena di guardare più da vicino la questione da lì.
https://habrahabr.ru/post/345950/
si scopre che la semplice NS oltre i limiti del campione di allenamento funziona piuttosto male (va ad una costante iperb. tangente)... nel caso della regressione, cioè non molto meglio di RF
articolo molto illustrativo
https://habrahabr.ru/post/322438/
si scopre che la semplice NS oltre i limiti del campione di allenamento funziona piuttosto male (va ad una costante iperb. tangente)... nel caso della regressione, cioè non molto meglio di RF
articolo molto illustrativo
https://habrahabr.ru/post/322438/
Leggete a vostro piacimento.
https://habrahabr.ru/post/345950/
IMHO è un articolo inutile, cattiva traduzione, o io sono un cattivo lettore, ma per me sembra un banale accumulo di idee obsolete e purtroppo, un'altra conferma della crisi del deep learning come tecnologia di punta, anche il padre effettivo di questa tendenza Jeffrey Hinton nei suoi articoli sulle reti neurali a capsula ne ha parlato ultimamente.
Rispetto per Uber Taxi, però...))
IMHO articolo utile e informativo, senza pretese di novità, ma con un buon senso pratico.
Ecco perché è facile confondersi, diciamo che stavamo usando la regressione lineare o la regressione e tutto andava bene, e poi abbiamo deciso di passare a MLP per gli stessi compiti... e non è possibile :)
Ecco perché tutti preferiscono usare la classificazione, anche se la regressione è buona per la prognosi :)
Direi addirittura che per le tendenze è più adatto il lineare o la regressione, e per gli appiattimenti - MLP.
L'esercizio con il garch ha prodotto un modello sorprendente.
Ecco il quoziente EURCAD
Ed ecco l'autocorrelazione degli incrementi assoluti
Una regolarità sorprendente!
1. Cosa significa?
2. Come si può utilizzare questa regolarità?
PS.
Non tutte le coppie di valute hanno questa visione.
Ecco USDJPY