L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1615
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Non si tratta di restringimento, ma di statistica del comportamento del predittore su un campione al di fuori di una divisione - questo dovrebbe ridurre la casualità della selezione di un valore di predittore.
A proposito, AlgLib fa la griglia su ogni divisione o una volta sola e poi usa quella griglia? Da quanto ho capito, gli sviluppatori di CatBoost affermano che la griglia è fatta solo una volta da loro.
Non c'è casualità. Viene selezionata la migliore partizione disponibile di ogni predittore. C'è casualità nella foresta, quando ogni albero viene alimentato non con tutti i predittori, ma per esempio con la metà di quelli selezionati casualmente.
Impara una volta. Non c'è riqualificazione. Per gli alberi/foreste, non sembra esserci alcun riapprendimento, probabilmente perché è piuttosto veloce da riapprendere.
E perché la griglia? Gli alberi hanno nodi e foglie.
A proposito, quello che non mi piace dei boost è che la profondità dell'albero raccomandata è 7-10.
Cioè, se abbiamo 100 predittori e la divisione lì inizia anche nel mezzo di ogni predittatore. È molto probabile che avremo 7 diversi predittori divisi a metà. Forse 1 o 2 si divideranno in un quarto, difficilmente più piccolo.
O negli algoritmi di boosting l'algoritmo non lavora per mezza divisione, ma in pezzi più piccoli? Qualcuno lo sa?
E chi usa quale profondità d'albero?
47 minuti sono un peccato... per ascoltare le basi, che sono per lo più note. Solo una domanda specifica è interessante. Se lo sai - dimmelo)
47 minuti sono un peccato... per ascoltare le basi, che sono per lo più note. Solo una domanda specifica è interessante. Se lo sai, dimmelo.
Sono tutti costruiti in modo diverso, bisogna leggere il manuale di ognuno.
non importa se hai dei chip informativi che sono rilevanti per l'obiettivo, allora qualsiasi metodo funziona
Stavo confrontando la foresta con il boosting su caratteristiche simili. Il boosting ha meno overfit, complessivamente +-
Sono tutti costruiti in modo diverso, dovete leggere l'aiuto per ogni
non importa se ci sono caratteristiche informative che sono rilevanti per l'obiettivo, allora qualsiasi metodo funziona
Stavo confrontando la foresta con il boosting su caratteristiche simili. Il boosting ha meno overfit, in generale +-
Sono tutti costruiti in modo diverso, dovete leggere l'aiuto per ogni
non importa se ci sono caratteristiche informative che sono rilevanti per l'obiettivo, allora qualsiasi metodo funziona
Stavo confrontando la foresta con il boosting su caratteristiche simili. Il boosting ha meno overfit, in generale +-
Che profondità hai impostato per il boosting?
Da 2 a 10, maggiore è la profondità, maggiore è l'adattamento
in modo ottimale 3-7
Anche il passo del gradiente può essere cambiato. In generale, non importa, i risultati sono meno dispersione, meno offset, meno segnali, ecc. e l'immagine media è conservata. È una questione di ottimizzazione, non ha niente a che vedere con la qualità.
Max, voglio ringraziarti per il video sul neurone naturale, ma questo video non è così buono. La questione è che io ho una teoria di riqualificazione a cui ho pensato per molto tempo e che ho costruito in modo abbastanza adeguato per me. Sono sicuro che lo staff di Yandex sarebbe interessato ad ascoltarlo. Eh... Vorrei trovare la forza di registrare un video. Sono sempre ubriaco o divertente. Non lo so :-(
)) le regolarità dovrebbero essere ricercate attraverso la statanalisi piuttosto che torturare i neuroni
Per esempio, nel mio penultimo articolo ho dato le fluttuazioni stagionali dell'EURUSD per 10 anni, per mesi. Quest'anno si sta ripetendo. Aprile-maggio sarà il più interessante (a breve termine))) le regolarità dovrebbero essere cercate attraverso la statanalisi, non torturando i neuroni