L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1334
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Ho cercato MSUA, non so a quale libro si riferisce specificamente, ma non è ricercabile con quel nome. Da quanto ho capito, questa cosa è usata in CatBoost
--l2-foglie-reg
l2-leaf-regularizer
Coefficiente di regolarizzazione L2. Utilizzato per il calcolo del valore delle foglie.
Qualsiasi valore positivo è permesso.
CPU e GPU
O si tratta di qualcos'altro? Questo metodo può anche essere usato quando si creano predittori, per esempio, per descrivere modelli in certe aree.
Beh, questa è la regolarizzazione di Tikhonov, e dov'è il rimbalzo della temperatura?
Bene, questa è la regolarizzazione di Tikhonov, dov'è il bagging della temperatura?
Ma il punto sembra essere lo stesso, no? Non so proprio che tipo di algoritmo ci sia lì dentro...
Definisce le impostazioni del bootstrap bayesiano. È usato di default nelle modalità di classificazione e regressione.
Usa il bootstrap bayesiano per assegnare pesi casuali agli oggetti.
I pesi sono campionati da una distribuzione esponenziale se il valore di questo parametro è impostato su"1". Tutti i pesi sono uguali a 1 se il valore di questo parametro è impostato su"0".
I valori possibili sono nell'intervallo. Più alto è il valore, più aggressivo è l'insaccamento.
Ma il punto sembra essere lo stesso, no? Non so proprio quale sia l'algoritmo lì dentro...
Definisce le impostazioni del bootstrap bayesiano. È usato di default nelle modalità di classificazione e regressione.
Usa il bootstrap bayesiano per assegnare pesi casuali agli oggetti.
I pesi sono campionati da una distribuzione esponenziale se il valore di questo parametro è impostato su"1". Tutti i pesi sono uguali a 1 se il valore di questo parametro è impostato su"0".
I valori possibili sono nell'intervallo. Più alto è il valore, più aggressivo è l'insaccamento.
che è diverso, naturalmente.
Un po' utile quando si hanno molte funzioni, credo.
cambierà un po' il modello, una messa a punto puramente sottile non più
i dettagli devono essere letti, in generale è comprensibile ma non fino alla fine
A proposito, ho trovato le lezioni che ho menzionato prima, con esempi in python, per chi vuole saperne di più su XGboost. Lì, o nelle prossime lezioni, si discute anche della regolarizzazione.
È diverso, naturalmente.
utile quando c'è un sacco di funzioni, credo.
cambierà un po' il modello, una messa a punto puramente sottile non più
Vedremo che tipo di variazione - oggi o domani saranno i prossimi modelli 100k, deciderò se applicare questo parametro nell'overshoot...
Vediamo quale sarà lo spread - oggi o domani ci saranno altri 100k modelli, deciderò se applicare questo parametro nell'overshoot...
Non so se c'è ancora un manuale per i parametri, sto leggendo altre cose
Non c'è un manuale per i parametri? Non sto ancora usando un katb, sto leggendo altre cose.
Beh, c'è solo un'impostazione e una breve descrizione, più una famosa clip con spiegazioni.
Se si guarda attentamente, si può vedere che i risultati finanziari dei modelli nello stesso campione possono essere molto diversi - da 5000 a 1500, cioè in modo significativo, il che significa che Seed influenza i modelli. Suppongo che siano i modelli selezionati ad essere simili (controllerò), mentre hanno margini di profitto leggermente diversi, ma quasi tutti i modelli sono piatti nel mezzo, il che è sorprendente - sono sbagliati sugli stessi margini (un'anomalia nei nuovi dati?).
Avete una scatola con una specie di paesaggio molto collinare creato al suo interno. Lanciamo un sacco di palle lì dentro (questo è il sid), e il nostro compito è quello di assicurarci che la maggior parte delle palle colpisca le cavità più profonde. Questo sarà l'apprendimento, e questo è il principio con cui è strutturato l'apprendimento in ME.
1. Se scuotiamo leggermente la scatola, la maggior parte delle palline non sarà in grado di lasciare le cavità dove hanno colpito originariamente - l'apprendimento non avverrà.
2. Se scuotiamo vigorosamente la scatola, alcune delle palline hanno la possibilità di colpire e rimanere solo nelle cavità più profonde, ma quelle meno profonde rimarranno non riempite perché le palline salteranno fuori da lì. L'apprendimento completo non avverrà.
3. Se scuotiamo la scatola con forza media, solo le cavità più profonde e centrali saranno riempite, ma il resto delle palline non troverà nulla e continuerà a rimbalzare a caso intorno alla scatola. L'apprendimento è migliore che nell'1 e nel 2, ma nemmeno un asso.
I metodi di apprendimento hanno sempre delle impostazioni - esattamente come e quando scuotere la scatola per ottenere l'apprendimento più efficace.
Se i diversi "sid" non si sommano, allora o c'è qualcosa di sbagliato nell'algoritmo di apprendimento - lo scuoti nel modo sbagliato, o non ci sono profondi avvallamenti a cui aggrapparsi nella nostra scatola.
Si ha una scatola, all'interno della quale si crea una specie di paesaggio molto collinare. Lanciamo un sacco di palle lì dentro (questo è il sid), e il nostro compito è quello di assicurarci che la maggior parte delle palle colpisca le cavità più profonde. Questo sarà l'apprendimento, e questo è il principio con cui è strutturato l'apprendimento in ME.
1. Se scuotiamo leggermente la scatola, la maggior parte delle palline non sarà in grado di lasciare le cavità dove hanno colpito originariamente - l'apprendimento non avverrà.
2. Se scuotiamo vigorosamente la scatola, alcune delle palline hanno la possibilità di colpire e rimanere solo nelle cavità più profonde, ma quelle meno profonde rimarranno non riempite perché le palline salteranno fuori da lì. L'apprendimento completo non avverrà.
3. Se scuotiamo la scatola con forza media, solo le cavità più profonde e centrali saranno riempite, ma il resto delle palline non troverà nulla e continuerà a rimbalzare a caso intorno alla scatola. L'apprendimento è migliore che nell'1 e nel 2, ma nemmeno un asso.
I metodi di apprendimento hanno sempre delle impostazioni - esattamente come e quando scuotere la scatola per ottenere l'apprendimento più efficace.
Se i diversi "sid" non si sommano, allora o c'è qualcosa che non va nell'algoritmo di apprendimento - lo si scuote nel modo sbagliato, o nella nostra scatola mancano degli avvallamenti profondi su cui fare presa.
o una scatola di scarpe)
Le palle sono una buona spiegazione.
e una buona scatola si scuote da sola.
Avete una scatola, all'interno della quale si crea una specie di paesaggio molto collinare. Lanciamo un sacco di palle lì dentro (questo è il sid), e il nostro compito è quello di assicurarci che la maggior parte delle palle colpisca le cavità più profonde. Questo sarà l'apprendimento, e questo è il principio con cui si organizza l'apprendimento in ME.
1. Se scuotiamo leggermente la scatola, la maggior parte delle palline non sarà in grado di lasciare le cavità dove hanno colpito originariamente - l'apprendimento non avverrà.
2. Se scuotiamo vigorosamente la scatola, alcune delle palline hanno la possibilità di colpire e rimanere solo nelle cavità più profonde, ma quelle meno profonde rimarranno non riempite perché le palline salteranno fuori da lì. L'apprendimento completo non avverrà.
3. Se scuotiamo la scatola con forza media, solo le cavità più profonde e centrali saranno riempite, ma il resto delle palline non troverà nulla e continuerà a rimbalzare a caso intorno alla scatola. L'apprendimento è migliore che nell'1 e nel 2, ma nemmeno un asso.
I metodi di apprendimento hanno sempre delle impostazioni - esattamente come e quando scuotere la scatola per ottenere l'apprendimento più efficace.
Se i diversi "sid" non si sommano, allora o c'è qualcosa di sbagliato nell'algoritmo di apprendimento - lo si scuote nel modo sbagliato, o nella nostra scatola mancano degli avvallamenti profondi su cui fare presa.