L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1334

 
Aleksey Vyazmikin:

Ho cercato MSUA, non so a quale libro si riferisce specificamente, ma non è ricercabile con quel nome. Da quanto ho capito, questa cosa è usata in CatBoost

--l2-foglie-reg

l2-leaf-regularizer

Coefficiente di regolarizzazione L2. Utilizzato per il calcolo del valore delle foglie.

Qualsiasi valore positivo è permesso.

3

CPU e GPU


O si tratta di qualcos'altro? Questo metodo può anche essere usato quando si creano predittori, per esempio, per descrivere modelli in certe aree.

Beh, questa è la regolarizzazione di Tikhonov, e dov'è il rimbalzo della temperatura?

 
Maxim Dmitrievsky:

Bene, questa è la regolarizzazione di Tikhonov, dov'è il bagging della temperatura?

Ma il punto sembra essere lo stesso, no? Non so proprio che tipo di algoritmo ci sia lì dentro...

-temperatura dell'imballo

Definisce le impostazioni del bootstrap bayesiano. È usato di default nelle modalità di classificazione e regressione.

Usa il bootstrap bayesiano per assegnare pesi casuali agli oggetti.

I pesi sono campionati da una distribuzione esponenziale se il valore di questo parametro è impostato su"1". Tutti i pesi sono uguali a 1 se il valore di questo parametro è impostato su"0".

I valori possibili sono nell'intervallo. Più alto è il valore, più aggressivo è l'insaccamento.

1
 
Aleksey Vyazmikin:

Ma il punto sembra essere lo stesso, no? Non so proprio quale sia l'algoritmo lì dentro...

-temperatura dell'imballo

Definisce le impostazioni del bootstrap bayesiano. È usato di default nelle modalità di classificazione e regressione.

Usa il bootstrap bayesiano per assegnare pesi casuali agli oggetti.

I pesi sono campionati da una distribuzione esponenziale se il valore di questo parametro è impostato su"1". Tutti i pesi sono uguali a 1 se il valore di questo parametro è impostato su"0".

I valori possibili sono nell'intervallo. Più alto è il valore, più aggressivo è l'insaccamento.

1

che è diverso, naturalmente.

Un po' utile quando si hanno molte funzioni, credo.

cambierà un po' il modello, una messa a punto puramente sottile non più

i dettagli devono essere letti, in generale è comprensibile ma non fino alla fine

 

A proposito, ho trovato le lezioni che ho menzionato prima, con esempi in python, per chi vuole saperne di più su XGboost. Lì, o nelle prossime lezioni, si discute anche della regolarizzazione.


 
Maxim Dmitrievsky:

È diverso, naturalmente.

utile quando c'è un sacco di funzioni, credo.

cambierà un po' il modello, una messa a punto puramente sottile non più

Vedremo che tipo di variazione - oggi o domani saranno i prossimi modelli 100k, deciderò se applicare questo parametro nell'overshoot...

 
Aleksey Vyazmikin:

Vediamo quale sarà lo spread - oggi o domani ci saranno altri 100k modelli, deciderò se applicare questo parametro nell'overshoot...

Non so se c'è ancora un manuale per i parametri, sto leggendo altre cose

 
Maxim Dmitrievsky:

Non c'è un manuale per i parametri? Non sto ancora usando un katb, sto leggendo altre cose.

Beh, c'è solo un'impostazione e una breve descrizione, più una famosa clip con spiegazioni.

 
Aleksey Vyazmikin:

Se si guarda attentamente, si può vedere che i risultati finanziari dei modelli nello stesso campione possono essere molto diversi - da 5000 a 1500, cioè in modo significativo, il che significa che Seed influenza i modelli. Suppongo che siano i modelli selezionati ad essere simili (controllerò), mentre hanno margini di profitto leggermente diversi, ma quasi tutti i modelli sono piatti nel mezzo, il che è sorprendente - sono sbagliati sugli stessi margini (un'anomalia nei nuovi dati?).

Avete una scatola con una specie di paesaggio molto collinare creato al suo interno. Lanciamo un sacco di palle lì dentro (questo è il sid), e il nostro compito è quello di assicurarci che la maggior parte delle palle colpisca le cavità più profonde. Questo sarà l'apprendimento, e questo è il principio con cui è strutturato l'apprendimento in ME.

1. Se scuotiamo leggermente la scatola, la maggior parte delle palline non sarà in grado di lasciare le cavità dove hanno colpito originariamente - l'apprendimento non avverrà.

2. Se scuotiamo vigorosamente la scatola, alcune delle palline hanno la possibilità di colpire e rimanere solo nelle cavità più profonde, ma quelle meno profonde rimarranno non riempite perché le palline salteranno fuori da lì. L'apprendimento completo non avverrà.

3. Se scuotiamo la scatola con forza media, solo le cavità più profonde e centrali saranno riempite, ma il resto delle palline non troverà nulla e continuerà a rimbalzare a caso intorno alla scatola. L'apprendimento è migliore che nell'1 e nel 2, ma nemmeno un asso.

I metodi di apprendimento hanno sempre delle impostazioni - esattamente come e quando scuotere la scatola per ottenere l'apprendimento più efficace.

Se i diversi "sid" non si sommano, allora o c'è qualcosa di sbagliato nell'algoritmo di apprendimento - lo scuoti nel modo sbagliato, o non ci sono profondi avvallamenti a cui aggrapparsi nella nostra scatola.

 
Yuriy Asaulenko:

Si ha una scatola, all'interno della quale si crea una specie di paesaggio molto collinare. Lanciamo un sacco di palle lì dentro (questo è il sid), e il nostro compito è quello di assicurarci che la maggior parte delle palle colpisca le cavità più profonde. Questo sarà l'apprendimento, e questo è il principio con cui è strutturato l'apprendimento in ME.

1. Se scuotiamo leggermente la scatola, la maggior parte delle palline non sarà in grado di lasciare le cavità dove hanno colpito originariamente - l'apprendimento non avverrà.

2. Se scuotiamo vigorosamente la scatola, alcune delle palline hanno la possibilità di colpire e rimanere solo nelle cavità più profonde, ma quelle meno profonde rimarranno non riempite perché le palline salteranno fuori da lì. L'apprendimento completo non avverrà.

3. Se scuotiamo la scatola con forza media, solo le cavità più profonde e centrali saranno riempite, ma il resto delle palline non troverà nulla e continuerà a rimbalzare a caso intorno alla scatola. L'apprendimento è migliore che nell'1 e nel 2, ma nemmeno un asso.

I metodi di apprendimento hanno sempre delle impostazioni - esattamente come e quando scuotere la scatola per ottenere l'apprendimento più efficace.

Se i diversi "sid" non si sommano, allora o c'è qualcosa che non va nell'algoritmo di apprendimento - lo si scuote nel modo sbagliato, o nella nostra scatola mancano degli avvallamenti profondi su cui fare presa.

o una scatola di scarpe)

Le palle sono una buona spiegazione.

e una buona scatola si scuote da sola.

 
Yuriy Asaulenko:

Avete una scatola, all'interno della quale si crea una specie di paesaggio molto collinare. Lanciamo un sacco di palle lì dentro (questo è il sid), e il nostro compito è quello di assicurarci che la maggior parte delle palle colpisca le cavità più profonde. Questo sarà l'apprendimento, e questo è il principio con cui si organizza l'apprendimento in ME.

1. Se scuotiamo leggermente la scatola, la maggior parte delle palline non sarà in grado di lasciare le cavità dove hanno colpito originariamente - l'apprendimento non avverrà.

2. Se scuotiamo vigorosamente la scatola, alcune delle palline hanno la possibilità di colpire e rimanere solo nelle cavità più profonde, ma quelle meno profonde rimarranno non riempite perché le palline salteranno fuori da lì. L'apprendimento completo non avverrà.

3. Se scuotiamo la scatola con forza media, solo le cavità più profonde e centrali saranno riempite, ma il resto delle palline non troverà nulla e continuerà a rimbalzare a caso intorno alla scatola. L'apprendimento è migliore che nell'1 e nel 2, ma nemmeno un asso.

I metodi di apprendimento hanno sempre delle impostazioni - esattamente come e quando scuotere la scatola per ottenere l'apprendimento più efficace.

Se i diversi "sid" non si sommano, allora o c'è qualcosa di sbagliato nell'algoritmo di apprendimento - lo si scuote nel modo sbagliato, o nella nostra scatola mancano degli avvallamenti profondi su cui fare presa.

Buona astrazione, se per trogoli profondi intendiamo risposte con errore minimo sulla convalida, per le quali c'è un arresto dell'apprendimento, allora questo potrebbe anche spiegare perché ha ottenuto risultati migliori quando la dimensione del campione di convalida è stata aumentata, e questo potrebbe essere il risultato di aumentare formalmente la dimensione del terreno astratto e quindi il numero di trogoli.