L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3385

 
Maxim Dmitrievsky #:
Non volevi scrivere un articolo sulle regole o hai cambiato idea? Probabilmente è un argomento interessante, più interessante della minimizzazione delle funzioni di test. Oppure hai problemi con la loro validazione su OOS? Oppure non ci sono problemi, ma solo pigrizia nello scrivere.
Non lo so, non c'è niente da scrivere.
Scriverò come scomporre un modello di legno in regole, e allora?
In realtà il mio post ha già mostrato tutto.

O ti riferisci al mio vecchio post? Se è così, nello spacco non ho trovato proprietà super curative, ci sono dei plus che non può dare il modello.

1. Si può ridurre drasticamente la dimensionalità del modello.



2. È possibile conoscere le statistiche di ogni regola (questo è davvero importante).

Ad esempio, abbiamo un modello in legno con 100 regole e non sappiamo mai se ogni regola ha funzionato una volta all'interno di 100 regole (non c'è un modello) o se 10 regole hanno funzionato 50 volte (c'è un modello).
Se non rompiamo il modello, non lo sapremo ed entrambi i modelli saranno uguali per noi.

 
mytarmailS #:
Non lo so, non ho proprio nulla da scrivere.
Scriverò come rompere un modello di legno in regole, e allora?
In pratica, il mio post ti ha già mostrato tutto.

O ti riferisci al mio vecchio post? Se è così, nello spacco non ho trovato proprietà super curative, ci sono dei plus che non può dare il modello.

1. Puoi ridurre drasticamente la dimensionalità del modello.



2. È possibile conoscere le statistiche di ogni regola (questo è davvero importante).

Ad esempio, abbiamo un modello in legno con 100 regole e non sappiamo mai se ogni regola ha funzionato una volta all'interno di 100 regole (non c'è un modello) o se 10 regole hanno funzionato 50 volte (c'è un modello).
Se non rompiamo il modello, non lo sapremo ed entrambi i modelli saranno uguali per noi.

In genere, negli alberi è possibile calcolare l'influenza di ogni osservazione di ogni caratteristica, il suo contributo al modello, ad esempio attraverso i valori di shap. Se lasciamo solo quelle utili e addestriamo qualcosa solo su di esse, otterremo un analogo approssimativo della ricerca di regole. Tra l'altro, è possibile anche con i neuroni.

È difficile capire quando le regole possano essere le uniche utili. Forse per l'interpretabilità del risultato. Sebbene anche i valori di shap diano una buona interpretabilità, più o meno.
 
Maxim Dmitrievsky #:
In genere, negli alberi è possibile calcolare l'influenza di ogni osservazione di ogni tratto, il suo contributo al modello, ad esempio, attraverso i valori di shap. Se si lasciano solo quelli utili e si addestra qualcosa solo su di essi, si otterrà un analogo approssimativo della ricerca di regole. Tra l'altro, è possibile anche con i neuroni.

È difficile capire quando le regole possano essere le uniche utili. Forse per l'interpretabilità del risultato. Sebbene anche i valori di shap diano una buona interpretabilità, più o meno.
L'influenza di ogni tratto, l'influenza di ogni osservazione e l'influenza di ogni regola sono tutte diverse.
 
mytarmailS #:
L'impatto di ogni caratteristica, l'impatto di ogni osservazione e l'impatto di ogni regola sono tutti diversi.
Le regole sono gli elementi del modello che collegano le caratteristiche e le etichette. L'unica cosa è che le reti neurali non hanno discontinuità, ma possono essere create artificialmente.

Quello che voglio dire è che non vedo molto senso nelle regole (fumare la pipa in modo significativo).
 
Maxim Dmitrievsky #:
Le regole sono gli elementi del modello che collegano gli attributi e le etichette. L'unica cosa è che le reti neurali non hanno discontinuità, ma possono essere create artificialmente.

Quello che voglio dire è che non vedo l'utilità delle regole.

Provo a partire da Khabarovsk...


qualsiasi modello è una certa somma di modelli, esagerando un modello può essere etichettato come una ST.


Immaginiamo che un modello sia composto da 100 TC.


Può essere che nel modello #1 100 TS abbiano fatto un accordo.

Può essere che nel modello #2 un TS abbia fatto 100 operazioni e gli altri 99 non abbiano fatto alcuna operazione.


Come calcolare le statistiche per ogni TS?

Se il modello è un modello a regole, è facile e chiaro.

Se il modello èneurale?

 
mytarmailS #:

Proverò da vicino a Khabarovsk.

Se il modello è un neurone?

/\
!
!

Lei e Sanych non lavorate nello stesso studio?
Scegliete esempi che sono ben previsti dai NS. Si addestra un altro NS solo su di essi. Ripetete più volte, a seconda dei vostri gusti. Dopo alcuni round avrete il NS con le migliori "regole".

Anche questo è facile e non direi incomprensibile.
 
Maxim Dmitrievsky #:

Si scelgono esempi che sono ben previsti dal NS. Addestrate un altro NS solo su di essi. Ripetete più volte, a seconda dei vostri gusti. Dopo diversi cicli, si otterrà il NS con le migliori "regole".
Bene, abbiamo un sottocampione su cui il neuronka predice bene. Come si fa a sapere se si tratta di un modello in questo sottocampione, di due o di venti? Davvero non si conosce la differenza?

 
mytarmailS #:
Beh, abbiamo un sottocampione in cui la neuronica predice bene. Come fai a sapere se è un modello in quel sottocampione, due o venti? Davvero non conosci la differenza?

Dal numero di esempi rimasti. Ci sono tanti esempi quanti sono i modelli. È una regola approssimativa, non sto dicendo che sia la stessa cosa di una regola rigorosa. Ma si può dividere ulteriormente il campione, fino a una divisione completa per ogni schema.
 
Maxim Dmitrievsky #:
In base al numero di esempi rimasti. Ci sono tanti esempi quanti sono i modelli.
Possono esserci 200 esempi e solo 5 modelli.
Un esempio non è un modello, un esempio è un'osservazione.
 
mytarmailS #:
Ci possono essere 200 esempi e solo 5 modelli.
Un esempio non è un modello, un esempio è un'osservazione.
Se l'errore ha già smesso di diminuire o è uguale a zero, è possibile dividere gli esempi rimanenti in modelli in base a qualche misura di prossimità :). Per esempio, il clustering. E contare quanti ne rimangono. E anche scrivendo una condizione media per ogni modello/cluster (prendere i centroidi dei cluster), si otterrà una regola di output.