L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 487
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Si suppone che le foreste casuali abbiano un piccolo errore, perché tutte le variabili sono usate negli alberi decisionali e non c'è una restrizione nell'uso della memoria come nelle reti neurali - il numero di neuroni. Lì si possono usare solo operazioni separate per "offuscare" il risultato, come la restrizione dei livelli, il taglio degli alberi o il backgammon. Non so se l'implementazione di MQ di alglib ha il pruning, il bagging sì
Se questa variabile è più piccola di 1, l'errore dovrebbe salire.
lo è, ma l'errore era ancora in media, come descritto sopra... ora è normale
A proposito, anche diminuendo r di o.1 l'errore aumenta molto. Sopra r 0,9 sotto 0,8
A r = 0,66 (come nella versione classica di RF)
E i risultati mostrano che la tabella di moltiplicazione risolve già male
Si suppone che le foreste casuali abbiano un piccolo errore, perché tutte le variabili sono usate negli alberi decisionali e non c'è una restrizione nell'uso della memoria come nelle reti neurali - il numero di neuroni. Lì si possono usare solo operazioni separate per "offuscare" il risultato, come la restrizione dei livelli, il taglio degli alberi o il backgammon. Non so se l'implementazione di MQ di alglib ha il pruning, backgammon sì
Se questa variabile è più piccola di 1, l'errore dovrebbe salire.
devi fare 1 operazione sbagliata per 500000000000000000000000000. è impossibile in qualsiasi strumento.
il mio rispetto.
perché l'errore sia piccolo come quello di @Maxim Dmitrievsky
Ho bisogno di 1 affare sbagliato per 50000000000000000000000. è impossibile farlo su qualsiasi strumento.
Sinceramente.
Ti sto dicendo che ogni albero decisionale si ricorda praticamente tutti i modelli e può non esserci alcun errore in un set di allenamento con un campionamento del 100%, cioè R=1.
Sì, è un overfitting, ma è così che funziona l'algoritmo, ecco perché usano tutti i tipi di trucchi nelle foreste casuali.
Che dire degli accordi, vi sto dicendo che ogni albero di decisione praticamente ricorda tutti i modelli e potrebbe non esserci alcun errore nel campionamento al 100% cioè R=1.
per questo è necessario guardare fuori dalla borsa, per stimare il modello, ma poi si dovrebbe impostare r=0,66 max.
Che dire degli accordi, vi dico che ogni albero di decisione ricorda praticamente tutti i modelli e non ci può essere alcun errore al 100% di campionamento, cioè R=1.
con rispetto.
per questo è necessario guardare fuori dal sacco, per valutare il modello, ma poi r=0,66 max mettere sì
Probabilmente c'è bisogno di raccogliere, ma il tagging da solo non è una tecnologia molto forte per la predizione - IMHO
Beh, questo è tutto per ora... :) poi se aggancio un lib decente con diplinking, lo guarderò
ma la velocità!
lo è, ma l'errore era ancora in media, come descritto sopra... ora è normale
A proposito, anche quando r è ridotto di o.1 l'errore aumenta notevolmente. Sopra r 0,9 sotto 0,8
A r = 0,66 (come nella versione classica di RF)
E posso vedere dai risultati che la tabella di moltiplicazione risolve già molto male.
Sinceramente.
Non ho approfondito come funziona la foresta. ma dalle tue parole capisco che ogni albero memorizza un modello, che successivamente potrebbe non ripetersi. in questo caso (dato che non c'è ripetizione), non possiamo dire quanto sia probabile che abbia funzionato nel più e prendere come assioma la sua probabilità di 1, invece di portarla a 0,5 perché è essenzialmente sconosciuta. quindi otteniamo che la foresta non sbaglia quasi mai (dalle tue parole).
con rispetto.
Quando ho aumentato la soglia del segnale NS ha compensato aumentando il numero di ingressi richiesti, di conseguenza l'errore è diminuito, ma c'erano anche meno opzioni per gli ingressi.
Sinceramente.
Beh, è una questione di azzeccare i chip e l'obiettivo, anche se sembrerebbe che cosa potrebbe essere più semplice di una tabella di moltiplicazione, ma anche lì non c'è un piccolo errore