L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 580

 
Yuriy Asaulenko:
Grazie. Mi chiedo se ci sono monografie, esistono in natura?

non trovato... visto solo sulle foreste da Breyman - il creatore della foresta

 
Yuriy Asaulenko:

...

Vorrei qualcosa di grande e dettagliato).


... e approfondita.


Zykov A.A. Fondamenti di teoria dei grafi. -Mosca: Nauka. Caporedattore, Fisica e Matematica, 1987.

Un'introduzione sistematica alla teoria dei grafi, strutturata secondo la logica interna del suo sviluppo.


Ci sono alcuni link per il download nella rete.

 

Perché non un manuale di montaggio del trattore?

 

È stata pubblicata una nuova versione della libreria per collegare Python a MT5. Richiamando il linkhttps://github.com/RandomKori/Py36MT5 Ma ci sono problemi. In Visual Studio il progetto di prova funziona come dovrebbe, ma in MT ci sono alcuni problemi poco chiari. Ora la libreria funziona bene con la directory dove si trova lo script Python. Non so come fare il debug del link a MT. MT è protetto dal debugger. Forse qualcuno sa come fare il debug?

 
Maxim Dmitrievsky:

Perché non un manuale di montaggio del trattore?


è questa la tua idea di scherzo?

Ti do informazioni utili e in cambio ... sei come un adolescente, maleducato, e pensi di essere il migliore spirito ... è patetico.

Probabilmente ne hai avuto abbastanza di un libro, come alcuni personaggi qui...

 
Oleg avtomat:

È questa la sua idea di scherzo?

Amico, io ti do informazioni utili, e in cambio... sei come un adolescente, maleducato, e pensi di essere il miglior spirito del settore... è patetico.

Probabilmente ne hai avuto abbastanza di un libro, come alcuni dei personaggi qui...


Cosa c'è di utile lì dentro? Come costruire un albero grafico? Molto utile...

a causa di questo bisogno di leggere tutto il libro?

 
Maxim Dmitrievsky:

Cosa c'è di utile lì dentro? Come costruire un albero grafico? Molto utile...

è per questo che devi leggere tutto il libro?


È per questo che ci stai armeggiando sopra, perché non hai la conoscenza di base e non vuoi averla. non hai la conoscenza e la comprensione. Vi manca la conoscenza e la comprensione, ma un libro e diversi articoli non sono sufficienti.

 
Oleg avtomat:

È per questo che stai armeggiando sopra le cose, perché non hai una conoscenza solida, e non vuoi farlo. Non hai la conoscenza e la comprensione. E per questo, un libro e qualche articolo letto una volta non sono sufficienti.


Come vivere, come vivere... panico-panico... vai a imparare la tavola della moltiplicazione e la teoria e l'ontologia della conoscenza

 
Yuriy Asaulenko:
Grazie. Mi chiedo se ci sono monografie, esistono anche in natura?

Smettila di scherzare e prendi una R: il codice deve essere accompagnato da un link a una fonte che descriva la teoria di quel codice.

Ecco i riferimenti all'algoritmo classico di Breiman:

Breiman, L. (2001), Random Forests, Machine Learning 45(1), 5-32.

Breiman, L (2002), 'Manual On Setting Up, Using, And Understanding Random Forests V3.1', http://oz.berkeley.edu/users/breiman/Using_random_forests_V3.1.pdf.


Inoltre, se uno usa R, ci sono già una grande varietà di foreste raccolte lì e si vedrebbe che ci sono altre foreste oltre a randomForest che specificano una grande varietà di sfumature dell'id originale.

Per esempio, randomForestSRC, randomUniformForest.

L'algoritmo più interessante ed efficiente della stessa razza è ada.

Ecco i riferimenti (sono tutti dalla documentazione dei pacchetti R)

Friedman, J. (1999). Approssimazione di funzioni avide: una macchina di aumento del gradiente.Relazionetecnica, Dipartimento di Statistica, Università di Standford.

Friedman, J., Hastie, T., e Tibshirani, R. (2000). Regressione logistica additiva: una prospettiva statisticadel boosting. Annali di statistica, 28(2), 337-374.

Friedman, J. (2002). Stochastic Gradient Boosting. Statistica Coputazionale{& Analisi dei Dati 38.Culp, M., Johnson, K., Michailidis, G. (2006). ada: an R Package for Stochastic Boosting Journalof Statistical Software, 16.


Ci sono diverse varianti dell'ada.


Ma la R stessa fa delle selezioni tematiche.

Per alberi:

  • Foreste casuali: l'implementazione di riferimento dell'algoritmo foresta casuale per la regressione e la classificazione è disponibile nel pacchettorandomForest. Il pacchettoipred ha il bagging per la regressione, la classificazione e l'analisi di sopravvivenza, così come il bundling, una combinazione di modelli multipli attraverso l'apprendimento in ensemble. Inoltre, una variante di foresta casuale per variabili di risposta misurate su scale arbitrarie basate su alberi di inferenza condizionali è implementata nel pacchettoparty.randomForestSRC implementa un trattamento unificato delle foreste casuali di Breiman per problemi di sopravvivenza, regressione e classificazione. Le foreste di regressione quantilequantForest permettono di regolare i quantili di una risposta numerica su variabili esplorative attraverso un approccio di foresta casuale. Per i dati binari,LogicForest è una foresta di alberi di regressione logica (pacchettoLogicReg. IpacchettivarSelRF eBoruta si concentrano sulla selezione delle variabili per mezzo di algoritmi di foresta casuale. Inoltre, i pacchettiranger eRborist offrono interfacce R per veloci implementazioni C++ di foreste casuali. Gli alberi di apprendimento per rinforzo, con suddivisioni in variabili che saranno importanti lungo l'albero, sono implementati nel pacchettoRLT.wsrf implementa un metodo alternativo di ponderazione delle variabili per la selezione del sottospazio delle variabili al posto del tradizionale campionamento casuale delle variabili.

Da parenti molto stretti dell'albero:

  • Boosting e Gradient Descent: varie forme di boosting del gradiente sono implementate nel pacchettogbm(boosting funzionale ad albero della discesa del gradiente). Il pacchettoxgboost implementa il boosting ad albero usando alberi efficienti come apprendisti di base per diverse funzioni obiettivo definite dall'utente. La perdita della cerniera è ottimizzata dall'implementazione del boosting nel pacchettobst. Il pacchettoGAMBoost può essere utilizzato per adattare modelli additivi generalizzati mediante un algoritmo di boosting. Un framework estensibile di boosting per modelli lineari generalizzati, additivi e non parametrici è disponibile nel pacchettomboost. Il boosting basato sulla verosimiglianza per i modelli di Cox è implementato inCoxBoost e per i modelli misti inGMMBoost. I modelli GAMLSS possono essere adattati usando il boosting congamboostLSS. Un'implementazione di vari algoritmi di apprendimento basati su Gradient Descent per affrontare compiti di regressione è disponibile nel pacchettogradDescent.

Ci sono anche dei wrapper disponibili, ad esempio uno molto interessante per Maxim sugli algoritmi di stima dei predittori:

  • CORElearn implementa una classe piuttosto ampia di algoritmi di apprendimento automatico, come vicini più vicini, alberi, foreste casuali e diversi metodi di selezione delle caratteristiche. Simile, il pacchettorminer interfaccia diversi algoritmi di apprendimento implementati in altri pacchetti e calcola diverse misure di performance.



E quando scrivo che si usano podlouches rurali, intendo esattamente le seguenti circostanze:

  • un gran numero di utenti
  • che un gran numero di utenti ha debuggato bene il codice
  • quel gran numero di utenti documentati bene
  • è un gran numero di utenti che hanno scrutato la teoria.
  • che molti utenti hanno creato pubblicazioni, dalle controversie reciproche alle applicazioni pratiche.
 

AdaBoost non è meglio del bagging per il forex in quanto si adatta male, soprattutto su dati di grandi dimensioni. soprattutto perché è già obsoleto nella sua classe, c'è xgboost. e il resto è ancora un lavoro in corso :)

Nemmeno io credo molto nella funzionalità degli importatori sul forex... ma è bene acquisire familiarità con esso per l'educazione generale, per esempio dopando gini ad allieb