L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3081

 

Questo articolo è un perfetto esempio di promozione pubblicitaria di risultati banali.

Il titolo stesso"Causal Effects" ci fa notare la nostra arretratezza, perché studiando vari seni non ci siamo resi conto che questo è il risultato dei Causal Effects dall'alimentazione dei dati di input all'input sin e dall'ottenimento del risultato.

L'autore prende RF, dà i dati di input all'input e ottiene come risultato un errore.

Per far capire a tutti che abbiamo a che fare con una direzione completamente nuova della MO, i dati di input (predittori) sono chiamati covariate, l' algoritmo RF è chiamato meta-apprendista e l'intero processo è chiamato Causal Effects.

Gli apologeti di Causal Effects non sanno che a volte in russo le covariate sono quei predittori che hanno un effetto non solo sulla variabile target ma anche sui predittori vicini, cioè il termine dovrebbe essere usato in modo più preciso per evitare ambiguità.

Chiamare l'algoritmo RF un "meta-apprendista" è un'altra trovata pubblicitaria di Causal Effects, poiché questo algoritmo che produce regole NON è certamente un apprendista. Ma da un punto di vista pubblicitario nell'apprendimento automatico dovrebbero esserci degli apprendenti e per l'importanza di "meta" e basta.

L'articolo giustifica in modo piuttosto dettagliato la scelta di RF come algoritmo di base , affermando specificamente che qualsiasi (?) algoritmo MO può essere utilizzato al posto diRF. Come generalizzazione di questo pensiero, viene usato il termine nuisance, cioè sgradevole, odioso, fastidioso . Se per testo, probabilmente dovrebbe essere tradotto come "una funzione del rumore", cioè l'algoritmo RF è una "funzione del rumore". Ma come suona intricato e bello, e soprattutto il lettore, che prima pensava che la RF producesse regole con qualche errore, si diverte.

Potremmo continuare, ma quanto sopra è sufficiente per ricondurre tutti questiEffetti Causali a pura pubblicità, tra l'altro di grande successo, visto che le vere sciocchezze sono state vendute e hanno ottenuto un posto come professore all'Università di Stanford, ottenendo seguaci che vogliono stare al passo con le nuove tendenze avanzate.

Chi è dunque l'autore della presunta nuova tendenza all'avanguardia nella ME? A giudicare dal numero di riferimenti, un certo Victor Chernozhukov, un uomo che non ha una formazione di profilo, che si è laureato in un istituto agrario all'inizio degli anni '90. Ricordo molto bene quel periodo, quando il suo nome è stato pubblicato su un sito internet. Ricordo molto bene quel periodo, quando milioni di Chernozhukov, sotto le grida di una coscienza non offuscata dall'istruzione e dai fatti, correvano e muovevano ogni genere di assurdità. e molti di loro sono diventati miliardari e politici di primo piano.


Oggi tutto il mondo vive secondo le leggi della pubblicità, in tutti gli ambiti, pensando che il MO passerà questa coppa. Ebbene, no.

 
СанСаныч Фоменко #:

Questo articolo è una perfetta illustrazione della promozione pubblicitaria di risultati banali.

Il nome stesso"Causal Effects" ci fa notare la nostra arretratezza, perché studiando i vari seni non ci siamo resi conto che si tratta del risultato di Causal Effects dal dare i dati di input al sin input e ottenere il risultato.

L'autore prende RF, dà i dati di input e ottiene come risultato un errore.

Per far capire a tutti che abbiamo a che fare con una direzione completamente nuova della MO, i dati di input (predittori) sono chiamati covariate, l' algoritmo RF è chiamato meta-apprendista e l'intero processo è chiamato Causal Effects.

Gli apologeti degliEffetti Causali non sanno che a volte in russo le covariate sono quei predittori che hanno un effetto non solo sulla variabile target ma anche sui predittori vicini, cioè il termine dovrebbe essere usato in modo più preciso per evitare ambiguità.

Chiamare l'algoritmo RF un "meta-apprendista" è un'altra trovata pubblicitaria di Causal Effects, poiché questo algoritmo che produce regole NON è certamente un apprendista. Ma dal punto di vista pubblicitario nell'apprendimento automatico ci dovrebbero essere studenti e per l'importanza di "meta" e basta.

L'articolo giustifica in qualche dettaglio la scelta di RF come algoritmo di base , affermando specificamente che qualsiasi (?) algoritmo MO può essere utilizzato al posto diRF. Come generalizzazione di questo pensiero, viene usato il termine nuisance, cioè sgradevole, odioso, fastidioso . Se per testo, probabilmente dovrebbe essere tradotto come "una funzione del rumore", cioè l'algoritmo RF è una "funzione del rumore". Ma come suona intricato e bello, e soprattutto il lettore, che prima pensava che la RF producesse regole con qualche errore, si diverte.

Si potrebbe continuare, ma quanto sopra è sufficiente per ricondurre tutto questo Causal Effects a pura pubblicità, tra l'altro di grande successo, quando le vere sciocchezze si sono vendute e hanno ottenuto un posto di professore all'Università di Stanford, hanno ottenuto seguaci che vogliono stare al passo con le nuove tendenze avanzate.

Chi è dunque l'autore della presunta nuova tendenza all'avanguardia nella ME? A giudicare dal numero di riferimenti, un certo Victor Chernozhukov, un uomo che non ha una formazione di profilo, che si è laureato in un istituto agrario all'inizio degli anni Novanta. Ricordo molto bene quel periodo, quando milioni di Chernozhukov, sotto le grida di una coscienza non offuscata dall'istruzione e dai fatti, correvano e muovevano ogni genere di assurdità. e molti di loro sono diventati miliardari e politici di primo piano.


Oggi tutto il mondo vive secondo le leggi della pubblicità, in tutti gli ambiti, pensando che il MO passerà questa coppa. Ebbene, no.

Grazie per l'analisi, perché non l'ho letta. Il video sullo stesso argomento era sufficiente.
 
СанСаныч Фоменко #:

Questo articolo è una perfetta illustrazione della promozione pubblicitaria di risultati banali.

Il nome stesso"Causal Effects" ci fa notare la nostra arretratezza, perché studiando i vari seni non ci siamo resi conto che si tratta del risultato di Causal Effects dal dare i dati di input al sin input e ottenere il risultato.

L'autore prende RF, dà i dati di input e ottiene come risultato un errore.

Per far capire a tutti che abbiamo a che fare con una direzione completamente nuova della MO, i dati di input (predittori) sono chiamati covariate, l' algoritmo RF è chiamato meta-apprendista e l'intero processo è chiamato Causal Effects.

Gli apologeti degliEffetti Causali non sanno che a volte in russo le covariate sono quei predittori che hanno un effetto non solo sulla variabile target ma anche sui predittori vicini, cioè il termine dovrebbe essere usato in modo più preciso per evitare ambiguità.

Chiamare l'algoritmo RF un "meta-apprendista" è un'altra trovata pubblicitaria di Causal Effects, poiché questo algoritmo che produce regole NON è certamente un apprendista. Ma dal punto di vista pubblicitario nell'apprendimento automatico ci dovrebbero essere studenti e per l'importanza di "meta" e basta.

L'articolo giustifica in qualche dettaglio la scelta di RF come algoritmo di base , affermando specificamente che qualsiasi (?) algoritmo MO può essere utilizzato al posto diRF. Come generalizzazione di questo pensiero, viene usato il termine nuisance, cioè sgradevole, odioso, fastidioso . Se per testo, probabilmente dovrebbe essere tradotto come "una funzione del rumore", cioè l'algoritmo RF è una "funzione del rumore". Ma come suona intricato e bello, e soprattutto il lettore, che prima pensava che la RF producesse regole con qualche errore, si diverte.

Si potrebbe continuare, ma quanto sopra è sufficiente per ricondurre tutto questo Causal Effects a pura pubblicità, tra l'altro di grande successo, quando le vere sciocchezze si sono vendute e hanno ottenuto un posto di professore all'Università di Stanford, hanno ottenuto seguaci che vogliono stare al passo con le nuove tendenze avanzate.

Chi è dunque l'autore della presunta nuova tendenza all'avanguardia nella ME? A giudicare dal numero di riferimenti, un certo Victor Chernozhukov, un uomo che non ha una formazione di profilo, che si è laureato in un istituto agrario all'inizio degli anni Novanta. Ricordo molto bene quel periodo, quando milioni di Chernozhukov, sotto le grida di una coscienza non offuscata dall'istruzione e dai fatti, correvano e muovevano ogni genere di assurdità. e molti di loro sono diventati miliardari e politici di primo piano.


Oggi tutto il mondo vive secondo le leggi della pubblicità, in tutti gli ambiti, pensando che il MO passerà questa coppa. Ebbene, no.

Questa è solo l'apoteosi della vostra inettitudine professionale, quando le nuove informazioni non vanno nella coppa. O di problemi di traduzione. Non posso che essere comprensivo :)

 
Maxim Dmitrievsky #:

È solo l'apogeo della vostra profanità quando le nuove informazioni non entrano più nella ciotola in alcun modo. O problemi di traduzione. Non posso che essere comprensivo :)

tutti i termini sono distorti, le informazioni di base sono distorte al di là del riconoscimento.

Potete trasmettere alla plebe le informazioni non distorte?

 
СанСаныч Фоменко #:

...

Il documento giustifica in modo dettagliato la scelta di RF come algoritmo di base , specificando che qualsiasi (?) algoritmo MO può essere utilizzato al posto di RF. Come generalizzazione di questo pensiero, viene usato il termine nuisance, cioè sgradevole, odioso, fastidioso. Se per testo, probabilmente dovrebbe essere tradotto come "una funzione del rumore", cioè l'algoritmo RF è una "funzione del rumore". Ma come suona intricato e bello, e soprattutto il lettore, che prima pensava che la RF producesse regole con qualche errore, si diverte.

...

Stavo leggendo e cercando un'applicazione pratica di tutto questo - quindi non l'hai trovata?

A me è sembrato che l'articolo debba fornire uno strumento per valutare la misura della deviazione dell'area del campione aggregato rispetto al campione su cui si è svolto l'addestramento. Di conseguenza, disponendo di questo strumento è possibile individuare parti anomale del campione. Secondo voi c'è o non c'è?

 
Aleksey Vyazmikin #:

È in grado di trasmettere alla plebe un'informazione non adulterata?

Posso comprendere

 
СанСаныч Фоменко #:

pensavo di ricevere un pompino ..... Oh, no.

E io sono della stessa opinione)).

Queste parole profonde descrivono l'intero thread
 
Aleksey Vyazmikin #:

Ho letto e cercato un'applicazione pratica di tutto questo - quindi non l'hai trovata?

Mi sembrava che l'articolo dovesse fornire uno strumento per valutare la misura della deviazione dell'area del campione aggregato rispetto al campione su cui si è svolta la formazione. Di conseguenza, disponendo di questo strumento è possibile individuare le parti anomale del campione. Secondo voi c'è o non c'è?

Nell'articolo non c'è.

Descrive il solito fitting con diverse suddivisioni dei predittori originali, compresa la convalida incrociata. Una routine che è stata camuffata con le parole.

 
СанСаныч Фоменко #:

Non c'è nell'articolo.

Viene descritto il solito fitting con diverse suddivisioni dei predittori originali, compresa la convalida incrociata. Una routine che è stata camuffata con le parole.

Grazie per il parere dell'esperto.

 
Maxim Dmitrievsky #:


e le funzioni(o parametri) di disturbo non sono funzioni di rumore, ma funzioni ausiliarie, che non sono le funzioni target per un particolare compito


È possibile inserire nell'articolo un link per visualizzare queste funzioni "ausiliarie"?

Allo stesso tempo, le ragioni per l'utilizzo di RF, che viene definita una funzione di base e che calcola molte informazioni come risultato del lavoro, sono descritte in modo abbastanza dettagliato:

Un oggetto di classe randomForest , che è una lista con i seguenti componenti:

chiamata

la chiamata originale a randomForest

tipo

uno tra regressione, classificazione o non supervisionato.

predetto

i valori previsti dei dati di input basati su campioni fuori sacco.

importanza

una matrice con nclassi + 2 (per la classificazione) o due (per la regressione) colonne. Per la classificazione, le prime n colonne sono le misure specifiche della classe, calcolate come diminuzione media dell'accuratezza. La colonna nclass + 1 è la diminuzione media dell'accuratezza su tutte le classi. L'ultima colonna è la diminuzione media dell'indice di Gini. Per la regressione, la prima colonna è la diminuzione media dell'accuratezza e la seconda la diminuzione media dell'MSE. Se importance=FALSE , l'ultima misura viene comunque restituita come vettore.

importanzaSD

Gli "errori standard" della misura di importanza basata sulle permutazioni. Per la classificazione, una matrice p per nclassi + 1 corrispondente alle prime nclassi + 1 colonne della matrice di importanza. Per la regressione, un vettore di lunghezza p.

localeImp

una matrice p per n contenente le misure di importanza per caso, il cui elemento [i,j] è l'importanza della variabile i-esima sul caso j-esimo. NULL se localImp=FALSE .

ntree

numero di alberi coltivati.

mtry

numero di predittori campionati per la suddivisione in ogni nodo.

foresta

(un elenco che contiene l'intera foresta; NULL se randomForest viene eseguito in modalità non supervisionata o se keep.forest=FALSE .

tasso di errore

(solo per la classificazione) vettoriale dei tassi di errore della predizione sui dati di input; l'elemento i-esimo è il tasso di errore (OOB) per tutti gli alberi fino all'i-esimo.

confusione

(solo classificazione) matrice di confusione della previsione (basata sui dati OOB).

voti

(solo classificazione) una matrice con una riga per ogni punto di dati in ingresso e una colonna per ogni classe, che fornisce la frazione o il numero di "voti" (OOB) della foresta casuale.

oob.times

numero di volte in cui i casi sono "fuori sacco" (e quindi utilizzati per calcolare la stima dell'errore OOB).

prossimità

se proximity=TRUE quando viene chiamata randomForest, una matrice di misure di prossimità tra gli input (basata sulla frequenza con cui coppie di punti dati si trovano negli stessi nodi terminali).

mse

(solo regressione) vettore degli errori quadratici medi: somma dei residui al quadrato divisa per n .

rsq

(solo regressione) "pseudo R-quadrato": 1 - mse / Var(y).

test

se viene fornito un set di test (tramite gli argomenti xtest o ytest ), questo componente è un elenco che contiene i corrispondenti predetti, err.rate, confusione, voti ( per la classificazione) o predetti, mse e rsq ( per la regressione) per il set di test. Se proximity=TRUE , c'è anche un componente, proximity , che contiene la prossimità tra i set di test e la prossimità tra i dati di test e di addestramento.


Non è noto cosa l'autore utilizzi esattamente dall'elenco di cui sopra, ma semplicemente non ci sono altre fonti per determinare gli errori di classificazione o regressione quando si utilizza la RF, e non ce n'è bisogno.

Gli errori prodotti dalla RF saranno diversi per diverse combinazioni di dati di input. Questo è ciò che l'autore studia e trae conclusioni sulla varianza dell'errore e su un certo bias, non si sa come calcolato.