L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2743
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
oltre a Maxim Dmitrievsky .
Ecco a cosa mi riferisco:
per fare una classificazione, non bisogna limitarsi a fare su/giù dir, ma prima fare almeno una cluster analysis per determinare quante classi assegnare formalmente (come chiamarle è una questione di gusto soggettivo)...
e solo allora determinare funzioni discriminanti sulla base delle quali assegnare i campioni a questa o quella classe.... allora la classificazione avverrà con una percentuale normale di accuratezza - quando sapremo che le classi in cui ci dividiamo esistono davvero...
La PCA è solo una variante dell'analisi fattoriale per la selezione di caratteristiche ortogonali, ma spiega TUTTA la varianza, senza selezionare i fattori principali,
perché le componenti principali sono solo i dati grezzi trasformati in coefficienti autovettoriali ("loadings"), che, moltiplicati per i dati grezzi, danno i pc_scores... (qualcosa del genere - me lo ricordavo tempo fa - le componenti principali sono solo i dati grezzi trasformati in coefficienti autovettoriali ("loadings"), che, moltiplicati per i dati grezzi, danno i pc_scores... (qualcosa del genere - non ricordo l'algoritmo da molto tempo)
- ma alla fine la PCA spiega TUTTA la varianza, senza fs... Al contrario, l'analisi dei fattori principali utilizza "solo la variazione della variabile, comune anche ad altre variabili"... (non insisto sul fatto che questa sia la migliore fs -- ma ci sono sfumature ovunque)
in generale FS nessuno è in grado di fare correttamente, e cerca di dare la colpa alla libreria...
PCA in combinazione con +/-3sq.cv. off -- può aiutare a rimuovere gli outlier, ma questo è solo per la distribuzione normale, e devi ancora dimostrare che la tua popolazione genetica obbedisce alla legge di distribuzione normale! - anche statisticamente... altrimenti la PCA mostrerà "olio su Repin" (e non viceversa)...
== Vedo un modo statisticamente adeguato per costruire un modello approssimativamente come questo....
===
e la libreria è già la decima cosa (anche se i moderatori fanno nomi senza capire di cosa stiamo parlando nella normale DataScience - i perdenti sognano sempre un banchetto e danno la colpa a tutto il mondo) -- mentre chi vuole veramente capire, ha capito da tempo che non è il linguaggio del programmatore che conta, ma gli algoritmi che stanno dietro a certe entità, implementati anche in una libreria aliena -- l'essenza delle relazioni causa-effetto non cambia questo (il nome della libreria).
p.s..
mentre i moderatori sono al banchetto(, altri lavorano - dovreste prendere esempio da loro - non diffondete disinformazione.
La PCA è solo una variante dell'analisi dei fattori per la selezione di caratteristiche ortogonali, ma spiega TUTTA la varianza, senza selezionare i fattori principali,
C'è la PCA che tiene conto dell'obiettivo, isolerà le componenti che caratterizzano l'obiettivo, ma la cosa triste è che l'obiettivo è una variabile soggettiva e "galleggerà" non appena la traccia è finita.... e in cosa differisce dalla normale formazione degli insegnanti?
oltre a Maxim Dmitrievsky .
Ecco a cosa mi riferisco:
per fare una classificazione, non si dovrebbe fare solo su up/down dir, ma prima almeno fare una cluster analysis per determinare quante classi assegnare formalmente (come chiamarle è una questione di gusto soggettivo)...
e solo allora determinare funzioni discriminanti sulla base delle quali assegnare i campioni a questa o quella classe.... allora la classificazione avverrà con una percentuale normale di accuratezza - quando sapremo che le classi in cui ci dividiamo esistono davvero...
La PCA è solo una variante dell'analisi fattoriale per la selezione di caratteristiche ortogonali, ma spiega l'INTERA varianza, senza selezionare i fattori principali,
perché le componenti principali sono solo i dati originali trasformati in coefficienti di autovettori ("loadings"), che moltiplicati per i dati originali danno i pc_scores... (qualcosa del genere - me lo ricordavo da tempo - è passato molto tempo)... (qualcosa del genere - non ricordo l'algoritmo da molto tempo)
- ma alla fine la PCA spiega TUTTA la varianza, senza fs... Al contrario, l'analisi dei fattori principali utilizza "solo la variazione della variabile, comune anche ad altre variabili"... (non insisto sul fatto che questa sia la migliore fs -- ma ci sono sfumature ovunque)
in generale FS nessuno è in grado di fare correttamente, e cerca di dare la colpa alla libreria...
PCA in combinazione con +/-3sq.cv. off -- può aiutare a rimuovere gli outlier, ma questo è solo per la distribuzione normale, e devi ancora dimostrare che la tua popolazione genetica obbedisce alla legge di distribuzione normale! - anche statisticamente... altrimenti la PCA mostrerà "olio su Repin" (e non viceversa)...
== Vedo il modo statisticamente adeguato di costruire un modello come segue...
===
e la libreria è già la decima cosa (anche se i moderatori fanno nomi senza capire di cosa stiamo parlando nella normale DataScience - i perdenti sognano sempre un banchetto e danno la colpa a tutto il mondo) -- mentre chi vuole veramente capire, ha capito da tempo che non è il linguaggio del programmatore che conta, ma gli algoritmi che stanno dietro a certe entità, implementati anche in una libreria aliena -- l'essenza delle relazioni causa-effetto non cambia questo (il nome della libreria).
p.s..
mentre i moderatori sono al banchetto(, altri lavorano - dovreste prendere esempio da loro - non diffondete disinformazione.
.
detto da chi? da un idiota che non riesce a mettere insieme tre parole senza infrangere la logica )) ahaha, è serio....
da chi? da un imbecille che non riesce a mettere insieme tre parole per mantenere intatta la logica )) ahaha, questo è serio....
non capisci i giri di parole, non capisci quando è scritto per brevità, non capisci le definizioni, cioè niente.
stai solo telefonando fuori tema. Questo è il segno distintivo di uno studente universitario.
Nessuno ti accusa di questo, le persone sono diverse. Basta non andare dove sei una quercia, non farti coinvolgere :Dnon capisci i modelli di discorso
genio)) scriviamo qualsiasi sciocchezza, e se qualcuno che pensa ti dà un pugno sul naso, gli dici - tu non capisci il linguaggio, ptushnik.
Cos'hai contro i ptushnik? Non sono persone? O il tuo ex viene da lì?
...
Scrivere in russo è impossibile da leggere e con i campioni è persino divertente. La maggior parte dei tuoi post di solito non li leggo affatto per questo motivo.
Per riassumere la teoria di Sanych (dato che lui stesso non è riuscito a formalizzarla correttamente e a fornire esempi):
Dopo le spiegazioni di Sanych, alla fine ho smesso di capire il significato di predittori significativi. Secondo la sua spiegazione, sono frequenti e la loro entità è correlata al risultato. Ma questi sono apparentemente segni generali della serie, sull'intero periodo di formazione. Non riesco a trovare una corrispondenza con il modello della serie. Si scopre che si tratta di predittori che funzionano sempre, se abbastanza semplificati, o più spesso. In generale, è chiaro che utilizzare le impostazioni che funzionano più spesso darà un risultato più positivo rispetto a quelle che funzionano solo su un certo segmento....
Non riesco a capire cosa viene cercato e perché.
genio)) scriviamo qualsiasi sciocchezza, e se qualcuno che pensa ti dà un pugno nel naso, gli dici - non capisci i modelli di discorso, ptuschestvo.
Cos'hai contro i ptushnik? Non sono persone? O il tuo ex viene da lì?