L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 402
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
XGB - https://en.wikipedia.org/wiki/Xgboost è l'arma termonucleare del machine learning.
3 mesi per l'hft non è abbastanza, per un ciclo completo di simulazione, poiché il modello deve essere testato su diversi mercati, cambi di regime, tetti lampo e diversi cigni, lo stress test sintetico non può farlo come il mercato reale. Il modello finale per la maggior parte non userà più di una settimana di dati, ma per configurarlo è necessario eseguirlo su campioni di 1-3 anni per assicurarsi che non faccia casini ovunque. In 3 mesi i dati possono essere addestrati e se i datascientist sanno il fatto loro, si rivelerà essere un creatore di denaro regolare, ma un giorno, forse in 3 mesi forse in mezzo anno, tutto può rompersi bruscamente, per ragione "sconosciuta", o meglio conosciuta, poiché il modello non ha incontrato tale meta stato del mercato e ha permesso il dilettantismo.
ah, bene, bisogna riqualificare sistematicamente, che senso ha formare un hft in 5 anni, non ci vogliono né i nervi né le risorse
Ah, l'aumento del gradiente... sentito, sentito, ma non l'ho fatto. Più ci si addentra nel bosco, più i termini sono complicati.
Non hanno il senso di formare hft in 5 anni, non hanno né il coraggio né le risorse per farlo.
Forse anche i ragazzi diLTCM hanno fatto questo ragionamento). Dicono che se avessero guardato due volte più indietro nei loro modelli, non si sarebbero fusi così ferocemente.
In ogni caso, la formazione non va immediatamente all'intero campione di 5 anni, è chiaro che la finestra scorrevole prende un campione, con apprendimento costante, ma è importante sapere quanto velocemente il modello "sa" quando qualcosa cambia fortemente nel mercato e non è un outlier, non la stupidità di qualcuno, e non riempirà coraggiosamente contro una tendenza improvvisa, la chiamata di Kolya.
Forse anche i ragazzi diLTCM hanno fatto questo ragionamento). Dicono che se avessero guardato due volte più indietro nei loro modelli, non si sarebbero fusi così ferocemente.
L'apprendimento in ogni caso non va immediatamente all'intero campione di 5 anni, è chiaro che la finestra scorrevole prende un campione, con apprendimento costante, ma è importante sapere quanto velocemente il modello "sa" quando qualcosa cambia fortemente nel mercato e questo non è un outlier, non la stupidità di qualcuno, e non sarà coraggiosamente riempire contro una tendenza improvvisa, la chiamata Kolya.
Mdya...... riesci a cagare sul lavoro, mentre tu stesso parli di imbuti completamente diversi. Di regola, il modello non va bene quando rompe la linea di supporto della curva di equilibrio, e poi si riprende, come ho mostrato prima... Fidarsi o meno del lavoro del modello è una questione filosofica. Nessuno sta dicendo che tre mesi di dati sono troppo pochi. MA ho una domanda, come fai a sapere come li raccolgo e a cosa si riferiscono?????? Sono solo curioso. Cosa vi fa pensare improvvisamente che il modello perda il suo significato se tutti i possibili sviluppi del mercato gli sono stati presentati per tre mesi?????
Bisogna capire cos'è prima di poter prevedere il mercato. Sì, il mercato cambia in un periodo globale, ma io uso i dati che causano il prezzo, cioè sono questi dati che cambiano il prezzo e non viceversa. Inoltre, dopo il caricamento utilizzo una procedura unica di pulizia dei dati per rimuovere la spazzatura, e quindi ottengo gli stessi modelli. Anche se il mio commercio in sé non è troppo malvagio. Ho urgente bisogno di un ROBOT. E una domanda per il pubblico... Qualcuno ha uno scheletro di robot che tenga conto di requotes, ouds, e altre cose nel trading reale?????
Nessuno sta dicendo che tre mesi di dati sono troppo pochi. MA la mia domanda è come fai a sapere come li raccolgo e a cosa si riferiscono?????? Sono solo curioso. Cosa ti fa pensare improvvisamente che il modello sarebbe privo di significato se tutti i possibili sviluppi del mercato gli fossero presentati entro tre mesi?????
Se ti sei allenato su 3 mesi di dati, non puoi aspettarti che il modello duri molto di più. Il mercato che il modello ha visto, è quello in cui potrà commerciare. Il tuo set di dati non ha senso, fare trading con esso è come indovinare con i fondi di caffè. Lo stesso vale per la "macchina di Reshetov" che ottiene coefficienti per un modello lineare, mentre i dati non sono affatto lineari. Bisogna essere tutt'altro che distanti per credere a questa sciocchezza che su un dataset di <500 punti un modello lineare ha impiegato settimane per imparare, perché è "AI")))))))))..... Non lo so.... è più spazzatura della martingala e del "depo boosting".
Se vi siete allenati su 3 mesi di dati, non potete aspettarvi che il modello duri molto di più. Quale mercato il modello ha visto, sarà in grado di commerciare. Il tuo set di dati non ha senso, e fare trading con esso è come indovinare con i fondi di caffè. Lo stesso vale per la "macchina di Reshetov" che ottiene coefficienti per un modello lineare, mentre i dati non sono affatto lineari. Bisogna essere tutt'altro che distanti per credere a questa sciocchezza che su un dataset di <500 punti un modello lineare ha impiegato settimane per imparare, perché è "AI")))))))))..... Non lo so.... è più insensato della martingala e della "corsa alla margherita".
Il valore della settimana???? Alyosha, sei davvero ALESHA Ha ha ha.... Che razza di persone sono al giorno d'oggi. Ladnaya Alexeyushka si nostro, che è il nostro primo leggere l'articolo qui e capirete che il mio 500 punti ho raccolto per tre mesi, perché io non spingere il classificatore ogni bar, e farlo in un certo momento e quindi 500 punti coprire il mercato per 3 mesi, e che il vostro modello non poteva addestrare su di esso correttamente, quindi questo è perché avete un sistema "merda" di AI. L'ho anche messo tra parentesi per una sorta di elogio :-) Eh Alyosha, Alyosha......Poi vedo che per il fine settimana anche i troll si svegliano..... Ok, a me personalmente non interessa, ve lo dirò alla fine di un altro segreto, giusto per sviluppare, così capirete a chi "state sputando addosso".
A tutti quelli che pensavano che il mio set di dati fosse peggiore del 50%!!!!!!! Il tuo sistema AI non è costruito correttamente o c'è un errore in esso OR!!!!!!!! E poi c'è il rullo di tamburi di.... Il tuo sistema è limitato dalla quantità di materiale che stai imparando, stai usando delle griglie che sono in grado di imparare correttamente in 2-3 settimane (prendiamo come regola che non c'è alcuna riqualificazione) e lavorano per una settimana o due. Tali sistemi esistono e non c'è niente di sbagliato in essi QUESTO FUNZIONA!!!! MA quando ci butti sopra un grande set di dati, diventa orribilmente sovrallenato o sottoallenato, il che alla fine porta a grandi errori di addestramento e si comincia a pensare che il set di dati faccia schifo, abbastanza ragionevole per i tuoi sistemi AI. MA, quando un sistema di IA è davvero forte, è capace di costruire un modello (e non di sovrallenarsi) anche su questo set di dati che TU hai fallito su.... Vedi !!!! Solo il modello consisterà in un gran numero di input, penso così 10-12 e il polinomio sarà abbastanza lungo e credetemi, un tale modello avrà più del 50% di profitto. O meglio, anche per l'ottimizzatore REACH c'è un limite, ma è molto più di quelli che hanno fallito..... Come questo.....
E la cosa interessante è che il risultato principale di questo ottimizzatore è la percentuale di generalizzazione e ho costruito modelli con un livello di generalizzazione del 100%. Ma con l'aumento della percentuale del campione comincia a diminuire, e nel momento in cui scende sotto il 50% il modello comincerà ad andare in crisi. Ma è più probabile che sia vicino alla soglia dei 50. Comunque, se c'è un pesce nei dati, lo troverà, se non c'è, allora è un casino.....
È anche molto buono per rispondere alla domanda su quanto siano buoni i dati per la variabile selezionata, se i dati sono pieni di merda, si vedrà immediatamente....
Mi sto divertendo, ho diviso il dataset che ho postato e uno dei campioni è di 138 linee, l'ho eseguito, sto aspettando.... Posterò i risultati se sono interessato....
Intendo settimane???? Alyosha, sei davvero Alyosha Ha ha ha .... Che tipo di persone sono oggi? Ladnaya Alexeyushka si nostro, che è il nostro primo leggere l'articolo qui e capirete che il mio 500 punti ho raccolto per tre mesi, perché io non spingere il classificatore ogni bar, e farlo in un certo momento e quindi 500 punti coprire il mercato per 3 mesi, e che il vostro modello non poteva addestrare su di esso correttamente, quindi questo è perché avete il vostro sistema di AI "merda". L'ho anche messo tra parentesi per una sorta di elogio :-) Eh Alyosha, Alyosha......Poi vedo che per il fine settimana anche i troll si svegliano..... Personalmente non mi interessa, vi lascerò alla fine un segreto in più solo per sviluppare, in modo da capire chi state "prendendo in giro".
A tutti quelli che pensavano che il mio dataset fosse peggiore del 50%:!!!!!!! Il tuo sistema AI non è costruito correttamente o c'è un errore in esso LIBO!!!!!!!! E poi c'è il rullo di tamburi di.... Il tuo sistema è limitato dalla quantità di materiale che stai imparando, stai usando delle griglie che sono in grado di imparare correttamente in 2-3 settimane (prendiamo come regola che non c'è alcuna riqualificazione) e lavorano per una settimana o due. Tali sistemi esistono e non c'è niente di sbagliato in essi QUESTO FUNZIONA!!!! MA quando ci butti sopra un grande set di dati, diventa orribilmente sovrallenato o sottoallenato, il che alla fine porta a grandi errori di addestramento e si comincia a pensare che il set di dati faccia schifo, abbastanza ragionevole per i tuoi sistemi AI. MA, quando un sistema di IA è davvero forte, è capace di costruire un modello (e non di sovrallenarsi) anche su questo set di dati che TU hai fallito su.... Vedi !!!! Solo il modello consisterà in un gran numero di input, penso così 10-12 e il polinomio sarà abbastanza lungo e credetemi, un tale modello avrà più del 50% di profitto. O meglio, anche per l'ottimizzatore REACH c'è un limite, ma è molto più di quelli che hanno fallito..... Come questo.....
E la cosa più interessante è che il risultato principale di questo ottimizzatore è la percentuale di generalizzazione e stavo costruendo modelli con un livello di generalizzazione del 100%. Ma con l'aumento della percentuale del campione inizia a diminuire, e arriverà un momento in cui scenderà sotto il 50%, e allora il modello si esaurirà. Ma è più probabile che sia vicino alla soglia dei 50. Comunque, se c'è un pesce nei dati, lo troverà, se non c'è, allora è un casino.....
È anche molto buono per rispondere alla domanda su quanto siano buoni i dati per la variabile selezionata, se i dati sono pieni di merda, si vedrà immediatamente....
Mi sto divertendo, ho diviso il dataset che ho postato e uno dei campioni è di 138 linee, l'ho eseguito, sto aspettando.... Posterò i risultati se sono interessato....
Non ho intenzione di discutere con te, non c'è niente da discutere, stai parlando di una completa assurdità, "100% generalizzazione" )))))) Penso che tu non capisca nemmeno la differenza tra modello lineare e non lineare. E la "macchina di Reshetov" è lineare, non può nemmeno c XOR, è una stupida ottimizzazione dei coefficienti dell'iperpiano di divisione di qualche pseudo genetica, chiacchiere infantili...
Ecco, io non offendo i bambini, sono uno zio cattivo, malvagio, ho detto che Babbo Natale non esiste)))
Non ho intenzione di discutere con te, non c'è niente da discutere, stai dicendo una completa assurdità, "generalizzazione al 100%" )))))). Penso che tu non capisca nemmeno la differenza tra modello lineare e non lineare. E la "macchina di Reshetov" è lineare, non può nemmeno c XOR, è solo un'ottimizzazione dei coefficienti dell'iperpiano con una specie di pseutogenetica, chiacchiere infantili...
Questo è tutto, non offendo i bambini, sono uno zio cattivo, malvagio, mi ha detto che Babbo Natale non esiste)))
YEAH!!!!! Io sono Babbo Natale!!! E ogni anno mi congratulo con i bambini per questa bella festa. Sei anche riuscito a perdere contro di me qui :-)
Non ho intenzione di discutere con te, non c'è niente da discutere, sei pieno di sciocchezze, "100% generalizzazione" )))))) Penso che tu non capisca nemmeno la differenza tra modello lineare e non lineare. E la "macchina di Reshetov" è lineare, non può nemmeno c XOR, è una stupida ottimizzazione dei coefficienti dell'iperpiano di divisione di qualche pseudo genetica, chiacchiere infantili...
Questo è tutto, non offendo i bambini, sono uno zio cattivo, malvagio, mi ha detto che Babbo Natale non esiste)))
Vi darò un modello con un livello di generalizzazione del 100%....
ti manderò un modello con un livello di generalizzazione del 100%....