L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2496
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Quando inizierà l'applicazione pratica?
quando alzerete il culo e comincerete ad applicare... invece di terrorizzare questo thread (per l'ennesima volta) con segnali di scambio... - il mio mestiere non è il tuo mestiere!...il tuo studio non è il mio mal di testa... - applicate come volete e come ritenete opportuno...
quando alzerai il culo dalla sedia e comincerai ad applicare... non a terrorizzare l'intera filiale (per l'ennesima volta) tormentandomi per i segnali commerciali... - il mio mestiere non è il tuo mestiere!...il tuo studio non è il mio mal di testa... - applicate come volete e come ritenete opportuno...
... parla del fatto che ...
dice che tutto il tuo precedente trolling e la tua maleducazione risultano essere Reazioni e Conseguenze del non risponderti -- non porti nulla di costruttivo in cambio... e nessuno è obbligato a generare voci di mercato per voi (semplicemente perché non sapete fare altro che prendere i pusher e gli inadeguati)
dice che tutto il tuo precedente trolling e la tua maleducazione risultano essere Reazioni e Conseguenze del non risponderti -- non porti nulla di costruttivo al tavolo in cambio... E nessuno è obbligato a generare voci di mercato per voi (semplicemente perché non sapete fare altro che spingere, implorare e inadeguatezza)
Esempi sono possibili?
e non puoi prendere il mio tempo per te stesso... sei 0 sul ramo (vedi precedente ~3000 pp)
e non c'è modo di avere il mio tempo per te... sei 0 sul ramo
Quando inizierà l'applicazione pratica?
a proposito di tensorflow.keras (come Evgeny Dyuka ha) - poi
SKLearn sembra più interessante - Interpretazione dei risultati dell'apprendimento automatico (forse la libreria non è molto buona, ma la logica di valutazione è data)
p.s.
non hai attaccato...
alla logica ... che NS è usato quando è necessario aggirare la mancanza di una formula che descriva la dipendenza di un tratto da un fattore... la ponderazione è usata... ma prima e dopo NS, l'elaborazione statistica standard/classica è in vigore... per esempio avendo solo PDF=F'(X)=dF(x)/dx (anche se non abbiamo bisogno di CDF, poiché tutte le conclusioni dell'analisi della popolazione sono fatte da PDF) e avendo dati volatili - prima di tutto ho bisogno di portare le distribuzioni all'uniformità per la possibilità della loro analisi congiunta - e qui la ponderazione è utile (non ambisco alla matematica qui)... ma l'analisi stessa non ha nulla a che fare con NS, né le sue conclusioni ad essa (ns)... anche se tale stima può essere rozza, ma la statica classica è anche imperfetta (per esempio l'uso dei logaritmi degli incrementi introduce già di per sé la tendenza nelle conclusioni - un difetto puramente matematico)... infatti ogni modello ha i suoi presupposti...
I partecipanti al mercato NON aspettano le previsioni, ma valutano il rischio e la volatilità e prendono le loro decisioni di trading (e di copertura) in base a questo... è solo che ci sono 2 fattori variabili in questa analisi - volatilità e finestra temporale - e NS aiuta a portare i campioni in uniformità (ma si può anche usare GARCH) in modo che possano essere analizzati insieme in un unico modello statistico e aiuta a determinare l'orizzonte... In quei momenti, quando non c'è una formula matematica, che non serve (tutto cambia in questo mondo)... ma ponderando, ponderando e ponderando ancora (per il gusto di comprimere qualche regressione) - per fare un'analisi congiunta in un modello statistico, e preferibilmente senza rumore o almeno con la sua minimizzazione...
La logica di inferenza bayesiana per la gaussiana vale la pena di tenere a mente...
La cosa principale, suppongo, è costruire una tale architettura NS, che quando gli strati neuronali passano sulla via dell'uscita, la dispersione non aumenta... imho (perché accumularla, se è disponibile così com'è, è una domanda retorica)... e poi la logica classica della statistica... e anche nella storia molto profonda non ci sono abbastanza campioni per analizzare qualitativamente i momenti robusti (tutto accade nella vita)... Immagino che anche nel modello di classificazione di Mihail Marchukajtes i valori anomali possano accadere... (dobbiamo pensare, come dovrebbe comportarsi il sequenziatore con loro?)
finora il mio imho è ... Guarderò anche import scipy.stats come stats
p.s.
grazie per il link
Sono un po' confuso dalla tua prossima affermazione " NS aiuta a portare i campioni all'uniformità". Com'è?
Inoltre - "la cosa principale è costruire un'architettura del NS tale che la varianza non aumenti quando gli strati di neuroni passano sulla via dell'uscita ". Ho una domanda, cosa intende con questo, più dettagli e più concreti. Suppongo solo che ci sia un senso comune che non riesco ad afferrare. A proposito, se volete evitare la proliferazione di idee, portiamola su un conto personale, sarei anche felice di condividere e sentire le vostre opinioni. Ho alcuni pensieri sul fatto che non è il NS che non ci dà un risultato affidabile e non possiamo vedere la foresta per gli alberi. Qualche idea (ed esperimenti con codice di conseguenza) su come questo possa essere aggirato.
. O spiegare se mi sono perso qualcosa. Ho dovuto semplificare, perché mi ci sono voluti circa 15 minuti per arrivare alla fine del tuo messaggio) ))
Jason Brownlee (autore di Deep Learning With Python e Statistical Methods for Machine Learning) -
- I 3 errori commessi dai principianti:
1. I praticanti non conoscono le statistiche
2. I praticanti studiano le statistiche sbagliate
3. I praticanti studiano le statistiche nel modo sbagliato
allora tutti gli attributi sono importanti, non importa quale posto potrebbero occupare nella classifica, soprattutto perché non ce ne sono molti e posso classificarli in ordine di importanza senza SKLearn.
Attributi diversi diventano importanti in condizioni diverse... ma se sei sicuro di poterli classificare correttamente in quantità di moto, allora sei AI (non so quale precisione e quale errore)...
cosa inserire - decidi da solo, fai dei test, non dimenticare di controllare le tue ipotesi (il test t di Student è nella classe di statistica del modulo scipy) ... in generale, neuronki è uno strumento comodo per superare le difficoltà di lavorare con grandi campioni in statistica, ma non sostituisce la logica statistica, ma la implementa... compresa la comprensione che il campione deve essere rappresentativo, e non dal soffitto (compreso il numero! e la qualità [eterogeneità] dei campioni)... qualcosa del genere