L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2496

 
Vladimir Baskakov #:
Quando inizierà l'applicazione pratica?

quando alzerete il culo e comincerete ad applicare... invece di terrorizzare questo thread (per l'ennesima volta) con segnali di scambio... - il mio mestiere non è il tuo mestiere!...il tuo studio non è il mio mal di testa... - applicate come volete e come ritenete opportuno...

 
JeeyCi #:

quando alzerai il culo dalla sedia e comincerai ad applicare... non a terrorizzare l'intera filiale (per l'ennesima volta) tormentandomi per i segnali commerciali... - il mio mestiere non è il tuo mestiere!...il tuo studio non è il mio mal di testa... - applicate come volete e come ritenete opportuno...

L'aggressione immotivata non suggerisce alcuna attuazione pratica, solo blabla
 
Vladimir Baskakov #:
... parla del fatto che ...

dice che tutto il tuo precedente trolling e la tua maleducazione risultano essere Reazioni e Conseguenze del non risponderti -- non porti nulla di costruttivo in cambio... e nessuno è obbligato a generare voci di mercato per voi (semplicemente perché non sapete fare altro che prendere i pusher e gli inadeguati)

 
JeeyCi #:

dice che tutto il tuo precedente trolling e la tua maleducazione risultano essere Reazioni e Conseguenze del non risponderti -- non porti nulla di costruttivo al tavolo in cambio... E nessuno è obbligato a generare voci di mercato per voi (semplicemente perché non sapete fare altro che spingere, implorare e inadeguatezza)

Sono possibili esempi?
 
Vladimir Baskakov #:
Esempi sono possibili?

e non puoi prendere il mio tempo per te stesso... sei 0 sul ramo (vedi precedente ~3000 pp)

 
JeeyCi #:

e non c'è modo di avere il mio tempo per te... sei 0 sul ramo

Capisco, nessun esempio
 
Vladimir Baskakov #:
Quando inizierà l'applicazione pratica?
già iniziato
Интеграция прогнозов нейросети в MetaTrader 5
Интеграция прогнозов нейросети в MetaTrader 5
  • www.mql5.com
⚠️  Файлы обновились 08.11.21, текущая версия 1.4        Что нового:        1. Качество прогноза по EURUSD поднялось до 63%, по BTCUSD
 
JeeyCi #:

a proposito di tensorflow.keras (come Evgeny Dyuka ha) - poi

SKLearn sembra più interessante - Interpretazione dei risultati dell'apprendimento automatico (forse la libreria non è molto buona, ma la logica di valutazione è data)

p.s.

non hai attaccato...

Sono d'accordo che la classifica delle caratteristiche che diamo in pasto al NS è interessante, ma non più di questo. Cosa otteniamo come output? Se prendiamo come assioma (o postulato) l'affermazione che il prezzo corrente contiene tutto, allora qualsiasi segno è importante, non importa quale posto occupa nella classifica, soprattutto perché non ce ne sono molti e posso classificarli senza SKLearn. O spiega se mi sono perso qualcosa. Solo in modo più semplice e poi mi sono seduto con il tuo prossimo messaggio per 15 minuti, che cosa sarebbe arrivare all'essenza di ciò che è dichiarato))))
 
JeeyCi #:

alla logica ... che NS è usato quando è necessario aggirare la mancanza di una formula che descriva la dipendenza di un tratto da un fattore... la ponderazione è usata... ma prima e dopo NS, l'elaborazione statistica standard/classica è in vigore... per esempio avendo solo PDF=F'(X)=dF(x)/dx (anche se non abbiamo bisogno di CDF, poiché tutte le conclusioni dell'analisi della popolazione sono fatte da PDF) e avendo dati volatili - prima di tutto ho bisogno di portare le distribuzioni all'uniformità per la possibilità della loro analisi congiunta - e qui la ponderazione è utile (non ambisco alla matematica qui)... ma l'analisi stessa non ha nulla a che fare con NS, né le sue conclusioni ad essa (ns)... anche se tale stima può essere rozza, ma la statica classica è anche imperfetta (per esempio l'uso dei logaritmi degli incrementi introduce già di per sé la tendenza nelle conclusioni - un difetto puramente matematico)... infatti ogni modello ha i suoi presupposti...

I partecipanti al mercato NON aspettano le previsioni, ma valutano il rischio e la volatilità e prendono le loro decisioni di trading (e di copertura) in base a questo... è solo che ci sono 2 fattori variabili in questa analisi - volatilità e finestra temporale - e NS aiuta a portare i campioni in uniformità (ma si può anche usare GARCH) in modo che possano essere analizzati insieme in un unico modello statistico e aiuta a determinare l'orizzonte... In quei momenti, quando non c'è una formula matematica, che non serve (tutto cambia in questo mondo)... ma ponderando, ponderando e ponderando ancora (per il gusto di comprimere qualche regressione) - per fare un'analisi congiunta in un modello statistico, e preferibilmente senza rumore o almeno con la sua minimizzazione...

La logica di inferenza bayesiana per la gaussiana vale la pena di tenere a mente...

La cosa principale, suppongo, è costruire una tale architettura NS, che quando gli strati neuronali passano sulla via dell'uscita, la dispersione non aumenta... imho (perché accumularla, se è disponibile così com'è, è una domanda retorica)... e poi la logica classica della statistica... e anche nella storia molto profonda non ci sono abbastanza campioni per analizzare qualitativamente i momenti robusti (tutto accade nella vita)... Immagino che anche nel modello di classificazione di Mihail Marchukajtes i valori anomali possano accadere... (dobbiamo pensare, come dovrebbe comportarsi il sequenziatore con loro?)

finora il mio imho è ... Guarderò anche import scipy.stats come stats

p.s.

grazie per il link

Sono un po' confuso dalla tua prossima affermazione " NS aiuta a portare i campioni all'uniformità". Com'è?

Inoltre - "la cosa principale è costruire un'architettura del NS tale che la varianza non aumenti quando gli strati di neuroni passano sulla via dell'uscita ". Ho una domanda, cosa intende con questo, più dettagli e più concreti. Suppongo solo che ci sia un senso comune che non riesco ad afferrare. A proposito, se volete evitare la proliferazione di idee, portiamola su un conto personale, sarei anche felice di condividere e sentire le vostre opinioni. Ho alcuni pensieri sul fatto che non è il NS che non ci dà un risultato affidabile e non possiamo vedere la foresta per gli alberi. Qualche idea (ed esperimenti con codice di conseguenza) su come questo possa essere aggirato.

 
eccocom #:
. O spiegare se mi sono perso qualcosa. Ho dovuto semplificare, perché mi ci sono voluti circa 15 minuti per arrivare alla fine del tuo messaggio) ))

Jason Brownlee (autore di Deep Learning With Python e Statistical Methods for Machine Learning) -

- I 3 errori commessi dai principianti:

1. I praticanti non conoscono le statistiche
2. I praticanti studiano le statistiche sbagliate
3. I praticanti studiano le statistiche nel modo sbagliato

eccocom #:
allora tutti gli attributi sono importanti, non importa quale posto potrebbero occupare nella classifica, soprattutto perché non ce ne sono molti e posso classificarli in ordine di importanza senza SKLearn.

Attributi diversi diventano importanti in condizioni diverse... ma se sei sicuro di poterli classificare correttamente in quantità di moto, allora sei AI (non so quale precisione e quale errore)...

cosa inserire - decidi da solo, fai dei test, non dimenticare di controllare le tue ipotesi (il test t di Student è nella classe di statistica del modulo scipy) ... in generale, neuronki è uno strumento comodo per superare le difficoltà di lavorare con grandi campioni in statistica, ma non sostituisce la logica statistica, ma la implementa... compresa la comprensione che il campione deve essere rappresentativo, e non dal soffitto (compreso il numero! e la qualità [eterogeneità] dei campioni)... qualcosa del genere