Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Alexei, faccio la prima domanda: perché
1) Impatto costante, che è indipendente dal prezzo dell'azione (impatto Alpha),
2) un impatto che è proporzionale al prezzo dell'azione (impatto Beta),
3) Proporzionale al derivato del prezzo dell'azione (impatto Gamma)
4) proporzionale al quadrato del prezzo dell'azione (introducendo la non linearità) (impatto Delta).
Se
solo l'"Esterno" influenza l'"Azione" e non viceversa
? Capisco che si può ridurre all'equivalente, ma non è più logico rappresentare inizialmente la risposta per gradi di impatto piuttosto che il contrario?
Il criterio, a mio parere, dovrebbe essere composito e considerare simultaneamente i seguenti fattori (per esempio tramite una funzione di penalità)
- tempo di correlazione dei residui del modello -> min
- la differenza della distribuzione dei residui da quella normale -> min
- norma del vettore dei residui -> min
- numero di parametri del modello che non convergono a zero -> min
Questo è per l'inoculazione, senza considerare il modello di ingresso, che romperò presto)
... senza prendere in considerazione il modello del segnale d'ingresso, che presenterò presto)
Involontariamente, mi viene in mente una storia così famosa. Quando Laplace presentò a Napoleone una copia della sua "Meccanica Celeste", l'imperatore osservò: "Monsieur Laplace, si dice che lei abbia scritto questo grande libro sul sistema del mondo, senza menzionare una volta il Creatore". Al che Laplace avrebbe risposto: "Non avevo bisogno di questa ipotesi. La natura ha sostituito Dio.
;)
"Non avevo bisogno di questa ipotesi. La natura ha sostituito Dio.
Il criterio, a mio avviso, dovrebbe essere composito e prendere in considerazione i seguenti fattori simultaneamente (per esempio tramite una funzione di penalizzazione):
- tempo di correlazione dei residui del modello -> min
- la differenza della distribuzione dei residui da quella normale -> min
- norma del vettore dei residui -> min
- numero di parametri del modello che non convergono a zero -> min
Questo è per l'inoculazione, senza considerare il modello di ingresso, che sto per rompere)
Si possono trovare molti criteri diversi, e molto diversi. Ma tale molteplicità di criteri, di regola, non porta al risultato desiderato a causa della loro incoerenza.
Критерий, я так считаю, должен быть составной и учитывать одновременно следующие факторы (например, с помощью штрафной функции):
- время корреляции остатков модели -> min
- отличие распределения остатков от нормального -> min
- норма вектора остатков -> min
- количество параметров модели, не обращающихся в нуль -> min
Это для затравки, без учета модели входного сигнала, которой я скоро присутствующим плешь проем)
forse più semplice - un errore è una perdita, una previsione corretta è un guadagno. Stimiamo le entrate/perdite. Cioè, per esempio, PF. Cioè il criterio di ottimizzazione PF->max
Ci sono molti criteri diversi che possono essere concepiti. Ma questa molteplicità di criteri di solito non porta al risultato desiderato a causa della loro incoerenza.
Tutto è importante qui: i primi due punti richiedono di portare i residui più vicini al GSR - significa che il modello è adeguato; il terzo punto è chiaro da solo, l'errore dovrebbe essere il più piccolo possibile; il quarto punto - l'eccessiva complicazione del modello odora di instabilità e di adattamento e molto probabilmente influenzerà la qualità della previsione. Non vedo contraddizioni, devi solo scegliere correttamente i pesi di importanza per ogni componente.
Secondo me, nessuno dei criteri che hai elencato
- tempo di correlazione dei residui del modello -> min
- differenza della distribuzione dei residui dalla distribuzione normale -> min
- norma del vettore dei residui -> min
- il numero di parametri del modello che non convergono a zero -> min
non è né necessario né utile dal punto di vista dell'adattamento del modello.
E certamente non il punto 2, che richiede un adattamento a una distribuzione normale. Questo è già, perdonatemi, un'assurdità.
forse più semplice - un errore è una perdita, una previsione corretta è un guadagno. Stimiamo le entrate/perdite. Cioè, per esempio, PF. Cioè il criterio di ottimizzazione PF->max
Possiamo farlo in questo modo, ma dovremmo anche pensare a come sintonizzare i parametri usando qualche algoritmo.
Ci sono 9000 algoritmi diversi, ma tutti hanno una cosa in comune in termini puramente matematici: per raggiungere l'optimum è necessario conoscere il gradiente della funzione da ottimizzare tramite parametri regolati. Naturalmente, si può usare PF come criterio e anche calcolare tutte le derivate in tempo reale (usando la differenziazione automatica non è così difficile). Ma c'è un problema: il valore del fattore di profilo dipende selvaggiamente dalla serie di prezzi stessa, che è nota per avere il carattere di un processo rumoroso. La fluttuazione di 1 sola candela di pochi punti può risultare in 1 affare in più o 1 affare mancante con un risultato imprevedibile, che avrebbe un effetto drammatico sul fattore di profitto (non dimenticate che dobbiamo ottimizzare la struttura del modello sul più breve intervallo di tempo possibile, perché inizialmente assumiamo che il modello abbia parametri variabili). Così il criterio è molto poco liscio e l'algoritmo di ottimizzazione può semplicemente bloccarsi in qualche optimum locale condizionato, ripeto, dalla semplice fluttuazione del prezzo.
La norma del vettore di errore (punto 3), d'altra parte, non ha un tale svantaggio: un cambiamento di 1 punto nel prezzo di 1 candela comporterà un cambiamento altrettanto insignificante nella funzione di penalità. Lo stesso vale per le voci 1 e 2, mentre la voce 4 è del tutto indipendente dal prezzo.
In breve, il criterio deve essere il più stabile possibile alle condizioni iniziali (che nel nostro caso è il campione di ottimizzazione), o l'algoritmo deve avere qualche controllo di globalità dell'ottimo trovato. Altrimenti invece dell'ottimizzazione avremo il caos.
E certamente non il punto 2, che richiede un adattamento a una distribuzione normale. Questa è, perdonatemi, una sciocchezza.
Qui ti contraddici già: se il processo è rappresentato come segnale+rumore, allora il residuo dovrebbe idealmente essere esattamente rumore termico, portando esattamente 0 informazioni. In generale, questa premessa è stata generalmente accettata per cinquant'anni: l'output della SBS (punti 1 e 2) <=> il modello descrive adeguatamente la componente deterministica.
E dimmi di più sul punto 3, da quando il minimo di errore è diventato inutile dal punto di vista dell'adattamento?