Il mercato è un sistema dinamico controllato. - pagina 59

 
Mathemat:

Alexei, faccio la prima domanda: perché

1) Impatto costante, che è indipendente dal prezzo dell'azione (impatto Alpha),
2) un impatto che è proporzionale al prezzo dell'azione (impatto Beta),
3) Proporzionale al derivato del prezzo dell'azione (impatto Gamma)
4) proporzionale al quadrato del prezzo dell'azione (introducendo la non linearità) (impatto Delta).

Se

solo l'"Esterno" influenza l'"Azione" e non viceversa

? Capisco che si può ridurre all'equivalente, ma non è più logico rappresentare inizialmente la risposta per gradi di impatto piuttosto che il contrario?

A proposito, la linearità della diffura del secondo ordine rende facile introdurre i concetti della meccanica classica - azione di quantità di moto e funzione di Lagrange (energia). Nell'ambito dell'invarianza delle influenze esterne, si può anche parlare di una certa parvenza della legge di conservazione dell'energia.
Ma qui sono fondamentalmente in disaccordo: in sostanza, il nostro sistema ricicla solo l'energia in entrata in energia in uscita per "annichilimento", scusate la terminologia frizzante. Nel momento in cui il venditore e l'acquirente si accordano su un accordo, una piccola parte dell'energia in entrata si dissipa dal sistema, lasciandosi dietro solo un aumento dell'entropia. E il flusso di energia attraverso il sistema, grossomodo i volumi di transazione, è una quantità tutt'altro che conservata, ma è ciò che permette al sistema di esistere.
 
avtomat:
2) Selezione del criterio di ottimizzazione. Questo criterio determina la gamma di frequenza operativa del modello.

Il criterio, a mio parere, dovrebbe essere composito e considerare simultaneamente i seguenti fattori (per esempio tramite una funzione di penalità)

- tempo di correlazione dei residui del modello -> min

- la differenza della distribuzione dei residui da quella normale -> min

- norma del vettore dei residui -> min

- numero di parametri del modello che non convergono a zero -> min

Questo è per l'inoculazione, senza considerare il modello di ingresso, che romperò presto)

 
alsu:

... senza prendere in considerazione il modello del segnale d'ingresso, che presenterò presto)


Involontariamente, mi viene in mente una storia così famosa. Quando Laplace presentò a Napoleone una copia della sua "Meccanica Celeste", l'imperatore osservò: "Monsieur Laplace, si dice che lei abbia scritto questo grande libro sul sistema del mondo, senza menzionare una volta il Creatore". Al che Laplace avrebbe risposto: "Non avevo bisogno di questa ipotesi. La natura ha sostituito Dio.

;)

 
avtomat:

"Non avevo bisogno di questa ipotesi. La natura ha sostituito Dio.

Tuttavia, solo centocinquant'anni dopo, l'ipotesi dovette essere rivista perché si scoprì che qualcuno stava "tirando i dadi ad ogni misurazione", come disse Albertuszka (anche se lui stesso non credette a questa "sciocchezza" fino alla sua morte).
 
alsu:

Il criterio, a mio avviso, dovrebbe essere composito e prendere in considerazione i seguenti fattori simultaneamente (per esempio tramite una funzione di penalizzazione):

- tempo di correlazione dei residui del modello -> min

- la differenza della distribuzione dei residui da quella normale -> min

- norma del vettore dei residui -> min

- numero di parametri del modello che non convergono a zero -> min

Questo è per l'inoculazione, senza considerare il modello di ingresso, che sto per rompere)


Si possono trovare molti criteri diversi, e molto diversi. Ma tale molteplicità di criteri, di regola, non porta al risultato desiderato a causa della loro incoerenza.
 
alsu:

Критерий, я так считаю, должен быть составной и учитывать одновременно следующие факторы (например, с помощью штрафной функции):

- время корреляции остатков модели -> min

- отличие распределения остатков от нормального -> min

- норма вектора остатков -> min

- количество параметров модели, не обращающихся в нуль -> min

Это для затравки, без учета модели входного сигнала, которой я скоро присутствующим плешь проем)


forse più semplice - un errore è una perdita, una previsione corretta è un guadagno. Stimiamo le entrate/perdite. Cioè, per esempio, PF. Cioè il criterio di ottimizzazione PF->max
 
avtomat:

Ci sono molti criteri diversi che possono essere concepiti. Ma questa molteplicità di criteri di solito non porta al risultato desiderato a causa della loro incoerenza.
Qui tutto è importante: i primi due punti richiedono di portare i residui più vicini al GSR - significa adeguatezza del modello; il terzo punto è chiaro da solo, l'errore dovrebbe essere il più piccolo possibile; quarto punto - l'eccessiva complicazione del modello puzza di instabilità e adattamento e molto probabilmente influenzerà la qualità della previsione. Non vedo contraddizioni, devi solo scegliere correttamente i pesi di importanza per ogni componente.
 
alsu:
Tutto è importante qui: i primi due punti richiedono di portare i residui più vicini al GSR - significa che il modello è adeguato; il terzo punto è chiaro da solo, l'errore dovrebbe essere il più piccolo possibile; il quarto punto - l'eccessiva complicazione del modello odora di instabilità e di adattamento e molto probabilmente influenzerà la qualità della previsione. Non vedo contraddizioni, devi solo scegliere correttamente i pesi di importanza per ogni componente.


Secondo me, nessuno dei criteri che hai elencato

- tempo di correlazione dei residui del modello -> min

- differenza della distribuzione dei residui dalla distribuzione normale -> min

- norma del vettore dei residui -> min

- il numero di parametri del modello che non convergono a zero -> min

non è né necessario né utile dal punto di vista dell'adattamento del modello.

E certamente non il punto 2, che richiede un adattamento a una distribuzione normale. Questo è già, perdonatemi, un'assurdità.

 
Avals:

forse più semplice - un errore è una perdita, una previsione corretta è un guadagno. Stimiamo le entrate/perdite. Cioè, per esempio, PF. Cioè il criterio di ottimizzazione PF->max

Possiamo farlo in questo modo, ma dovremmo anche pensare a come sintonizzare i parametri usando qualche algoritmo.

Ci sono 9000 algoritmi diversi, ma tutti hanno una cosa in comune in termini puramente matematici: per raggiungere l'optimum è necessario conoscere il gradiente della funzione da ottimizzare tramite parametri regolati. Naturalmente, si può usare PF come criterio e anche calcolare tutte le derivate in tempo reale (usando la differenziazione automatica non è così difficile). Ma c'è un problema: il valore del fattore di profilo dipende selvaggiamente dalla serie di prezzi stessa, che è nota per avere il carattere di un processo rumoroso. La fluttuazione di 1 sola candela di pochi punti può risultare in 1 affare in più o 1 affare mancante con un risultato imprevedibile, che avrebbe un effetto drammatico sul fattore di profitto (non dimenticate che dobbiamo ottimizzare la struttura del modello sul più breve intervallo di tempo possibile, perché inizialmente assumiamo che il modello abbia parametri variabili). Così il criterio è molto poco liscio e l'algoritmo di ottimizzazione può semplicemente bloccarsi in qualche optimum locale condizionato, ripeto, dalla semplice fluttuazione del prezzo.

La norma del vettore di errore (punto 3), d'altra parte, non ha un tale svantaggio: un cambiamento di 1 punto nel prezzo di 1 candela comporterà un cambiamento altrettanto insignificante nella funzione di penalità. Lo stesso vale per le voci 1 e 2, mentre la voce 4 è del tutto indipendente dal prezzo.


In breve, il criterio deve essere il più stabile possibile alle condizioni iniziali (che nel nostro caso è il campione di ottimizzazione), o l'algoritmo deve avere qualche controllo di globalità dell'ottimo trovato. Altrimenti invece dell'ottimizzazione avremo il caos.

 
avtomat:


E certamente non il punto 2, che richiede un adattamento a una distribuzione normale. Questa è, perdonatemi, una sciocchezza.

Qui ti contraddici già: se il processo è rappresentato come segnale+rumore, allora il residuo dovrebbe idealmente essere esattamente rumore termico, portando esattamente 0 informazioni. In generale, questa premessa è stata generalmente accettata per cinquant'anni: l'output della SBS (punti 1 e 2) <=> il modello descrive adeguatamente la componente deterministica.

E dimmi di più sul punto 3, da quando il minimo di errore è diventato inutile dal punto di vista dell'adattamento?