Dalla teoria alla pratica - pagina 106

 
Nikolay Demko:

Non sto parlando della distribuzione ma del processo stesso, è casuale, non c'è sicuramente uno schema.

Accidenti, Nikolai, sei tu che rispondi alle tue stesse domande. Stiamo cercando di farne un modello e di ridurre tutta questa robaccia a un semplice flusso. E quello che ci resta di tale conversione non sarà il più semplice, certo, ma è molto più facile da esaminare. È una specie di filtro, un ottimo filtro tick-flow.
 
Alexander_K2:
Uhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhh..... Accidenti, Nikolai, sei tu che rispondi alle tue stesse domande. Stiamo cercando di farne un modello e di ridurre tutta questa robaccia a un semplice flusso. E quello che ci resta di tale conversione non sarà il più semplice, certo, ma è molto più facile da esaminare. È una specie di filtro, un ottimo filtro tick-flow.

Quindi stai dicendo che se misuriamo una serie con un centinaio di filtri di questo tipo, allora la casualità si annullerà a vicenda ed emergerà un modello?

 
Nikolay Demko:

Quindi stai dicendo che se misuriamo una serie con centinaia di questi filtri, allora la casualità si annullerà a vicenda e la regolarità verrà fuori?

Wow! Nikolai, stai pensando in modo ancora più astratto di me... Beh, prova... È meglio che me ne vada, non sono a mio agio con questa scala di pensiero...

Dov'èVladimir? Tra le braccia appiccicosedell'indimenticabile SanSanych, credo... Beh, anch'io!

Sinceramente,

Alexander_K e il gatto di Schrodinger nelle vicinanze :)))))))))))))

 
ILNUR777:
Sembra che si sia appena scontrato con la volatilità intraday associata alle specifiche della sessione. E sta appianando la situazione nel tempo. Pensa di rendere lineari le dimensioni dei passi se prende dal flusso delle zecche un intervallo di tempo più lungo di notte e uno più piccolo di giorno. Così, cambiando la distribuzione del tempo in tick, raccoglie ciò di cui ha bisogno. Il che finirà per rafforzare alcune estremità locali e indebolire le altre. Avendo messo i prezzi più significativi con una ponderazione maggiore, applicherà loro una media esponenziale in futuro.

La sua formula non vede il sessionalismo, e la distribuzione esponenziale non aiuta. Se avesse tassi di ricezione dipendenti dal tempo usando una funzione di tabella, allora sì.

Sono intervalli puramente casuali.

 

è un filtro da informazioni normali)))
sovrapporre gli intervalli di mercato con i propri intervalli))

 
Alexander_K2:

!!!!!!!!!!!!!

1. E io sostengo che è utile. Se prendete gli incrementi per la stessa coppia di valute in un campione enorme (almeno 1.000.000 di incrementi), per diversi periodi di tempo, vedrete che i parametri della distribuzione degli incrementi non cambiano dalla parola "affatto".

2. La distribuzione di Cauchy come tipo esiste, ma in Forex no.

3. !!!!!!!!!!!!!! Sì, hai ragione - questo è sicuramente un argomento per una tesi di dottorato. Guarda, l'equazione stessa è ovviamente per il tempo continuo, ma numericamente la risolviamo con metodi alle differenze finite con tempo discreto. No?

PS Stiamo parlando di incrementi tra le quotazioni in tick, non tra i prezzi OPEN o CLOSE o simili.

1) È chiaro che se si aggiunge quasi qualsiasi campione di 1000 incrementi a un milione di campioni, i cambiamenti non si noteranno. Ma ciò di cui abbiamo bisogno è qualcos'altro - che entrambi questi campioni siano coerenti (equamente distribuiti).

Inoltre, se parliamo di dipendenza degli incrementi, per studiare la struttura di questa dipendenza dovremo studiare le distribuzioni congiunte degli incrementi in un modo o nell'altro (non saranno più uguali ai prodotti di quelli univariati). Così facendo, ci convinceremo rapidamente che un milione non è poi così tanto.

3) Dobbiamo prima assicurarci che la soluzione esista. Per esempio, possiamo generare un campione usando una distribuzione di Cauchy e calcolare la sua media, ma questo non è un motivo per assumere che abbia un'aspettativa.

 

Una domanda su un argomento astratto. Supponiamo che ci sia un campione di 15.000 unità (diciamo la popolazione generale). Di quante unità dovrebbe essere composta la popolazione campione per mantenere le proprietà della popolazione generale, e quale metodo dovrebbe essere usato per raccogliere la popolazione campione?

 
Dennis Kirichenko:

Una domanda su un argomento astratto. Supponiamo che ci sia un campione di 15.000 unità (diciamo la popolazione generale). Di quante unità dovrebbe consistere il quadro di campionamento per mantenere le proprietà del quadro generale, e qual è il metodo per raccogliere questo quadro di campionamento?


No, devo rispondere a Denis, quindi vengo di nuovo davanti come un tappeto.

Si calcola la varianza di una data popolazione generale. E con una data precisione, cioè la probabilità di fiducia da questa varianza, si calcola la dimensione del campione usando la formulaN=(Z^2)*(S/E)^2 dove

Z - quantile della distribuzione della popolazione generale

S - deviazione standard

E - precisione di misura

E il metodo è semplice come un avvio - il campione deve essere casuale, cioè usare un generatore di numeri casuali.

 
Alexander_K2:
È un po' complicato, vero? È MOLTO facile a Wissim. :)))))))))))))))))
E continuavo a pensare - cos'è questa pubblicità delle meraviglie? Ti do credito per il PR, ma perché tutto questo disturbo? Anche se gli "esploratori" locali sono abbastanza buoni - hanno abbastanza giocattoli per altri dieci anni.
 
bas:
La moneta è il benchmark, il punto di riferimento di base. Un processo senza memoria, sul quale è impossibile per definizione fare soldi. E se qualcuno sostiene che "forse si può, si dovrebbe costruire un modello in VisSim e vedere", allora non capisce i fondamenti più elementari.

Cosa ti fa pensare che sia impossibile vincere? La moneta è un processo sul quale si può vincere, e anche all'infinito. Ma si può anche perdere.

Quindi, siete voi che non capite questi fondamenti molto basilari. Né lo fanno quelli che hanno una visione simile alla sua.