[Matematica pura, fisica, chimica, ecc.: problemi di allenamento del cervello non legati in alcun modo al commercio - pagina 386
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Vagabondaggio casuale
Oooh! Grazie mille. Finalmente qualcosa di intelligibile sull'argomento.
1. Il quadrato medio della distanza che un processo percorre in N passi è quello che è lo spread. Non dimentichiamo che il concetto di spread è stato introdotto da Hearst, che ha guardato la fuoriuscita del Nilo. Einstein, che considerava il moto browniano della particella, parlava del percorso che essa faceva dalla sua posizione di partenza. Queste sono tutte quantità fisiche. E stavo cercando una definizione, cioè il loro significato matematico. Ora la domanda è più chiara. La campata nel Nilo, il percorso della particella Broin, il guadagno massimo in una partita di aquila sono tutti lo stesso concetto come definito in questo link.
2 Anche lì, letteralmente in due righe, si ricava una formula (un caso speciale della formula di Hurst per la SB pura) da cui segue che per la SB pura con gli stessi incrementi di unità ad ogni passo il coefficiente nella formula di Hurst = 1. Questo è ciò che ho affermato e cercato di illustrare sulle mie dita a Nikolai nel suo thread. Dal punto di vista fisico è comprensibile: infatti questo coefficiente è necessario dove le quantità hanno dimensionalità.
3. Ora il significato di S nella formula R/S = c*(T^h) è anche più chiaro. Come è scritto ovunque, S è l'RMS. Io, a causa della mia stupidità, non riuscivo a capire la RMS di quale serie. Ora capisco - la serie di incrementi, ma non lo stesso SB. E il punto è proprio quello di normalizzare i gradienti per RMS, cioè una specie di ridurre i gradienti a +/- 1.
4. E alla fine, ho capito perché il calcolo dell'indice, che ho descritto nel mio ramo, non ha dato il valore 0,5 sulla serie di modelli sgenerati. L'ho calcolato per intervalli di tempo astronomico M1, M10, H1. E la media di tutti i dati. Ma ognuno degli identici intervalli astronomici aveva il suo numero di tick (cioè di passi del processo). Fare la media del numero di tick per adattarla alla formula di Hurst è del tutto contrario alla definizione. Ma ora si scopre non solo questo. Anche io stavo facendo la media dello spread. Avrei dovuto fare la media del quadrato dello spread e poi estrarre la radice da esso. Quindi ci sono stati due errori.
Bene, questo ha chiarito tutto. Dovrò rimediare di nuovo. :-)
E la domanda sulla derivazione teorica della formula per una data distribuzione SB può ora essere più sostanziale.
Ops. Se lo sapessi, non avresti dato il link :). Nell'immagine di Feynman tutto è disegnato, ebbene immaginate che queste siano zecche dentro una barra.
Prendiamo la traiettoria più alta e puntiforme. Per esso Open = 0, Low = -2, High = 3, Close = 2. D per esso è uguale a 2, cioè D = Close-Open. Riguardo a quello che ti ho scritto subito nel tuo topic (che Einstein ha fatto la sua formula per il Close-Open). E per Close-Open il coefficiente nel vostro approccio sarà davvero uguale a 1. Ma si prende High-Low, ed è uguale a 5 in questo caso. Significa che non è uguale a D e quindi il coefficiente non è uguale a 1. Capisco che tu voglia sostituire a tutti i costi lo spread con la deviazione finale. Ma poi sii così gentile da trovare un termine per Alto-Basso in modo che io possa dirti con parole tue che per questa quantità il coefficiente non sarà uguale a uno e la pendenza della semiretta dall'origine non sarà Hurst.
Ops. Se lo sapessi, non avresti dato il link :). Feynman ha un'immagine di tutto, immaginate che queste siano zecche dentro una barra.
Prendete la traiettoria più alta e puntiforme. Per esso Open = 0, Low = -2, High = 3, Close = 2. D per esso è uguale a 2, cioè D = Close-Open. Riguardo a ciò che ho scritto immediatamente nel tuo topic (che Einstein ha fatto la sua formula per il Close-Open). E per Close-Open il coefficiente nel vostro approccio sarà davvero uguale a 1. Ma si prende High-Low, ed è uguale a 5 in questo caso. Cioè, non è presto D e per questo motivo, il coefficiente non sarà uguale a 1. Capisco che tu voglia sostituire a tutti i costi lo spread con la deviazione finale. Ma poi sii così gentile da trovare un termine per Alto-Basso in modo che io possa dirti con parole tue che per quel valore il coefficiente non sarà uguale a uno e la pendenza del raggio dall'origine non sarà Hurst.
Sei migrato qui dai volumi di zecca, vero...
È lì che vi sareste esercitati.
:)
Albert stesso suggerisce che la plausibilità dell'HL in una barra dovrebbe essere stimata dal numero di zecche in essa!
;)
Nikolai, ti ho anche scritto che penso che la cosa del Close-Open sia sbagliata. E il fatto che lei abbia equiparato questa differenza a D è ancora più sbagliato. Capire la definizione di "il percorso preso dal processo" come questa semplice differenza contraddice la formulazione del problema in generale. Allora non c'è motivo di squadrarlo. Fai la media, ottieni zero e sei felice.
Pensate in termini di diffusione. Lì, il fenomeno stesso produce la media - un numero enorme di particelle (molecole) diffuse dal moto browniano. Il percorso che il processo ha preso è il confine di diffusione. Quale particella l'ha raggiunto in questo momento e quale particella l'ha raggiunto ed è già tornata al punto di partenza non gioca il ruolo.
In generale, ricalcolerò tutto da capo, poi sarà possibile parlare più ragionevolmente.
Alexei, conosco la distribuzione della serie. Voglio conoscere la diffusione degli estremi. Questo è quello che hai detto tu. Come?
La probabilità di raggiungere gli estremi è un po' teorizzata come un problema di SB con uno schermo di assorbimento. Cioè in t a è uno schermo, una volta raggiunto la particella smette di muoversi e dobbiamo trovare la probabilità che nel tempo t la raggiunga /go?link=https://dic.academic.ru/dic.nsf/enc_mathematics/414/%25D0%2591%25D0%2595%25D0%25A0%25D0%259D%25D0%25A3%25D0%259B%25D0%259B%25D0%2598
P.S. E la formula di Einstein si riferisce in realtà alla deviazione media di una particella attraverso il tempo T, cioè analoga a quella di "chiudere-aprire".
Pensatelo in termini di diffusione. Lì, il fenomeno stesso produce una media - un numero enorme di particelle (molecole) sparse dal moto browniano. Il percorso che il processo ha preso è il confine di diffusione. Quale particella l'ha raggiunto in quel momento e quale particella l'ha raggiunto ed è già tornata al punto di partenza non ha alcun ruolo.
Di nuovo la scanalatura...
Se si tratta di limiti. E anche il delta del Nilo è ben approssimato.
:)
la probabilità di raggiungere gli estremi sembra essere teorizzata come un problema di SB con uno schermo assorbente. Cioè in t a è uno schermo, al raggiungimento del quale la particella smette di muoversi e si dovrebbe trovare la probabilità che nel tempo t lo raggiunga /go?link=https://dic.academic.ru/dic.nsf/enc_mathematics/414/%25D0%2591%25D0%2595%25D0%25A0%25D0%259D%25D0%25A3%25D0%259B%25D0%259B%25D0%2598
P.S. E la formula di Einstein riguarda in realtà la deflessione media di una particella attraverso il tempo T, cioè analoga a quella di "chiudere-aprire".
Una tavola Galton con trappole di bitume sui lati?
da quale fila?
Capisco...
;)
Nessuna sostituzione finora.
Lasciate che vi ricordi la logica del ragionamento. Si trova un certo indicatore che dovrebbe caratterizzare in qualche modo il grado di casualità del mercato al momento. Dobbiamo scoprire quali valori di questo indicatore corrisponderanno al mercato di tendenza, quali saranno piatti e quali saranno imprevedibili.
Capisco.
Candido:
In fisica, questo si chiama calibrazione. Dovremmo essere in grado di calibrare su serie generate artificialmente con determinate proprietà.Io, per esempio, credo che sia più veloce e in un certo senso più affidabile generare serie necessarie e studiare il comportamento della caratteristica su di esse. E dovete iniziare con serie affettate da parti adeguate di serie di prezzi reali.
Una volta ho suggerito di generare file con le caratteristiche necessarie, e su di essi studiare la sopravvivenza di TC, compreso il comportamento di NN. Alcuni membri del forum erano contrari a questo approccio, ma non c'erano argomenti specifici contro di esso. C'era chi era d'accordo con me.
Ma col passare del tempo, sono sempre più convinto che l'approccio era sbagliato.
Candido:
Beh, noi (beh, almeno io) facciamo del nostro meglio per aiutarlo in questo difficile compito.Anch'io ci provo, al meglio delle mie possibilità. Forse non con formule, ma con idee e considerazioni.
Lasciatemi provare a fare un'analogia.
Scrittori. Blok, Pushkin, Tolstoj, Lem, Shackley. Ognuno nella sua unicità e il lettore può facilmente identificare non solo il genere di lavoro, ma può anche identificare l'autore (questo è una sorta di indicatore, un parametro, unico per ogni autore). Tuttavia, statisticamente, qualsiasi testo sufficientemente grande contiene un numero costante di ciascuna delle lettere dell'alfabeto. È una caratteristica statistica della lingua in cui l'opera è scritta. Se si generano lettere a caso, ma con caratteristiche statistiche preimpostate, si può ottenere un testo con la giusta quantità di informazioni. Ma questo testo non avrebbe alcun significato, e ancor più impossibile (perché non c'è) identificare l'autore dell'"opera".
E gli sforzi di Yurixx sono proprio quelli di trovare questo indicatore che permette di identificare senza ambiguità l'autore dell'opera a partire dagli indicatori statistici del testo.
Ho avuto questi pensieri: raccogliere statistiche per diversi anni per tre mesi - ottobre, novembre e dicembre al fine di generare serie con le stesse caratteristiche statistiche, tenendo conto delle dinamiche di cambiamento delle caratteristiche da anni, e di ottimizzare Expert Advisor su questa serie generata, che avrebbe poi esposto Expert Advisor su campionato....
Ma in questo momento, mi piace piuttosto l'idea di raccogliere le storie di questi tre mesi, normalizzare per una volatilità, incollare questi pezzi in una serie e andare avanti.
Gli svantaggi di entrambi gli approcci sono ovvi. Ma il secondo è ancora più promettente.
Nikolai, ti ho anche scritto che penso che la cosa del Close-Open sia sbagliata. E il fatto che lei abbia equiparato questa differenza a D è ancora più sbagliato. Capire la definizione di "il percorso preso dal processo" come questa semplice differenza contraddice la formulazione del problema in generale. Allora non c'è motivo di squadrarlo. Fai la media, ottieni zero e sei felice.
Ok, questa è la mia ultima osservazione su questo punto. Se non sei d'accordo, fai quello che vuoi, io starò zitto :)
Non l'ho equiparato io, l'ha fatto Feynman. Ho legato tutto alla sua foto. Feynman ha scritto: "Dovremmo aspettarci che non ci sia affatto una progressione media, dal momento che abbiamo la stessa probabilità di andare sia avanti che indietro. Tuttavia, si sente che con l'aumentare della N è sempre più probabile che vaghiamo sempre più lontano dal punto di partenza. Quindi la domanda sorge spontanea: qual è la distanza media assoluta, cioè qual è il valore medio di |D|? Tuttavia, è più conveniente trattare non con |D| ma con D2; " Hai un testo diverso al mio link?
E anche pensare perché Hearst ha indovinato di normalizzare al RMS, ma non ha indovinato di contare il grado per il raggio dall'origine. L'ha fatto, per regressione. Era un pazzo, è questo che sta dicendo?