Calcular a probabilidade de inversão - página 4

 
Maxim Romanov:
Sim, um passo na direção oposta. Isto é subir, depois a probabilidade de descer é de 40% e mais se descer, então a probabilidade de descer a próxima etapa é de 60%. Essa é a probabilidade de continuar a tendência da etapa anterior.

Ah, agora percebi que p muda cada passo, ou seja, é uma função de (número do passo, e/ou passo anterior, ou todos os passos anteriores). então obviamente concordo com tudo o que Alexey disse.

A única coisa é se tomarmos p com 10% de gradação, ou seja, de 0 a 10, haverá 10 etapas. Então, através de uma pesquisa estúpida de 10 a 10 potências, podemos determinar a distribuição mais apropriada para determinado passo, e então, se aplicarmos a descida por gradiente - mais precisa. Eu estou certo?

 
Maxim Romanov:
OK, obrigado, vou tentar quando o fim de semana terminar.
O que você vai tentar, reduzir o erro? Na formulação da fórmula, seu problema é resolvido em uma linha na formulação geral, mesmo a comparação dos resultados com seu próprio experimento com k=0,65 é feita. Ou você não entendeu que p10^(1/10) é a solução?
 
Aleksey Nikolayev:

Por definição, a distribuição estacionária não deve mudar a cada passo. Neste caso, qualquer distribuição "se espalhará" a cada passo, aumentando a variância.

Esta é uma abordagem um pouco retrógrada. O conjunto de variantes admissíveis é definido com antecedência (-10,-8,...0...8,10), e as probabilidades de parar por 10 etapas exatamente em uma delas servem como probabilidades, cujas freqüências relativas são coletadas para 10000 realizações de uma variável aleatória. Portanto, a distribuição faz sentido e não há dispersão. O limite de freqüências relativas é tomado não para o crescimento ilimitado do número de passos, mas para o crescimento ilimitado do número de realizações desses 10 passos.

 
Vladimir:

Esta é uma abordagem um pouco retrógrada. O conjunto de variantes admissíveis é definido previamente (-10,-8,...0...8,10), e as probabilidades de parar exatamente em uma delas em 10 passos servem como probabilidades, cujas freqüências relativas são coletadas para 10.000 realizações de uma variável aleatória. Portanto, a distribuição faz sentido e não há dispersão. O limite de freqüências relativas é tomado não para o crescimento ilimitado do número de passos, mas para o crescimento ilimitado do número de realizações desses 10 passos.

De forma alguma. Esta é a abordagem usual para uma cadeia de Markov. Falta o fato de que, além da matriz de transição, o parâmetro determinante é a distribuição inicial - não tem que ser necessariamente o que o TC definiu - pontos (0,1) e (0,-1) com probabilidades de 0,5 cada um. Se existisse uma distribuição estacionária, então tomada como uma distribuição inicial, seria a mesma após a décima etapa como antes da primeira. Mas não existe tal distribuição estacionária para a cadeia em questão.

 
Aleksey Nikolayev:

De forma alguma. Esta é a abordagem usual para uma cadeia de Markov. Falta o fato de que, além da matriz de transição, o parâmetro determinante é a distribuição inicial - não tem que ser necessariamente o que o TC definiu - pontos (0,1) e (0,-1) com probabilidades de 0,5 cada um. Se existisse uma distribuição estacionária, então tomada como uma distribuição inicial, seria a mesma após a décima etapa como antes da primeira. Mas não existe tal distribuição estacionária para a cadeia em questão.

Desculpe, mas o problema é diferente. TC não está descobrindo a probabilidade de P(x) parar depois de um tempo indefinido para frente e para trás em um ponto pelo menos tão grande quanto x. Essa seria a formulação usual do problema. Ele analisa um histograma da distribuição, não do ponto de parada (estacionário), mas de uma das estatísticas possíveis do processo, localizada a 10 passos do ponto de partida 0. Estatísticas inusitadas, sim. Nem a média, nem a variância, nem a mediana, nem o quartil. A condição de independência da história (Markovian) certamente não é atendida, pois há claramente uma mudança de exatamente 1 em relação ao valor anterior. Não por nada Alexander_K2 aqui citou um artigo sobre processos não Markovianos"Shelepin L.A. Processos com memória como base para um novo paradigma na ciência" (ele cita a p. 10).

Se falarmos da mencionada distribuição P(x), a distribuição Gaussiana inicial (normal) seria estacionária (condicionalmente, apenas na forma, com valores constantes de diminuição a 0 e aumento da dispersão) a k=0,5. No segmento que se expande a cada passo. Não gostaria de justificá-lo aqui, o campo é muito longe - esquemas de diferença para equação de condutividade térmica.

 
Vladimir:

Desculpe, mas o problema é diferente. TC não está descobrindo a probabilidade de P(x) parar após uma viagem de ida e volta indefinidamente longa em um ponto pelo menos tão grande quanto x. Essa seria a formulação usual do problema. Ele analisa um histograma da distribuição, não do ponto de parada (estacionário), mas de uma das estatísticas possíveis do processo, localizada a 10 passos do ponto de partida 0. Estatísticas inusitadas, sim. Nem a média, nem a variância, nem a mediana, nem o quartil. A condição de independência da história (Markovian) certamente não é atendida, pois há claramente uma mudança de exatamente 1 em relação ao valor anterior. Não por nada Alexander_K2 aqui citou "Shelepin L.A. Processos com memória como base para um novo paradigma na ciência".

Se falarmos da mencionada distribuição P(x), a distribuição Gaussiana inicial (normal) seria estacionária (condicionalmente, apenas na forma, com valor decrescente constante a 0 e dispersão crescente) a k=0,5. No segmento que se expande a cada passo. Não gostaria de justificá-lo aqui, o campo é muito longe - esquemas de diferença para equação de condutividade térmica.

O problema usual com base nas cadeias Markov- a distribuição inicial no espaço estatal é dada e é preciso descobrir como ela mudará para um certo número de etapas. A analogia com a solução numérica de equações derivadas parciais é certamente visível, uma vez que a solução é construída sobre uma malha bidimensional.

Não entendo realmente qual é o problema de parar - o momento da parada é fixo e conhecido com antecedência.

A distribuição gaussiana não pode surgir aqui de forma alguma - o espaço e o tempo do estado são discretos.

Shelepin escreve bobagens. O Markovismo está aqui - ou eles falam de uma cadeia de segunda ordem, ou o espaço dos estados é construído a partir de vetores - assim fez o próprio Markov há mais de cem anos enquanto estudava os textos de Pushkin.

 
Aleksey Nikolayev:

O problema usual nas cadeias Markov é que a distribuição inicial no espaço estatal é dada e é preciso descobrir como ela irá mudar ao longo de um certo número de etapas. A analogia com a solução numérica de equações derivadas parciais é certamente visível, uma vez que a solução é construída sobre uma malha bidimensional.

Não entendo realmente qual é o problema de parar - o momento da parada é fixo e conhecido com antecedência.

A distribuição gaussiana não pode surgir aqui de forma alguma - o espaço e o tempo do estado são discretos.

Shelepin escreve bobagens. Há um caráter Markoviano aqui - ou eles falam de uma cadeia de segunda ordem, ou o espaço dos estados é construído a partir de vetores - isto foi feito pelo próprio Markov há mais de cem anos enquanto estudava os textos de Pushkin.

Não vou discutir sobre nomes, talvez tanto TC como Shelepin, e Alexander (e eu também) chamam incorretamente esse processo aleatório unidimensional com dependência explícita de cada valor sucessivo em relação ao anterior, não é Markovian. Que assim seja. E quanto à impossibilidade de distribuição gaussiana, como acontece, tenho uma excelente planilha por um longo tempo, onde ela é bem visível. Após 212 passos a partir do ponto 0, a probabilidade se estende até este:

Anexo o arquivo com a tabela. Lá apenas com k=0,5 somam as probabilidades do ponto de tempo acima para o ponto de tempo atual. Para provar em detalhes, repito, aqui não é necessário. A ilustração com a tabela de valores é suficiente.

Arquivos anexados:
 
Vladimir:

Não vou discutir sobre nomes, talvez tanto TC como Shelepin e Alexander (e eu também) chamem de forma incorreta que um processo aleatório unidimensional com dependência explícita de cada valor seguinte em relação ao anterior, não é Markovian. Que assim seja. E quanto à impossibilidade de distribuição gaussiana, como acontece, tenho uma excelente planilha por muito tempo, onde ela é claramente visível. Após 216 passos a partir do ponto 0, a probabilidade se estende até este:

Anexo o arquivo com a tabela. Lá apenas com k=0,5 somam as probabilidades do ponto de tempo acima para o ponto de tempo atual. Para provar em detalhes, repito, aqui não é necessário. A ilustração com a tabela de valores é suficiente.

Cada função em forma de sino é a densidade de uma distribuição normal? O que o impede, por exemplo, de ver a densidade da distribuição beta em sua ilustração?


 
Maxim Romanov:


Suspeito que esta linha não foi criada por acidente :)))

Lembro que, de alguma forma, você consegue reduzir a dupla distribuição gama de incrementos no mercado ao puro normal... E agora você está procurando uma resposta para a pergunta - o que vem a seguir!

Eu apoio Bas com seus conselhos - você precisa passar para as opções. O modelo Black-Scholes deve obviamente trabalhar com seus dados.

 
Aleksey Nikolayev:

Cada função em forma de sino é uma densidade de uma distribuição normal? O que o impede, por exemplo, de ver a densidade de uma distribuição beta em sua figura?


Nada impede que você veja a densidade da distribuição beta. Na foto, a propósito, o efeito de borda já é perceptível - à esquerda a probabilidade não diminui tão rápido, é a borda da mesa ali. À direita não é tão perceptível, mas a mesa ainda está delimitada. E a distribuição normal não tem limites. Assim como uma haste infinita, cujas peças transferem calor umas para as outras em vez de probabilidade (uma gota de calor quente vermelha que cai do eletrodo de um soldador sobre uma haste de reforço longo gera uma distribuição de temperatura Gaussiana a cada momento, com dispersão cada vez maior). Não vou provar isso aqui.