Estatísticas de dependência entre aspas (teoria da informação, correlação e outros métodos de seleção de características) - página 19

 
Candid:

Você não precisa comentar, você precisa tentar responder minhas perguntas. Vou lhe contar um segredo - eles são projetados para que você entenda algo, tentando responder-lhes).

Eu li a discussão, a propósito, você quer seriamente discutir uma mistura de 17 páginas de moscas e costeletas?

Estou correto ao adivinhar o que vocês chamam os dois processos?

Eu não sei onde na página 17 você viu uma mistura de costeletas e moscas. Surgiu antes...

Quanto à compreensão - recomendo olhar a mesa de Alexey e responder - sob a suposição de qual distribuição teórica ela é construída?

;)

 

e os dois processos são teóricos (a hipótese nula) e reais.

Você teria que saber.

 
joo:

Não entendo nem a metade das palavras neste tópico, mas até eu entendi que as distribuições não têm nada a ver com isso.

A distribuição de um processo, no qual há dependências entre contas individuais, não tem que ser uniforme ou normal. Isso é óbvio.

Exemplo: os poemas de Pushkin. Se o texto menciona as palavras "carvalho" e "corrente", então, em algum lugar próximo a ela, há "gato". Esta relação entre as palavras nada tem a ver com a distribuição da palavra "tom", ou qualquer outra palavra, nos parágrafos.

Você sabe como é primitivo verificar a autenticidade da autoria?

É assim que pela freqüência das combinações "dub-chain-cat" a partir dos textos de "referência" e do verificado - chegar a uma conclusão.

Porque há sempre uma base de comparação.

Mas aqui eu não entendo o que está sendo comparado com o quê?

Onde está a freqüência teórica. Ou melhor, de quem é?

Talvez o Candidato tenha razão e nós só precisamos emigrar para a Grécia, e tudo se encaixará?

;)

 
avatara:

Eu não sei onde você viu uma mistura de costeletas e moscas na página 17. Estava lá antes...

Aqui está novamente o problema dos finais, 17 páginas transformadas na página 17. Quer reler essas 17 páginas para outros "typos" de percepção?
e os dois processos são teóricos (hipótese nula) e reais
Na verdade, meu primeiro post citou o iniciador do tópico, seria mais lógico supor que eu estava me referindo à sua versão em primeiro lugar. Especialmente porque ele, ao contrário de Alexey, o descreveu em grandes detalhes. Mas não tenho certeza de que a identificação de hipóteses com processos contribua para a clareza da apresentação.
Quanto à compreensão - eu recomendo olhar para a tabela Alexey, e responder - sob a suposição de qual distribuição teórica ela é construída?

Francamente falando - não sei. Eu me basearia em uma distribuição empírica.
 
avatara:

e os dois processos são teóricos (a hipótese nula) e reais.

Você deve saber.

Não, errado. Estou interpretando este critério. A propósito, tem as mesmas estatísticas. Aplica-se apenas a outras quantidades.

Agora, para as duas variáveis cuja independência está sendo testada. Na tabela de blocos que afixei, estes são os retornos de duas barras espaçadas 310 barras (309 barras entre elas). As estatísticas são verificadas em toda a população de tais pares de barras na história. Se existem 60000 barras na história, então existem 59690=60000-310 tais pares de barras.

A barra que está mais longe no passado é a fonte do S. Sua barra pareada mais próxima do presente é o receptor R. Os retornos S e R são os valores cuja independência é verificada. Mais precisamente, não os retornos em si, mas os números de quantis em que eles caem. Por que dividir por quantis foi explicado anteriormente: para fazer funcionar o qui-quadrado (freqüências de pelo menos 10).

Sobre o boi como a principal fonte do fenômeno - vou pensar sobre isso. Algo não é tão simples aqui... Mas a sugestão do Candidato faz sentido testá-lo (remover o boi).

 

Eu dei uma rápida olhada no artigo do autor. Tenho uma suspeita de que o autor não encontrou uma correlação entre as variáveis barra atual <-> barra passada, mas apenas o fato de agrupar a volatilidade. É claro que, mesmo nessa base, o gráfico é interessante, pois uma correlação confiante de volatilidade de até 50-60 desfasamentos é algo novo. Naturalmente, ao misturar os dados usando o método Monte Carlo, o agrupamento se decompõe, o que era evidente nos gráficos.

Para entender o que foi encontrado, é necessário testar a fórmula proposta em distribuições não normais e obviamente independentes, especialmente no clássico GARCH(1,1) ou melhor ainda, no GARCH(3,3); se a dependência também pode ser encontrada, a fórmula não dá nada de novo, ela simplesmente define um caso especial do martingale de uma maneira a mais.

Se o autor desejar, posso fornecer-lhe retornados sintéticos de GARCH.

 

Obrigado. Dê-me alguns dados artificiais, eu os testarei no fim de semana.

E quanto à fórmula, sim, não há nada de particularmente maravilhoso nela, é a análise estocástica a partir de um ângulo diferente.

Com relação à volatilidade, muito já foi dito aqui e eu concordo com as opiniões. Mas o número de defasagens nas quais as variáveis independentes carregam informações de volatilidade para a barra zero é realmente claramente indicado. E a profundidade do mergulho de defasagem é diferente para diferentes instrumentos financeiros, mantendo a relevância da informação.

 
Geralmente penso que se você não pode prever retornos com base em retornos passados, então há sempre, para mim pessoalmente, a possibilidade de voltar ao problema de selecionar variáveis independentes (vários indicadores) para a previsão. O tópico é chamado de seleção de características, e eu teria prazer em discutir outros métodos, tais como análise de componentes principais, usando NS com memória auto-associativa, análise de rede treinada (pesos), análise de cluster, qui-quadrado, há também o expoente Lipschitz (correção: constante). Em suma, pessoal, é um grande tema...
 
C-4: Claro que, mesmo com base nisso, o gráfico é interessante, pois a correlação confiante da volatilidade a 50-60 desfasamentos é algo novo.

Obrigado por notarem. Isso é o que é tão alarmante. Provavelmente, sim, a volatilidade explica uma parte significativa do fenômeno, mas não parece explicar tudo isso. E no relógio, essa correlação retrocede ainda mais... centenas barras profundas.

A propósito, há significativamente menos correlações nos dias do que no H4, que, por sua vez, têm muito menos correlações do que no H1.

 
Mathemat:

Obrigado por notarem. Isso é o que é tão alarmante. Provavelmente, sim, a volatilidade explica uma parte significativa do fenômeno, mas não parece explicar tudo isso. E, no relógio, essa correlação se estende ainda mais. centenas barras profundas.

A propósito, há significativamente menos correlações nos dias do que no H4, que, por sua vez, têm muito menos correlações do que no H1.


Se se trata de volatilidade novamente, então pode ser explicado muito bem por uma clara ciclicidade dependendo da hora do dia:

Você não precisa ser Einstein para notar, mesmo a olho nu, o agrupamento do boi por volta das 16h30. Portanto, em escalas intradiárias, tais "correlações" são, naturalmente, muito mais definidas. E, é claro, isto não nos dá nada de qualquer forma. Sabemos apenas que movimentos fortes ocorrem às 16h30 (como podemos ver no gráfico), causados por fluxos de volatilidade, mas ainda não sabemos a direção do movimento ou seus alvos.

Como prometi, estou colando um sintético - GARCH(1,1) com os parâmetros padrão oferecidos pelo MathLab: garchset('P',1,'Q',1,'C', 0,0001, 'K', 0,00005, 'GARCH', 0.8, 'ARCH', 0,1); não consegui fazer GARCH(3,3) ou até mais - conheço mal o programa e uma simples mudança de 'P',1,'Q',1 para 'P',3,'Q',3 não funcionou. A série contém 10 000 testes, o que eu acho que será o suficiente. Aqui está sua tabela de preços:

Também seria interessante gerar uma SB baseada em dados de volatilidade horária do mesmo EURUSD. Ele terá o mesmo caráter de volatilidade que em EURUSD, mas o próprio gráfico consistirá em 100% de ruído. Se ele detectar a dependência, significa que o método não é adequado para a previsão de preços, mas se não revelar a dependência, então testemunharemos o nascimento de um novo indicador, capaz de determinar se estamos lidando com sintéticos abstrusos sem sentido ou com o mercado real.

Arquivos anexados:
garch.zip  91 kb