Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Alexei, eu faço a primeira pergunta: por que
1) Impacto constante, que é independente do preço da ação (impacto Alfa),
2) um impacto que é proporcional ao preço da Ação (impacto Beta),
3) Proporcional ao derivativo do preço da ação (impacto Gamma)
4) proporcional ao quadrado do preço da ação (introduzindo a não-linearidade) (impacto Delta).
Se
somente o "Externo" influencia o "Compartilhar" e não o contrário
? Entendo que você pode reduzir para o equivalente, mas não é mais lógico representar inicialmente a resposta por graus de impacto em vez de o contrário?
O critério, em minha opinião, deve ser composto e considerar os seguintes fatores simultaneamente (por exemplo, por meio de uma função de penalidade)
- tempo de correlação residual do modelo -> min
- a diferença de distribuição dos resíduos em relação ao normal -> min
- norma do vetor residual -> min
- número de parâmetros do modelo não convergindo para zero -> min
Isto é para a inoculação, sem considerar o modelo de entrada, que em breve quebrarei)
... sem levar em conta o modelo do sinal de entrada, que em breve estarei presente)
Involuntariamente, vem à mente uma história tão famosa. Quando Laplace apresentou a Napoleão uma cópia de sua "Mecânica Celestial", o Imperador comentou: "Monsieur Laplace, eles dizem que você escreveu este grande livro sobre o sistema do mundo, sem mencionar uma vez o Criador". Ao que Laplace supostamente respondeu: "Eu não precisava desta hipótese". A natureza substituiu Deus.
;)
"Eu não precisava dessa hipótese. A natureza substituiu Deus.
O critério, creio, deve ser composto e levar em conta os seguintes fatores simultaneamente (por exemplo, por meio de uma função de penalidade):
- tempo de correlação residual do modelo -> min
- a diferença de distribuição dos resíduos em relação ao normal -> min
- norma do vetor residual -> min
- número de parâmetros do modelo não convergindo para zero -> min
Isto é para a inoculação, sem considerar o modelo de entrada, que estou prestes a quebrar)
Você pode inventar uma série de critérios diferentes, e muitos outros diferentes. Mas essa multiplicidade de critérios, como regra, não leva ao resultado desejado devido à sua inconsistência.
Критерий, я так считаю, должен быть составной и учитывать одновременно следующие факторы (например, с помощью штрафной функции):
- время корреляции остатков модели -> min
- отличие распределения остатков от нормального -> min
- норма вектора остатков -> min
- количество параметров модели, не обращающихся в нуль -> min
Это для затравки, без учета модели входного сигнала, которой я скоро присутствующим плешь проем)
talvez mais simples - um erro é uma perda, uma previsão correta é um ganho. Estimamos a renda/perda. Isto é, por exemplo, PF. Isto é, critério de otimização PF->max
Há muitos critérios diferentes que podem ser elaborados. Mas esta multiplicidade de critérios geralmente não leva ao resultado desejado devido à sua inconsistência.
Tudo é importante aqui: os dois primeiros pontos exigem que os resíduos se aproximem mais do GSR - significa que o modelo é adequado; o terceiro ponto é claro por si só, o erro deve ser o menor possível; o quarto ponto - a complicação excessiva do modelo cheira a instabilidade e ajuste e muito provavelmente afetará a qualidade prevista. Não vejo nenhuma contradição, basta escolher corretamente os pesos de importância para cada componente.
Na minha opinião, nenhum dos critérios que você listou
- tempo de correlação residual do modelo -> min
- diferença de distribuição dos resíduos em relação à distribuição normal -> min
- norma do vetor residual -> min
- o número de parâmetros do modelo não convergindo para zero -> min
não é necessário nem útil do ponto de vista da adaptação do modelo.
E certamente não o item 2, que requer ajuste a uma distribuição normal. Isto já é, perdão, um disparate.
talvez mais simples - um erro é uma perda, uma previsão correta é um ganho. Estimamos a renda/perda. Isto é, por exemplo, PF. Isto é, critério de otimização PF->max
Podemos fazê-lo desta forma, mas também devemos pensar em como afinar os parâmetros usando algum algoritmo.
Existem 9000 algoritmos diferentes, mas todos eles têm uma coisa em comum em termos puramente matemáticos: para alcançar o ótimo você precisa conhecer o gradiente da função sendo otimizada por parâmetros ajustados. Naturalmente, pode-se usar o PF como critério e até mesmo calcular todos os derivados em tempo real (usando diferenciação automática não é tão difícil). Mas há um problema: o valor do fator de perfil é extremamente dependente da própria série de preços, que é conhecida por ter o caráter de um processo ruidoso. A flutuação de apenas 1 vela por alguns pontos pode resultar em 1 negócio a mais ou 1 negócio em falta com resultado imprevisível, o que teria um efeito dramático no fator de lucro (não se esqueça que devemos otimizar a estrutura do modelo no menor intervalo de tempo possível, pois inicialmente assumimos que o modelo tem parâmetros variáveis). Assim, o critério é muito pouco suave e o algoritmo de otimização pode simplesmente ficar preso em algum ótimo local condicionado, repito, pela mera flutuação do preço.
A norma do vetor de erro (ponto 3), por outro lado, não tem tal desvantagem: uma mudança de 1 ponto no preço de 1 vela resultará em uma mudança igualmente insignificante na função de penalidade. O mesmo é válido para os itens 1 e 2, enquanto o item 4 é independente de preço.
Em resumo, o critério deve ser tão estável quanto possível às condições iniciais (que no nosso caso é a amostra de otimização), ou o algoritmo deve ter alguma verificação da globalidade do ótimo encontrado. Caso contrário, ao invés de otimizar, teremos o caos.
E certamente não o ponto 2, que requer ajuste a uma distribuição normal. Isto é, perdão, um disparate.
Aqui você já se contradiz: se o processo é representado como sinal+ruído, então o ideal é que o resíduo seja exatamente o ruído térmico, carregando exatamente 0 informação. Em geral, esta premissa tem sido geralmente aceita há cerca de cinqüenta anos: a produção do SBS (pp. 1 e 2) <=> o modelo descreve adequadamente o componente determinístico.
E me fale mais sobre o ponto 3, desde quando o erro mínimo se tornou inútil do ponto de vista da adaptação?