Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Gentlemen!!!!!!!!!
Está chegando ao fim, não está? Finita la comedy, como eles dizem.
Garanto-lhes que os fluxos de Erlang são a chave.
Aqui, literalmente, acabei de verificar as citações do AUDCAD desta semana.
1. Nenhum intervalo de tempo ajuda a ler as citações de forma uniforme. Mesmo assim, em M1, M5, etc. não há distribuição simétrica, mesmo que remotamente parecida com a normal, ou Laplace. Impossível conseguir, fazer o que você quer.
2. Ao passar do fluxo simples para o fluxo Erlang do pedido 300 (algo como M5), a distribuição Laplace para incrementos é observada com confiança.
Eu ainda não chequei mais.
Cumprimentos,
O gato de Schrödinger.
ou seja, a leitura exponencial pode ser removida, ou ainda é primária e depois Erlang?
Isto é, a leitura exponencial pode ser removida, ou ainda é primária e depois Erlang?
Acontece que é possível configurar um gerador HF com distribuição Erlanghttps://en.wikipedia.org/wiki/Erlang_distribution de pedido 300 e ler as citações de carrapatos nesses intervalos de tempo. Pedidos menores não podem ser considerados - a transição para a distribuição Laplace é observada apenas a partir de 300.
Infelizmente, eu não conheço tal "processo Laplace" em oposição a um processo Wiener. Mas, ainda assim, deve tornar o problema muito mais fácil de resolver.
Acontece que é possível definir imediatamente um gerador HF com a distribuição Erlanghttps://en.wikipedia.org/wiki/Erlang_distribution do pedido 300 e ler nestes intervalos de tempo as aspas do tick. Pedidos menores não podem ser considerados - a transição para a distribuição Laplace é observada apenas a partir de 300.
Infelizmente, eu não conheço tal "processo Laplace" em oposição a um processo Wiener. Mas, ainda assim, deve tornar o problema muito mais fácil de resolver.
E há também a distribuição q-gaussiana, pode de alguma forma ser relevante aqui? Há algo sobre entropia e sobre tudo, é que os códigos já estão lá :)
Eu ainda não entendi nada do artigo
Com o Close on the Minutes, todos trabalham. Aqui você está em competição com todos, até mesmo com Papuans. E em fluxos de Erlang você está sozinho, e com a distribuição Laplace com sua função quantil conhecida.
Com o Close on the Minutes, todos trabalham. Aqui você está em competição com todos, até mesmo com Papuans. E em fluxos de Erlang - você está sozinho, e com a distribuição Laplace com sua função quantil conhecida.
(Mm-hmm. Se você refinar a distribuição em 2-3% - você nem vai notar estes erros no gráfico). Aqui você não tem nenhuma vantagem, nem mesmo sobre Papuans).
Com o Close on the Minutes, todos trabalham. Aqui você está em competição com todos, até mesmo com Papuans. E em fluxos de Erlang você está sozinho, e com Laplace distribuição com sua função quantil conhecida.
Laplace distribution, Exponential como um caso especial de distribuição Erlang em k=1, distribuição Gamma, análogo de fluxo geométrico contínuo e simples Poisson e um caso especial de distribuição Weibull têm uma característica chave - falta dememória. A distribuição de Laplace, embora tendendo para a distribuição normal, tem caudas mais densas.
Enquanto o A_K2 está mexendo com os fluxos de Erlang, todos nós o temos aqui há muito tempo). Levamos dados minuciosos, digamos Fechar, e já temos um fluxo Erlang de cerca de 90-100 pedidos. E todas as distribuições estão onde deveriam estar. O que há para se pensar? Precisamos nos abalar sobre isso.
Você não terá tempo astronômico, ele vai mudar, é tempo de operação.
Laplace distribution, Exponential como um caso especial da distribuição Erlang em k=1, Gamma distribution, análogo do fluxo contínuo geométrico e simples Poisson e um caso especial da distribuição Weibull tem a propriedade chave de não termemória. A distribuição de Laplace, embora tendendo para o normal, tem caudas mais densas.
Os rabos não são memória. A memória é a dependência do próximo incremento em relação ao anterior.
As distribuições não trazem a mínima informação sobre a presença/ausência de memória - para isso você tem que olhar para as distribuições condicionais ou autocorrelação, que são essencialmente a mesma coisa.
Uma ilustração simples: eu posso embaralhar qualquer série de gradientes (trocar gradientes aleatoriamente). A memória pode ou não aparecer. Mas a distribuição permanece inalterada.
Os cidadãos que sofrem com este problema, pesquisam no Google e estudam o básico. Caso contrário, é ridículo lê-lo.