![MQL5 - Linguagem para estratégias de negociação inseridas no terminal do cliente MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
mais frequentemente, menos frequentemente, mas e se o tempo não for levado em conta?
Предполагается, что рынок, как относительно замкнутая система, за единицу времени генерирует постоянное (или медленно меняющееся) количество информации.
Eu poderia concordar, até certo ponto, que o mercado não mudará em certa quantidade (digamos, pontos) até que uma certa quantidade de informações chegue
Eu poderia concordar, até certo ponto, que o mercado não mudará em certa quantidade (digamos, pontos) até que uma certa quantidade de informações chegue
Novas pessoas com novas idéias sobre informações antigas e a esperança de ganhar dinheiro com a falácia das suposições de outras pessoas vêm e mudam o mercado :) Eles não ouviram nada sobre a teoria de mercados eficientes :)
Novas pessoas vieram com novas idéias sobre informações antigas e a esperança de ganhar dinheiro com a falácia das suposições dos outros e mudaram o mercado :) Eles não ouviram nada sobre a teoria de mercados eficientes :)
Eles entraram e 40 pips depois eles saíram? Percebeu a falácia de suas suposições sobre a novidade de suas idéias (sobre informações antigas) e foi ler sobre a eficiência dos mercados?
--
Não é sexta-feira.
O ciclomotor não consertava, ele fornecia um elo, e é de outro lugar bem distante.
Certo. Como um dos co-autores da motocicleta, vou lhe dar uma pequena visão:
Os métodos de arquivamento "padrão" (não importa LZ, Huffman, os mais exóticos) trabalham com um fluxo de bytes na entrada.
Um fluxo de citações é geralmente codificado como um fluxo de números reais, ou seja, em pacotes de alguns bytes cada um.
Enquanto este fato for ignorado, a compressão por parte dos arquivadores universais populares não pode sequer chegar perto de um exame significativo da quantidade de informação em um fluxo de citação.
Além disso, lempel-ziv terá um desempenho estável superior ao de Huffman por vezes, o que é bastante lógico (mas absolutamente sem sentido), pois a entrada contém padrões "técnicos" facilmente previsíveis, relacionados à representação de dados (e não ao comportamento de citação).
Por outro lado, parece prematuro escrever um arquivador especializado para compressão do fluxo duplo, pois a perspectiva desta abordagem é pouco clara e vaga.
Então, que coisas significativas podem ser feitas com o mínimo esforço e a máxima razoabilidade dos resultados para fazer avançar a pesquisa?
A maneira como eu vejo isso, antes de mais nada, é transformar o fluxo das citações.
1) fluxo de bytes
2) primeiras diferenças
3) logarítmico.
Neste caso, talvez esta pesquisa de informação se torne um pouco mais informativa.
// paddon para o trocadilho.
Enquanto este fato for ignorado, a compressão por parte dos arquivadores universais populares não pode sequer chegar perto de um estudo significativo do volume de informação em um fluxo de citação.
Além disso, o lempel-ziv terá um desempenho superior ao de Huffman por vezes, o que é lógico (mas absolutamente sem sentido), pois padrões "técnicos" facilmente previsíveis, relacionados à representação de dados (e não ao comportamento de citações), estão chegando.
E o que você pensa sobre o resultado obtido pelo iniciador do tópico? Estou me referindo à maior taxa de compressão para séries aleatórias.
Pode significar que o arquivador não foi capaz de "decodificar" as informações contidas na série de preços, mas também não foi capaz de descartá-las?
Como eu penso - antes de mais nada transformar o fluxo de série de preços
1) fluxo de bytes
2) primeiras diferenças
3) logarítmico.
Isto se refere apenas à questão de a que se deve aplicar o medidor de informação.
Parece-me haver aqui um problema bastante geral e é que são os raros eventos que trazem a máxima quantidade de informação.
Entretanto, é precisamente porque são raros que não podemos reconstruir com segurança para eles a função de densidade de probabilidade necessária para quantificar as informações que eles contêm.
O que você pensa sobre o resultado obtido pelo iniciador do tópico? Estou me referindo à maior taxa de compressão para as séries aleatórias.
Isso poderia significar que o arquivador não poderia "decifrar" as informações contidas na série de preços, mas também não poderia descartar as informações?
Não. A mim me parece mais primitivo. Até onde entendi, olhando através do tema, os castiçais foram comprimidos. Ao gerar um sinal aleatório, também foram simulados candelabros. Observe que foi utilizada a distribuição normal. Esse é o truque (imha). Ela (NR) cria uma maior densidade de probabilidade de castiçais iguais em amplitude e valor de deslocamento. Isto é, "menos informatividade" em termos de teoria da informação. Daí uma maior compressibilidade. O resultado obtido, a propósito, mostra que o método é viável apesar da primitividade-instrumental da abordagem.
É apenas uma questão de a que aplicar o medidor de informação.
Aqui existe, me parece, um problema bastante geral e consiste em que a informação máxima traz consigo eventos raros.
Entretanto, é por causa de sua raridade que não podemos reconstruir com segurança para eles a função de densidade de probabilidade necessária para quantificar as informações que eles contêm.
É aqui que os carrapatos podem ser de ajuda. No sentido de que
1) você tem muitas informações de entrada, há muito para rolar e apertar.
2) a análise do tick será muito mais correta, do que "castrada" por barras.
E então você pode fazer todo tipo de ziguezague fino. Renko, Kagi e todo tipo de outras modificações.
E depois há isso. - Raridade de evento é relativa, muito rara, você pode ignorar (cortar), e para o resto deles para coletar algumas estatísticas.
--
A impressão geral do tópico é que ele é um tanto confuso. O nível de discussão merece uma atualização. O tema vale a pena. Um tópico significativo.
Candid:
Isso poderia significar que o arquivador não conseguiu "decifrar" as informações contidas na série de preços, mas também não as descartou?
Na verdade, eu não deveria ter escrito "Sim, não". É perfeitamente possível dizer isso. Minha interpretação não a contradiz de forma alguma, mas é bastante consistente.
É tudo culpa dos rabos gordos novamente. Imbecis. É tudo culpa deles.
MetaDriver:
... caudas grossas. Imbecis. Eles são a causa de tudo.
Não escreva: "Você simplesmente não sabe como cozinhá-los"...
Eu sei.
:)