Modelo de mercado: rendimento constante - página 14

 
sanyooooook:
mais frequentemente, menos frequentemente, mas e se o tempo não for levado em conta?
A determinação usa a probabilidade, não há referência de tempo, há total liberdade com isso. Ou, se preferir, o desconhecido :).
 

Предполагается, что рынок, как относительно замкнутая система, за единицу времени генерирует постоянное (или медленно меняющееся) количество информации.

Eu poderia concordar, até certo ponto, que o mercado não mudará em certa quantidade (digamos, pontos) até que uma certa quantidade de informações chegue

 
sanyooooook:

Eu poderia concordar, até certo ponto, que o mercado não mudará em certa quantidade (digamos, pontos) até que uma certa quantidade de informações chegue


Novas pessoas com novas idéias sobre informações antigas e a esperança de ganhar dinheiro com a falácia das suposições de outras pessoas vêm e mudam o mercado :) Eles não ouviram nada sobre a teoria de mercados eficientes :)
 
De que se trata tudo isso?
 
Avals:

Novas pessoas vieram com novas idéias sobre informações antigas e a esperança de ganhar dinheiro com a falácia das suposições dos outros e mudaram o mercado :) Eles não ouviram nada sobre a teoria de mercados eficientes :)


Eles entraram e 40 pips depois eles saíram? Percebeu a falácia de suas suposições sobre a novidade de suas idéias (sobre informações antigas) e foi ler sobre a eficiência dos mercados?

--

Não é sexta-feira.

 
gip:
O ciclomotor não consertava, ele fornecia um elo, e é de outro lugar bem distante.

Certo. Como um dos co-autores da motocicleta, vou lhe dar uma pequena visão:

Os métodos de arquivamento "padrão" (não importa LZ, Huffman, os mais exóticos) trabalham com um fluxo de bytes na entrada.

Um fluxo de citações é geralmente codificado como um fluxo de números reais, ou seja, em pacotes de alguns bytes cada um.

Enquanto este fato for ignorado, a compressão por parte dos arquivadores universais populares não pode sequer chegar perto de um exame significativo da quantidade de informação em um fluxo de citação.

Além disso, lempel-ziv terá um desempenho estável superior ao de Huffman por vezes, o que é bastante lógico (mas absolutamente sem sentido), pois a entrada contém padrões "técnicos" facilmente previsíveis, relacionados à representação de dados (e não ao comportamento de citação).

Por outro lado, parece prematuro escrever um arquivador especializado para compressão do fluxo duplo, pois a perspectiva desta abordagem é pouco clara e vaga.

Então, que coisas significativas podem ser feitas com o mínimo esforço e a máxima razoabilidade dos resultados para fazer avançar a pesquisa?

A maneira como eu vejo isso, antes de mais nada, é transformar o fluxo das citações.

1) fluxo de bytes

2) primeiras diferenças

3) logarítmico.

Neste caso, talvez esta pesquisa de informação se torne um pouco mais informativa.

// paddon para o trocadilho.

 
MetaDriver:

Enquanto este fato for ignorado, a compressão por parte dos arquivadores universais populares não pode sequer chegar perto de um estudo significativo do volume de informação em um fluxo de citação.

Além disso, o lempel-ziv terá um desempenho superior ao de Huffman por vezes, o que é lógico (mas absolutamente sem sentido), pois padrões "técnicos" facilmente previsíveis, relacionados à representação de dados (e não ao comportamento de citações), estão chegando.

E o que você pensa sobre o resultado obtido pelo iniciador do tópico? Estou me referindo à maior taxa de compressão para séries aleatórias.

Pode significar que o arquivador não foi capaz de "decodificar" as informações contidas na série de preços, mas também não foi capaz de descartá-las?

Como eu penso - antes de mais nada transformar o fluxo de série de preços

1) fluxo de bytes

2) primeiras diferenças

3) logarítmico.

Isto se refere apenas à questão de a que se deve aplicar o medidor de informação.

Parece-me haver aqui um problema bastante geral e é que são os raros eventos que trazem a máxima quantidade de informação.

Entretanto, é precisamente porque são raros que não podemos reconstruir com segurança para eles a função de densidade de probabilidade necessária para quantificar as informações que eles contêm.

 
Candid:

O que você pensa sobre o resultado obtido pelo iniciador do tópico? Estou me referindo à maior taxa de compressão para as séries aleatórias.

Isso poderia significar que o arquivador não poderia "decifrar" as informações contidas na série de preços, mas também não poderia descartar as informações?

Não. A mim me parece mais primitivo. Até onde entendi, olhando através do tema, os castiçais foram comprimidos. Ao gerar um sinal aleatório, também foram simulados candelabros. Observe que foi utilizada a distribuição normal. Esse é o truque (imha). Ela (NR) cria uma maior densidade de probabilidade de castiçais iguais em amplitude e valor de deslocamento. Isto é, "menos informatividade" em termos de teoria da informação. Daí uma maior compressibilidade. O resultado obtido, a propósito, mostra que o método é viável apesar da primitividade-instrumental da abordagem.

É apenas uma questão de a que aplicar o medidor de informação.

Aqui existe, me parece, um problema bastante geral e consiste em que a informação máxima traz consigo eventos raros.

Entretanto, é por causa de sua raridade que não podemos reconstruir com segurança para eles a função de densidade de probabilidade necessária para quantificar as informações que eles contêm.

É aqui que os carrapatos podem ser de ajuda. No sentido de que

1) você tem muitas informações de entrada, há muito para rolar e apertar.

2) a análise do tick será muito mais correta, do que "castrada" por barras.

E então você pode fazer todo tipo de ziguezague fino. Renko, Kagi e todo tipo de outras modificações.

E depois há isso. - Raridade de evento é relativa, muito rara, você pode ignorar (cortar), e para o resto deles para coletar algumas estatísticas.

--

A impressão geral do tópico é que ele é um tanto confuso. O nível de discussão merece uma atualização. O tema vale a pena. Um tópico significativo.

 

Candid:

Isso poderia significar que o arquivador não conseguiu "decifrar" as informações contidas na série de preços, mas também não as descartou?

Na verdade, eu não deveria ter escrito "Sim, não". É perfeitamente possível dizer isso. Minha interpretação não a contradiz de forma alguma, mas é bastante consistente.

É tudo culpa dos rabos gordos novamente. Imbecis. É tudo culpa deles.

 

MetaDriver:

... caudas grossas. Imbecis. Eles são a causa de tudo.

Não escreva: "Você simplesmente não sabe como cozinhá-los"...

Eu sei.

:)