Réflexions sur l'absurdité de l'analyse multidevises. - page 16

 
MetaDriver >>:

Универсальные архиваторы мало используют специфику конкретных данных. Если её учитывать (знать заранее) можно многое выносить за скобки.

C'est ce que les développeurs de MT5 ont fait, en développant l'algorithme de compression. S'ils le font, vous n'aurez peut-être pas à réinventer la roue vous-même.

 
getch >>:

Как тестер может помочь в определении уровня прогнозируемости?

Tout comme l'archiveur.

 
getch >>:

Разработчики MT5 этим и занимались, разрабатывая алгоритм сжатия. Если раскроют, велосипед изобретать самому, возможно, не понадобится.

Je ne compte pas du tout dessus, en quelque sorte. Le rouble deviendra une monnaie unique avant que les méta-cotes ne commencent à partager cet algorithme. Même si c'est simple.

Allons inventer mieux. :)

 
MetaDriver >>:

Так же как архиватор.

Le testeur n'est pas en mesure de déterminer le niveau de prévisibilité, l'archiviste non plus. L'archiveur peut sortir la taille de l'information pure (compressée). Plus elle est comprimée, plus la base pour trouver des modèles est efficace. Après tout, ce que fait l'archiveur, c'est rechercher des modèles dans le cas général. Plus il compresse, plus il trouve de régularités.

 
Je penche d'ailleurs pour les algorithmes de "perte d'information". Tout n'est pas nécessaire. Et la compression est beaucoup plus élevée.
 
MetaDriver >>:
Я, кстати, склоняюсь к алгоритмам "с потерей информации". Отнюдь не вся она нужна. А сжатие куда выше.

C'est logique, car vous ne pouvez pas obtenir toutes les informations du marché de toute façon.

Mais le critère d'une ligne de base efficace est en quelque sorte formulé.

 
getch >>:

Тестер не в состоянии определить уровень прогнозируемости, как и архиватор. Архиватор может выдать размер чистой (сжатой) информации. Чем сильнее сжимается, тем эффективнее базис для поиска закономерностей. Ведь что делает архиватор - ищет закономерности в общем случае. Чем лучше сжал - тем больше закономерностей нашел.

Ne soyez pas si pressé. Tu vas attraper des pépins. :)

Je réfléchissais déjà à ce sujet aux premiers jours du forex, il y a deux ans et demi. Les algorithmes de compression cherchent (et trouvent) des régularités, mais ils regardent généralement en avant (seulement celles qui sont "sans perte" - à deux passages). Il est donc préférable de passer directement au streaming... :)

 
MetaDriver >>:

Не спеши так быстро. Глюков наловишь. :)

Я эту тему думал уже на заре занятий форексом - года два с половиной назад. Алгоритмы сжатия действительно ищут (и находят) закономерности, но обычно заглядывая вперёд (как раз те которые "без потери" - двухпроходны). Так, что лучше уж сразу перейти к потоковым... :)

De même, les pensées sont nées dans le même état de connaissance du forex, seulement un peu plus tôt dans le temps.

Il faut deux passages pour déterminer la base. La première passe est la transformation de la base.

Si nous parlons d'un débit binaire hypothétique constant sur le marché, alors les méthodes de compression en continu sont d'excellents candidats.

 

MetaDriver писал(а) >>

... Il est donc préférable de passer directement au streaming... :)...

Et là aussi, il y a un inconvénient - je suis sûr qu'ils fonctionnent tous avec un retard, c'est-à-dire que pour un codage efficace, ils ont aussi besoin d'un "historique", même si c'est un peu moins.

// Cependant, dans le testeur, pour lancer une courbe dans le ciel, je n'ai besoin de connaître qu'une demi-mesure d'avance... :)

 
MetaDriver >>:

И тут нас тоже подстерегает злой облом - уверен, что все они работают с задержкой, то бишь для эффективного кодирования им тоже необходима "будущая история", хотя и немного.

// Однако в тестере, чтоб запузырить кривую в небо, мне достаточно знать всего-то на полбара вперёд... :)

Ils fonctionnent avec un délai, car il faut attendre que la portion d'information soit compressée (l'heure même dans l'exemple ci-dessus). Il n'y a rien de mal ici.