Modèle de marché : débit constant - page 23

 
à hrenfx
<br/ translate="no">

Deux objets sont reliés l'un à l'autre par un canal de communication. Les objets peuvent être des personnes, des ordinateurs, etc. Le canal de communication a une largeur de bande limitée.

Les objets présents sur le canal de communication peuvent échanger des données.

Suggérez-vous que la bande passante du canal de communication entre le terminal MT et le DC est limitée et que quelque chose se perd ? Ça, c'est sûr ! Ces mêmes objets ne nous disent rien, ils cachent quelque chose. Ils sont très méfiants.

:о)

L'information contenue dans les données est le plus petit ensemble de bits qui peut être transféré et restitué aux données d'origine. La quantité d'information est le nombre de bits dans cet ensemble très minimal.

Il existe une "théorie de l'information". Pourquoi ne pas commencer à vous familiariser avec elle ? Le "bit" n'est qu'une "échelle" choisie - un logarithme en base deux, qui est tiré de la probabilité de l'un des états dans lesquels le système peut se trouver. Vous pouvez choisir l'échelle que vous voulez, mais cela n'ajoute aucune magie.

L'information est essentiellement la différence entre l'incertitude actuelle et le fait de recevoir un message sur l'état non ambigu du système (l'entropie est nulle, nous savons déjà exactement dans quel état se trouve le système). Jusqu'à présent, je ne comprends pas vraiment ce que vous écrivez.

Évidemment, si BP1 contient une quantité d'informations N, alors BP2 = BP1 * Const contient également une quantité d'informations égale à N. En poussant le raisonnement un peu plus loin, mais aussi simplement, on peut affirmer que s'il existe une relation fonctionnelle rigide entre la BP1 et la BP2, elles contiennent la même quantité d'informations. Et si vous devez transmettre les deux BP1 et BP2 en même temps, vous n'avez pas besoin de transmettre une quantité N+N d'informations. Vous devrez transmettre un peu plus que N

Ce n'est pas vrai, c'est un euphémisme. Même si j'admets que je l'ai compris à ma façon. Je dirai brièvement - si par une heureuse coïncidence vous avez deux rangées avec la même entropie (information) cela ne donnera rien et à propos de quoi fondamental ne parle pas.

PS: Il existe un NS basé sur la théorie de l'information. Je l'ai lu brièvement, c'est assez intéressant. Mais je ne suis pas arrivé à l'utilisation pratique.

 

Le sujet est totalement dépourvu non seulement de termes mais aussi du concept général de la théorie du transfert d'information.

Si le sujet doit devenir informatif, alors.. :

1.Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения.
Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения.
2.Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании конкретного человека, информация перестает быть объективной, так как, преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта.
3.Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:
преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;
искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.
Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.
4.Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.
5. Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.
6.Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Ce sont les postulats de départ. Ensuite, ce qu'il faut faire avec l'information - la comprimer, la filtrer ou ne pas la percevoir du tout - est une autre question.

En ce qui concerne le trading, je suis d'accord pour dire que l'information est dans les croix, et qu'elle est absente des majors. Pourquoi ? Parce que toutes les majors travaillent pour le marché - il y a une tendance, il y a des acteurs et les acteurs renforcent la tendance ou l'affaiblissent, et ainsi de suite, jusqu'à ce que soudainement tous les acteurs soient sous l'intervention...

Avec les crosses, c'est un peu plus compliqué, il n'y a pas beaucoup d'acteurs, mais dans les crosses il y a une dépendance économique et géographique, du moins je le pense, parce que les indices des devises sont calculés principalement à travers les crosses.

 
Farnsworth:
à hrenfx

Suggérez-vous qu'il y a une bande passante limitée dans le lien entre le MT et le terminal DC et que quelque chose se perd ?

Nous ne parlons pas des MTs et des DCs. L'objet d'où provient l'information est le marché. Le sujet qui reçoit cette information - le commerçant. La perte d'information due aux filtres et autres n'est pas prise en compte.

Il existe une "théorie de l'information". Pourquoi ne pas commencer à s'y familiariser ? Le "bit" n'est qu'une "échelle" choisie - un logarithme en base deux, qui est tiré de la probabilité d'un des états dans lesquels le système peut se trouver. Vous pouvez choisir l'échelle que vous voulez, mais cela n'ajoute aucune magie.

Il y a beaucoup de choses dans la théorie de l'information. Et la définition de l'information qui y est donnée ne semble pas s'appliquer ici. J'ai donné la définition ci-dessus. Si vous n'aimez pas le mot information, vous pouvez en trouver un autre.

L'information est essentiellement la différence entre l'incertitude actuelle et le fait de recevoir un message sur l'état non ambigu du système (l'entropie est nulle, nous savons déjà exactement dans quel état se trouve le système). Jusqu'à présent, je ne comprends pas vraiment ce que vous écrivez.

Si vous avez compris ma définition de l'"information", l'hypothèse d'une largeur de bande constante du marché dit que le marché génère la même quantité d'"information" par unité de temps.

Pourquoi est-ce que je dis que toute "information" est contenue dans les majors ? Si vous transmettez l'EURUSD, le GBPUSD et l'EURGBP, il vous suffit de transmettre l'EURUSD et le GBPUSD pour recevoir également des données sur l'EURGBP. C'est-à-dire qu'il y a assez d'"informations" dans les majors.

Pourquoi parlons-nous de la quantité d'informations en premier lieu ? Le fait est que l'"information" du marché contient toutes les régularités du marché, car c'est la connaissance de toutes les régularités qui permet de générer l'ensemble très minimal de bits pour la transmission.

 
hrenfx:

L'information est un ensemble de bits qui ne peuvent être comprimés d'aucune manière pour être transmis.

On suppose que le marché, en tant que système relativement fermé, génère une quantité constante (ou qui change lentement) d'informations par unité de temps.


Il y a un rebondissement ici. Je peux vous dire avec certitude que cela fonctionne si vous l'appliquez correctement. Et le modèle est beaucoup plus simple que celui que vous décrivez.
 
hrenfx:

Pourquoi parlons-nous de la quantité d'informations ? Le fait est que l'"information" du marché contient toutes les régularités du marché, car c'est en connaissant toutes les régularités qu'il est possible de générer cet ensemble minimal de bits à transmettre.

Les archiveurs universels n'utilisent pas la recherche de modèles d'un type particulier de données, mais éliminent la redondance du codage pour tout fichier. Pour que l'algorithme d'archivage puisse trouver les régularités d'une ligne particulière et la compresser de manière optimale, ces régularités doivent être intégrées dans la ligne. JPEG a des caractéristiques d'images bidimensionnelles, mp3 a des caractéristiques d'informations audio, etc. Il n'y a pas de miracle à ce qu'un algorithme puisse trouver les caractéristiques uniques d'une information. Pour la vidéo : ils écrivent de nouveaux codecs tout le temps - il n'y a pas d'idéal. Par conséquent, votre tâche ne peut être résolue sans cet archiveur spécial. :) Et comme il n'existe pas non plus de méthode de compression idéale, on ne peut que comparer le degré de correspondance d'une BP particulière avec les régularités inhérentes à un codec particulier.
 
Avals:

Citation du premier message :

Comprimer le plus possible est une théorie. Il existe de nombreux algorithmes de compression. Plus un algorithme compresse, plus il est capable d'estimer la quantité d'informations contenues dans les données disponibles. Autrement dit, nous ne pouvons pas déterminer la quantité exacte d'informations, mais nous pouvons l'estimer.

 
hrenfx:

Citation du premier message :


non nous ne pouvons pas évaluer avec les algorithmes d'archivage standard. La redondance dans l'encodage est estimée et c'est tout. Aucune régularité du processus lui-même n'est extraite par ces algorithmes.
 
Avals:
Les archiveurs universels n'utilisent pas la recherche de modèles d'un type de données particulier, mais éliminent la redondance du codage pour tout fichier. Pour que l'algorithme d'archivage puisse trouver des motifs dans une ligne particulière et la compresser de manière optimale, ces motifs doivent être intégrés dans la ligne. JPEG a des caractéristiques d'images bidimensionnelles, mp3 a des caractéristiques d'informations sonores, etc. Il n'y a pas de miracle à ce qu'un algorithme puisse trouver les caractéristiques uniques d'une information. Pour la vidéo : ils écrivent de nouveaux codecs tout le temps - il n'y a pas d'idéal. Par conséquent, votre tâche ne peut être résolue sans cet archiveur spécial. :) Et comme il n'existe pas non plus de méthode de compression idéale, on ne peut que comparer le degré de correspondance d'une BP particulière aux régularités inhérentes à un codec particulier

Permettez-moi d'ajouter à ce que vous avez dit à juste titre. Si nous considérons l'alternance des ticks comme une régularité forte - le topikstarter aurait dû utiliser pour "utiliser" les archiveurs dans l'exemple initial (Prival n'est pas présent - je suis pour lui :) l'information sur le changement de prix suite à un tick dans une direction ou une autre, en utilisant un octet pour la représentation de cet événement ( et non le double, comme cela s'est très probablement produit ;). 128 pips par tick, c'est assez informatif et rare...

Quant au raisonnement plausible de HrenFix - je le soutiens par définition. Sinon, ce ne sont que des inondations et des plaintes sur l'instabilité et la "queue épaisse".

Mais les preuves sont encore mieux !

Malheureusement, il n'y a pas le temps de s'engager dans tout cela - il y a un retard dans : le commerce, la programmation, la vie personnelle ou/et familiale ... (à choisir selon le goût).

Et Alexey a raison, un poste comme celui-ci

hrenfx:

Je ne suis pas d'accord. Si vous remplacez le mot "monnaie" par "pommes de terre", cela semble encore plus douteux.

Pour mesurer un objet, il faut avoir une unité de mesure. La longueur peut être mesurée en mètres ou en pouces. Poids en kilogrammes ou en livres. EUR en USD ou en JPY.

Souvent, dans les problèmes de physique, il y a des situations où, par exemple, la longueur n'est pas importante. Et pour simplifier la logique, elle est prise comme une unité (kilomètres ou pieds - peu importe). L'essentiel est que les autres quantités soient mesurées dans les mêmes unités). Vous pouvez donc toujours prendre le même EUR en tant qu'unité.

En général, on ne peut rien mesurer sans unités.

P.S. Bien sûr, vous pouvez aussi mesurer l'USD en pommes de terre.

En ce qui me concerne, "le courant du crépuscule de la conscience". Nous mesurons au sein d'une paire - alors la devise des profits/pertes est importante. Mesure de l'élan - le signe et une certaine quantité relative de déviation par rapport au repos précédent sont importants.

Mais si vous ne provoquez pas - le marécage deviendra boueux. Alors bravo à DickPhoenix !

Écrivez à nouveau ;)

 
Avals:

Nous ne pouvons pas faire d'estimation avec les algorithmes d'archivage standard. La redondance du codage est estimée et c'est tout. Ces algorithmes ne récupèrent pas les régularités du processus lui-même.


Il est toujours possible d'estimer. La question est celle de la fiabilité de l'évaluation.

La possibilité d'utiliser la compression des médias a été discutée. Trouver et extraire un peu, mais quand même beaucoup, de redondance des données est mieux que rien. Les algorithmes de compression élémentaires ont montré qu'ils pouvaient le gérer. L'estimation de la quantité d'informations est, bien sûr, une estimation grossière.

On peut faire beaucoup de théories. Et on peut faire des recherches minimales, ce qui a été fait.

 
hrenfx:



Il est possible d'élaborer de nombreuses théories. Et on peut faire des recherches minimales, ce qui a été fait.

Seulement une correcte. plutôt que de se délecter de l'uniformité de la mantisse...

;)