Le marché est un système dynamique contrôlé. - page 59

 
Mathemat:

Alexei, je pose la première question : pourquoi

1) Un impact constant, indépendant du prix de l'action (impact Alpha),
2) un impact qui est proportionnel au prix de l'action (impact bêta),
3) Proportionnel à la dérivée du cours de l'action (impact Gamma)
4) proportionnel au carré du prix de l'action (introduisant une non-linéarité) (impact Delta).

Si

seul l'"Extérieur" influence l'"Action" et non l'inverse

? Je comprends que l'on puisse réduire à l'équivalent, mais n'est-il pas plus logique de représenter initialement la réponse par degrés d'impact plutôt que l'inverse ?

Par ailleurs, la linéarité de la diffura du second ordre permet d'introduire facilement les concepts classiques de la mécanique - la quantité de mouvement de l'action et la fonction de Lagrange (énergie). Dans le domaine de l'invariance des influences extérieures, on peut également parler d'un certain semblant de loi de conservation de l'énergie.
Mais là, je suis fondamentalement en désaccord : en substance, notre système ne fait que recycler l'énergie entrante en énergie sortante par "annihilation", pardonnez la terminologie chatoyante. Au moment où le vendeur et l'acheteur conviennent d'un accord, une petite partie de l'énergie entrante se dissipe du système, ne laissant derrière elle qu'une entropie accrue. Et le flux d'énergie à travers le système, en gros les volumes de transaction, est une quantité loin d'être conservée, mais c'est ce qui permet au système d'exister.
 
avtomat:
2) Sélection du critère d'optimisation. Ce critère détermine la gamme de fréquences de fonctionnement du modèle.

Le critère, à mon avis, devrait être composite et considérer les facteurs suivants simultanément (par exemple au moyen d'une fonction de pénalité)

- temps de corrélation des résidus du modèle -> min

- la différence de la distribution des résidus par rapport à la distribution normale -> min

- norme du vecteur des résidus -> min

- nombre de paramètres du modèle ne convergeant pas vers zéro -> min

Ceci est pour l'inoculation, sans considérer le modèle d'entrée, que je vais bientôt casser)

 
alsu:

... sans tenir compte du modèle de signal d'entrée, que je présenterai bientôt)


Involontairement, une histoire aussi célèbre me vient à l'esprit. Lorsque Laplace a présenté à Napoléon un exemplaire de sa "Mécanique céleste", l'Empereur a fait remarquer : "Monsieur Laplace, on dit que vous avez écrit ce grand livre sur le système du monde, sans mentionner une seule fois le Créateur". Ce à quoi Laplace aurait répondu : " Je n'avais pas besoin de cette hypothèse. La nature a remplacé Dieu.

;)

 
avtomat:

"Je n'avais pas besoin de cette hypothèse. La nature a remplacé Dieu.

Cependant, seulement cent cinquante ans plus tard, l'hypothèse a dû être revue car il s'est avéré que quelqu'un "jetait les dés à chaque mesure", comme l'a dit Albertuszka (bien que lui-même n'ait pas cru à cette "absurdité" jusqu'à sa mort).
 
alsu:

Le critère, à mon avis, devrait être composite et prendre en compte simultanément les facteurs suivants (par exemple, au moyen d'une fonction de pénalité) :

- temps de corrélation des résidus du modèle -> min

- la différence de la distribution des résidus par rapport à la distribution normale -> min

- norme du vecteur des résidus -> min

- nombre de paramètres du modèle ne convergeant pas vers zéro -> min

Ceci est pour l'inoculation, sans considérer le modèle d'entrée, que je suis sur le point de casser)


Vous pouvez trouver beaucoup de critères différents, et beaucoup d'autres. Mais cette multiplicité de critères, en règle générale, ne conduit pas au résultat souhaité en raison de leur incohérence.
 
alsu:

Критерий, я так считаю, должен быть составной и учитывать одновременно следующие факторы (например, с помощью штрафной функции):

- время корреляции остатков модели -> min

- отличие распределения остатков от нормального -> min

- норма вектора остатков -> min

- количество параметров модели, не обращающихся в нуль -> min

Это для затравки, без учета модели входного сигнала, которой я скоро присутствующим плешь проем)


peut-être plus simple - une erreur est une perte, une prédiction correcte est un gain. Nous estimons les revenus/pertes. C'est-à-dire, par exemple, PF. C'est-à-dire le critère d'optimisation PF->max
 
avtomat:

Il existe de nombreux critères différents qui peuvent être élaborés. Mais cette multiplicité de critères ne conduit généralement pas au résultat souhaité en raison de leur incohérence.
Ici, tout est important : les deux premiers points exigent de rapprocher les résidus du GSR - ce qui signifie que le modèle est adéquat ; le troisième point est clair en soi, l'erreur doit être aussi faible que possible ; le quatrième point - la complication excessive du modèle est synonyme d'instabilité et d'ajustement et affectera très probablement la qualité des prévisions. Je ne vois pas de contradictions, il faut juste choisir correctement les poids d'importance de chaque composant.
 
alsu:
Tout est important ici : les deux premiers points exigent de rapprocher les résidus du GSR - cela signifie que le modèle est adéquat ; le troisième point est explicite, l'erreur doit être aussi faible que possible ; le quatrième point - la complexité excessive du modèle sent l'instabilité et l'ajustement et affectera très probablement la qualité de la prévision. Je ne vois pas de contradictions, il faut juste choisir correctement les poids d'importance de chaque composant.


À mon avis, aucun des critères que vous avez énumérés

- temps de corrélation des résidus du modèle -> min

- différence de la distribution des résidus par rapport à la distribution normale -> min

- norme du vecteur des résidus -> min

- le nombre de paramètres du modèle qui ne convergent pas vers zéro -> min

n'est ni nécessaire ni utile du point de vue de l'ajustement du modèle.

Et certainement pas le point 2, qui nécessite un ajustement à une distribution normale. C'est déjà, pardonnez-moi, une absurdité.

 
Avals:

peut-être plus simple - une erreur est une perte, une prédiction correcte est un gain. Nous estimons les revenus/pertes. C'est-à-dire, par exemple, PF. C'est-à-dire le critère d'optimisation PF->max

Nous pouvons le faire de cette manière, mais nous devrions également réfléchir à la façon d'ajuster les paramètres à l'aide d'un algorithme.

Il existe 9000 algorithmes différents mais ils ont tous un point commun en termes purement mathématiques : pour atteindre l'optimum, il faut connaître le gradient de la fonction à optimiser en ajustant les paramètres. Bien sûr, on peut utiliser PF comme critère et même calculer toutes les dérivées en temps réel (en utilisant la différenciation automatique, ce n'est pas si difficile). Mais il y a un problème : la valeur du facteur de profil dépend énormément de la série de prix elle-même, dont on sait qu'elle a le caractère d'un processus bruité. La fluctuation d'une seule bougie de quelques points peut entraîner une transaction supplémentaire ou manquante avec un résultat imprévisible, ce qui aurait un effet dramatique sur le facteur de profit (n'oubliez pas que nous devons optimiser la structure du modèle sur l'intervalle de temps le plus court possible, car nous supposons initialement que le modèle a des paramètres variables). Le critère est donc très peu lisse et l'algorithme d'optimisation peut simplement rester bloqué dans un optimum local conditionné, je le répète, par la simple fluctuation du prix.

La norme du vecteur d'erreur (point 3), en revanche, ne présente pas un tel inconvénient : une variation de 1 point du prix d'une bougie entraînera une variation tout aussi insignifiante de la fonction de pénalité. Il en va de même pour les items 1 et 2, tandis que l'item 4 est totalement indépendant du prix.


En bref, le critère doit être aussi stable que possible par rapport aux conditions initiales (qui, dans notre cas, sont l'échantillon d'optimisation), ou l'algorithme doit avoir un certain contrôle de la globalité de l'optimum trouvé. Sinon, au lieu de l'optimisation, nous obtiendrons le chaos.

 
avtomat:


Et certainement pas le point 2, qui nécessite un ajustement à une distribution normale. C'est, pardonnez-moi, une absurdité.

Ici, vous vous contredisez déjà : si le processus est représenté comme signal+bruit, alors le résidu devrait idéalement être exactement un bruit thermique, porteur d'exactement 0 information. En général, ce postulat est accepté depuis cinquante ans : la sortie du SBS (points 1 et 2) <=> le modèle décrit adéquatement la composante déterministe.

Et dites-moi plus sur le point 3, depuis quand le minimum d'erreur est-il devenu inutile du point de vue de l'adaptation ?