Matstat Econométrie Matan - page 11

 
Aleksey Nikolayev:

A la demande du topicstarter je vais continuer sur le principe du maximum de vraisemblance. Par souci de concision, j'utiliserai le terme anglais MLE (maximum likelihood estimation).


Par définition, la vraisemblance est la densité de la distribution conjointe. Pour un échantillon de taille N, c'est une fonction numérique de l'espace numérique à N dimensions. En outre, elle dépend également des paramètres à déterminer (estimer).

Par conséquent, une question se pose : d'où vient cette fonction ? La réponse est "comme cela se passe"), car il est impossible de couvrir toute la variété des moyens.


La plausibilité est la probabilité de se situer dans un intervalle de confiance. Et qu'est-ce que la plausibilité ? En termes simples, sans la densité de la distribution conjointe.

 
Алексей Тарабанов:

La plausibilité est la probabilité de se situer dans un intervalle de confiance. Qu'est-ce que la plausibilité ? En termes simples, sans la densité de la distribution conjointe.

Qu'est-ce qui est exactement difficile pour vous dans le concept de densité ?

 

Comme toujours - d'abord pour la normalité, ensuite pour la stationnarité et enfin... comme d'habitude...

Oh, et au fait, tout le monde n'appelle pas le bruit gaussien blanc. Le blanc est blanc et le gaussien est gaussien.

 
En fait, je n'ai vu aucune mention de l'utilisation de SB et d'autres bruits dans les publications quantiques pour créer quoi que ce soit d'échangeable, sauf des simulations pour les tests. Et cette méthode est reconnue comme inefficace. Eh bien, aussi pour simuler quelque chose d'irréel pour comparer avec le réel et montrer que c'est similaire à l'œil, mais absolument inutile. Les quants sont habitués à penser de manière plus réaliste et à chercher quelque chose là où il se trouve vraiment. L'économétrie, très utile dans la mesure où elle peut prédire une onde sinusoïdale, est facilement remplacée par l'apprentissage automatique. Et personne n'a encore trouvé par quoi remplacer l'apprentissage automatique. À ce stade, nous pourrions mettre un terme à tout philosopher sur ce sujet, car il est improductif et ne mène nulle part 😁.

En général, ceux qui étudient la SB et l'économétrie évoluent à peu près comme suit : Coolibin -> économètre -> Coolibin/économétricien = expérimentateur Coolibin
 
Доктор:

En lisant votre opus, vous avez pratiquement prouvé qu'aucune manipulation de tic ne change la persistance de la rangée. (rires) Félicitations.

Qu'est-ce que la persistance a à voir avec cela ? Je n'ai pas mentionné ce mot du tout... Doc, je suis désolé, mais vous êtes encore plus bête que je ne le pensais..... Il s'agissait de préserver au maximum la structure de la série, et la structure est responsable, comme nous le savons, de la non-entropie (ou de l'entropie).

Il a été démontré que travailler avec M1 et plus n'est pas différent de travailler avec un processus de Wiener sans démolition. Et il faut y appliquer des méthodes bien différentes de celles utilisées pour les tiques et les tiques amincies.

Les gens rapportent des succès avec la méthode Warlock avec certaines modifications.....

Ils ont leur propre lieu de rencontre et vous y êtes tout à fait superflu car vous ne comprenez rien.

Vous ne devriez pas toucher au marché du tout, vous ne l'aimez pas, et il ne vous aime pas.

Je vais arrêter de te parler.

 
Aleksey Nikolayev:

3) La version standard de l'ELM.
Souvent utilisé comme définition de MLE, mais cela restreint trop l'applicabilité de la méthode.
L'hypothèse utilisée est que toutes les variables aléatoires de l'échantillon
a) sont indépendantes et
b) ont la même distribution univariée avec une densité p(x,a),
où a est le paramètre à estimer.
La fonction de vraisemblance L=p(x1,a)*p(x2,a)*...*p(xn,a), où n est la taille de l'échantillon.
En remplaçant l'échantillon (au sens premier) par les x, on obtient L=L(a) et on cherche l'amax auquel L atteint un maximum.
Notez que nous pouvons maximiser LL(a)=log(L(a)) au lieu de L(a), car le logarithme est une fonction monotone et, commodément, remplace le produit par l'addition.

Par exemple, considérons la distribution exponentielle p(x,a)=a*exp(-a*x), log(p(x,a))=log(a)-a*x,
dérivée par le paramètre d(log(p(x,a)))/da=1/a-x.
Nous devons donc résoudre l'équation 1/a-x1+1/a-x2+...+1/a-xn=0 -> amax=n/(x1+x2+...+xn).

4) La prochaine fois, je décrirai comment on obtient la méthode de minimisation de la somme des modules au lieu de MNC).

Nous maximisons donc le centre de la distribution, c'est-à-dire zéro sigma ?
Ou le maximum ne sera-t-il pas toujours proche de zéro sigma?

Forum sur le trading, les systèmes de trading automatisés et les tests de stratégie

Matstat-Econométrie-Matan

Alexei Tarabanov, 2021.05.14 22:25

La plausibilité est la probabilité de se situer dans un intervalle de confiance. Et qu'est-ce que la plausibilité ? En termes simples, sans une densité de distribution commune.


Et c'est la même chose ?
Probabilité que la variable provienne d'une distribution normale == maximum de vraisemblance ?
 
Alexander_K2:

Et, à propos de l'économétrie, de matstat et de matan (Dieu, quels noms !), je soutiens Automat - ces bêtises ne sont applicables que si l'individu a compris la physique du processus. Sinon, tout cela n'a aucun sens et ne mérite pas qu'on y prête attention.

Amen.

Sans vouloir vous offenser.

Ils ne comprennent pas cela. De plus, ils ne comprennent pas du tout la physique. Ça ne leur sert à rien.

Laissons-les tranquilles. Laissez-les s'ébattre. Nous allons regarder.

 
Maxim Dmitrievsky:
En fait, je n'ai vu aucune mention de l'utilisation de SB et d'autres bruits dans les publications quantiques pour créer quelque chose de négociable, à l'exception des simulations pour les tests. Et cette méthode est reconnue comme inefficace. Eh bien, aussi pour simuler quelque chose d'irréel pour comparer avec le réel et montrer que c'est similaire à l'œil, mais absolument inutile. Les quants sont habitués à penser de manière plus réaliste et à chercher quelque chose là où il se trouve vraiment. L'économétrie, très utile dans la mesure où elle peut prédire une onde sinusoïdale, est facilement remplacée par l'apprentissage automatique. Et personne n'a encore trouvé par quoi remplacer l'apprentissage automatique. A ce stade, nous pourrions mettre un terme à tout philosopher sur ce sujet, car il est improductif et ne mène nulle part 😁

En général, les études de SB et d'économétrie évoluent à peu près comme suit : Kulibin -> économétricien -> Kulibin/économétricien = expérimentateur Kulibin

Aucun quant ne publiera jamais un modèle ou une approche de travail. En général, ils signent un accord de confidentialité lorsqu'ils sont embauchés.

Ce qu'ils publient ne fonctionne plus ou n'a jamais fonctionné, mais est intéressant en termes de théorie.

 
Roman:

Donc, nous maximisons le centre de la distribution ? essentiellement zéro sigma ?
Ou bien le maximum ne sera-t-il pas toujours autour de zéro sigma?

Oubliez la distribution normale) Ne l'oubliez pas pour de bon, juste pour un moment) Elle n'arrête pas d'apparaître, mais en fait il y a beaucoup de distributions, tabulaires ou non)

L'intérêt de l'ELM est que nous disposons d'un nombre infini de modèles "numérotés" par le paramètre. En fonction des résultats de l'expérience (échantillonnage au sens numérique), nous choisissons parmi eux celui qui maximise la vraisemblance. La vraisemblance (densité de distribution) est un concept théorique de base (découle directement des axiomes de la science) et on ne peut que s'habituer à son application sans essayer d'expliquer par d'autres concepts moins fondamentaux.

La méthode MLE est si élémentaire qu'elle a même migré vers l'apprentissage automatique (avec la notion implicite d'une distribution conjointe des traits et des réponses).

Reste à savoir avec quelle famille de modèles paramétriques travailler. Cette question est généralement pratique et dépend de l'objet en question.

Romain:

Et c'est la même chose ?

Probabilité qu'une variable provienne d'une distribution normale == maximum de vraisemblance ?

L'intervalle de confiance est issu du domaine de l'estimation par intervalle d'un paramètre, où l'on ne trouve pas une valeur particulière du paramètre, mais l'intervalle dans lequel il se situe avec une probabilité donnée. Par exemple, tout le monde ne considère que la valeur numérique de Hearst et est très heureux qu'elle ne soit pas égale à 0,5. Mais en fait, il faut montrer qu'avec une forte probabilité, Hirst tombe dans un intervalle qui ne contient pas 0,5. C'est généralement un gros problème).

L'ELM relève du domaine de l'estimation ponctuelle d'un paramètre. Le problème est légèrement différent, mais comme pour le précédent, sa solution repose sur la notion de distribution d'échantillonnage conjointe (dans le second sens). Par conséquent, l'affirmation "Je connais les intervalles de confiance, mais je ne connais pas la densité de distribution conjointe" consiste en deux affirmations mutuellement exclusives)

Je vous suggère de passer en revue les méthodes une par une, plutôt que d'en faire un fouillis incompréhensible.

 
denis.eremin:

Aucun quant ne publiera jamais un modèle ou une approche de travail. En général, ils signent un accord de confidentialité lorsqu'ils sont engagés.

Ce qu'ils publient ne fonctionne plus ou n'a jamais fonctionné, mais est intéressant en termes de théorie.

Cela n'invalide pas la première thèse. Et des modèles tout à fait fonctionnels sont publiés.