L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2745

 
JeeyCi #:


et les tests statistiques pour les coefficients de régression servent à quoi ? ou à tester les hypothèses sur l'égalité de la moyenne et de la variance ? (si l'ACP montre toujours que le premier PC explique la part acceptable de la variance [la variance résiduelle est très faible] - alors il faut l'accepter et vérifier la confirmation de la signification des coefficients de régression)...).

idéalement -- il est clair que pour avoir une probabilité de 100%, nous devrions utiliser des relations fonctionnelles plutôt que des relations de corrélation -- mais si nous étudions un processus stochastique, les résultats ne seront que probabilistes et ne pourront être confirmés que sur un grand nombre de données de test et seulement jusqu'à ce qu'un nouveau conducteur apparaisse sur le marché..... (ici, soit dit en passant, la conscience factuelle/logique est également très importante, et pas seulement l'analyse robuste).

l'adaptation à l'histoire est toujours présente, tant que nous nous appuyons sur des données historiques..... mais nous pouvons toujours comparer la variance par la statistique F - si la réduction de la variance est beaucoup plus importante que la variance inexpliquée restante, alors une nouvelle régression est identifiée. (avec dr SLOPE)... et cela ne fonctionne que jusqu'à un moment dans le futur et seulement sur de grands nombres... enfin, ou changer l'état de l'acteur (si DL est utilisé)... mais le conducteur sait mieux que quiconque qu'il ne faut pas attendre... mais il vaut mieux connaître le conducteur que d'attendre que l'échantillon en cours soit collecté pour le confirmer.

Feature Engineering si vous rendez logique, vous l'avez bien remarqué - "théoriquement" logique (sous n'importe quel traitement de statut il y a des lois physiques-logiques terrestres et la connaissance humaine, les modèles ne tombent pas du ciel) -- [mais quelqu'un peut avoir l'ignorance] -- alors FS dans le processus de modélisation ne dérangera pas beaucoup soit le modélisateur ou le développeur.... et on ne peut aller nulle part sans l'histoire, pour savoir ce qui est devenu un moteur et ce qui ne l'est pas devenu - il n'est pas nécessaire d'être très intelligent en mathématiques supérieures, il suffit de comprendre les lois du marché de l'argent et des matières premières, des secteurs privé et public, sinon nous n'utiliserons l'appareil des mathématiques supérieures appliquées que "par la suite" pour apprendre que la nouvelle qui a changé le monde a déjà été entendue une fois..... C'est juste que la réaction du marché, y compris la réaction du marché, est généralement décalée.

p.s..

pour qui les mots et les lettres sont inconnus, ne lisez pas un sujet inconnu de lettres inconnues, afin de ne pas vous accrocher aux lettres - cherchez une machine VM pour votre FS.... si vous prouvez également la validité statistique de vos résultats, et pas seulement le pourcentage de réussite (qui n'est pas toujours impartial, soit dit en passant), alors les conversations seront différentes.... Mais pour l'instant, oui, chacun a sa propre terminologie....

Tout a commencé avec le fait que les gens voulaient coopérer )) a commencé à trier, il s'est avéré que tout le monde nie tout ce que les autres font. En plus, ils inventent de nouvelles définitions. Au final, personne n'a rien compris. J'aime généralement l'approche de Sanych, c'est pourquoi j'ai demandé des précisions. En ce qui concerne les désignations, il est également difficile de savoir s'il existe une relation et un lien, voire une corrélation.

Il est évident qu'il chérit son savoir-faire et qu'il ne révèle pas les détails.
 
Maxim Dmitrievsky #:
Tout a commencé avec des gens qui voulaient une coopérative (ou un groupe), qui ont commencé à se renseigner et qui ont découvert que tout le monde nie tout ce que les autres font. De plus, ils inventent de nouvelles définitions. En fin de compte, personne n'a rien compris. J'aime généralement l'approche de Sanych, alors j'ai demandé des précisions. Et pour les désignations aussi, qu'est-ce qu'une relation et un lien, si ce n'est une corrélation.

Il est évident qu'il chérit son savoir-faire et qu'il ne révèle pas les détails.

Selon moi, il existe deux types de corrélation.

La première est causale, déterminée par des informations a priori sur l'objet de la recherche à partir des connaissances dans le domaine concerné, et non par des calculs.

Le second type est la dépendance probabiliste, qui peut être calculée a posteriori à partir de certaines données obtenues en observant le comportement de l'objet. Le deuxième type comprend la corrélation, la dépendance déterministe (en tant que cas extrême) et ainsi de suite, y compris celle décrite par les copules et d'autres méthodes. L'étude de ce type de dépendance repose sur l'hypothèse qu'il existe une distribution conjointe pour les prédicteurs et la cible.

 
Aleksey Nikolayev #:

Dans mon esprit, il existe deux types de communication.

Le premier est causal et est déterminé par des informations a priori sur l'objet de la recherche à partir des connaissances dans le domaine concerné, plutôt que par des calculs.

Le second type est la dépendance probabiliste, qui peut être calculée a posteriori à partir de certaines données obtenues en observant le comportement de l'objet. Le deuxième type comprend la corrélation, la dépendance déterministe (comme cas extrême) et ainsi de suite, y compris celle décrite par les copules et d'autres méthodes. La base de l'étude de ce type est l'hypothèse qu'il existe une distribution conjointe pour les prédicteurs et la cible.

Correct. En l'absence d'hypothèses a priori, c'est le deuxième type qui est utilisé. Je me demande comment Sanych voit les choses. Par exemple, la façon dont les cibles sont construites permet de les adapter simplement à n'importe quel trait et vice versa.

Mon approche est entièrement adaptée à ce type de manipulations, mais il est peut-être possible de l'améliorer.
 
mytarmailS #:

Il existe une ACP qui prend en compte la cible, elle mettra en évidence les composantes qui caractérisent la cible,

Elle ne le fera jamais. Elle ne tient pas compte de la relation avec la cible. - Elle créera simplement une projection orthogonale dans l'espace des caractéristiques qui explique la variance maximale..... (Je ne sais pas si la rotation doit être effectuée manuellement [je crois qu'il y avait quelque chose à ce sujet dans le paquet Statistika - un bouton] ou si le logiciel s'en charge automatiquement - d'autres bibliothèques peuvent déjà intégrer la rotation).


mytarmailS #:

mais ce qui est triste, c'est que la cible est une variable subjective et qu'elle "flottera" dès que la trace sera terminée.... Et en quoi est-ce différent de l'apprentissage normal avec un professeur ?

Oui, malheureusement, vous avez vos propres interprétations de l'objectif de cette méthode et vos propres façons et objectifs de l'utiliser.... Je ne sais pas comment cela peut vous aider avec de tels points de vue... - Vous n'avez donc plus besoin de me poser la question.
 
JeeyCi #:
1)il ne le fera jamais - il ne tient pas compte des liens vers la cible !!!! - il créera simplement une projection dans l'espace des caractéristiques qui explique la variance maximale.... (Je ne sais pas si la rotation doit être faite manuellement [je crois qu'il y avait quelque chose à ce sujet dans le paquet Statistika - un bouton] ou si elle sera faite automatiquement - d'autres bibliothèques peuvent déjà avoir la rotation intégrée).


2)oui, c'est triste - vous avez vos propres interprétations de l'objectif de cette méthode et vos propres façons et objectifs de l'utiliser... Je ne sais pas en quoi elle peut vous aider avec de tels points de vue..... - vous n'avez donc plus besoin de me demander quoi que ce soit.

1) Je dis qu'il existe des rsa qui prennent en compte la cible.

2) Je n'ai rien demandé, je l'ai affirmé.

 

mytarmailS #:

1) Je dis qu'il existe desrsa quiprennent en compte le ciblage.

2) Je ne demandais rien, j'affirmais.

il s'agit déjà d'algorithmes pour lier artificiellement les PC à la cible - différents algorithmes (logiciels implémentés parfois même différemment dans différentes bibliothèques)... vous pourriez tout aussi bien utiliser PLS... la façon dont vous liez la cible aux caractéristiques est votre affaire, cela ne rend pas l'ACP = "avec le professeur" (le professeur est lié séparément - en fait - de la façon que vous voulez) - encore une fois, nous nous éloignons du sujet et nous entrons dans le thème du "goût et de la couleur..." (bibliothèques). (bibliothèques).

Je ne suis même pas sûr que vous sachiez si votre bibliothèque fait de la rotation ou si vous devez la coder vous-même... donc les déclarations non vérifiées et incomplètes/précises n'intéressent personne ici, surtout lorsqu'elles changent le sens et l'essence des phénomènes/objets, après quoi vous criez que vous ne comprenez pas les mots... apparemment, vous ne comprenez même pas vos propres mots avec précision

 
JeeyCi #:

Je ne suis même pas sûr que vous sachiez si votre bibliothèque effectue la rotation ou si vous devez la coder vous-même....

ne jugez pas par vous-même

(Je ne sais pas si la rotation doit être faite manuellement [je crois qu'il y avait quelque chose à ce sujet dans le paquet Statistika - un bouton] ou si elle sera faite automatiquement - dans l'autre paquet.

JeeyCi #:

les déclarations non vérifiées, incomplètes et inexactes n'intéressent personne ici.

Et si vous n'êtes pas sûr, alors vous n'avez pas le droit d'affirmer quoi que ce soit qui soit vérifié. ce qui ne l'est pas, qui est intéressé, qui ne l'est pas.... si votre tête est en ordre bien sûr.


ps L'existence d'une rotation dans la matrice est facile à vérifier si l'on est compréhensif, mais il y a apparemment un problème à ce sujet.....

 

Vérifiez donc avant de vous jeter sur les gens,

- si vous ne comprenez pas du premier coup, mettez vos tons gurianesques/imprécis dans votre code et vos résultats, au lieu de chercher les extrêmes

 
En quoi cela diffère-t-il de la LDA ? Sur les citations, vous obtenez un ajustement serré qui ne fonctionne pas sur de nouvelles données. Mais il réduit l'erreur du modèle formé sur ces données à presque zéro. Une situation similaire peut se produire avec l'approche de Sanych. Le principe est le même : adapter les mouches aux cutlets

Mais une fenêtre coulissante devrait apporter un peu de joie si des statistiques sont collectées à son sujet. Je ne peux pas encore l'imaginer.
 

Une sorte de pic dans les messages !


Encore une fois.

Je classe les prédicteurs en fonction de leur capacité de prédiction.

J'utilise mon propre algorithme car les algorithmes de nombreux logiciels sont trop lents - le mien est moins précis mais très rapide.

La capacité prédictive n'est PAS une corrélation et n'est pas le résultat du choix des prédicteurs que les modèles produisent.

La capacité prédictive est une corrélation d'informations et NON :

1. La corrélation est la "similitude" d'une série stationnaire avec une autre, et il y a toujours une certaine valeur et aucune valeur "sans relation". La corrélation a toujours une certaine valeur, de sorte que vous pouvez facilement utiliser la corrélation pour trouver la relation entre un professeur et le marc de café.

2. La sélection de fiches est la fréquence d'utilisation des fiches lors de la construction de modèles. Si nous prenons des prédicteurs sans rapport avec l'enseignant, nous obtenons toujours un classement des fiches.

Un analogue à ma compréhension du "pouvoir prédictif" est par exemple caret::classDist(), qui définit les distances d'échantillonnage de Mahalanobis pour chaque classe de centres de gravité. Ou woeBinning. Il existe de nombreuses approches et de nombreux packages dans R. Il en existe d'autres basées sur la théorie de l'information.