L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3251
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Et donc, juste une réplique.
La corrélation n'a PAS besoin de normalisation, ce n'est pas une distance euclidienne, la normalisation est déjà intégrée dans la corrélation.
Le 3980 a implémenté les méthodes Conjugate pour les types complex, vector<complex> et matrix<complex>. Elles effectuent la conjugaison pour les nombres complexes.
Nous vous remercions de votre attention.
Merci, Professeur.
S'il y a beaucoup de dimensions (caractéristiques), même plus de 5, il n'est PAS utile de rechercher la proximité directe entre les lignes, il vaut mieux réduire la dimensionnalité.
Deux ennemis : le surentraînement et l'anticipation.
Le surentraînement a fait couler beaucoup d'encre : le modèle est trop "similaire" à la série originale. Tout le monde le connaît, car le surentraînement est un résultat courant des tests.
Qu'est-ce que "l'anticipation" ?
Est-il exact de dire qu'il s'agit là de la principale mission du ministère de la défense ?
La situation est comparable à celle de la physique moderne : voulez-vous rouler ou conduire ? La physique avait l'habitude d'essayer de comprendre comment le monde fonctionne, mais maintenant elle se contente d'étirer des formules sur des données, d'inventer des entités virtuelles, personne ne comprend rien, tout est très compliqué.
Dans le domaine du traitement des données, c'est la même chose. Autrefois, on prenait un problème, on essayait de le comprendre, puis on écrivait un algorithme à la main, on optimisait les calculs. Pour simplifier la tâche, on négligeait certaines relations, on en réduisait d'autres à une forme linéaire. Lorsque la puissance et les données étaient suffisantes, la solution du problème était confiée à un optimiseur (en gros, comme dans MT tester), qui sélectionnait les coefficients d'un polynôme. Personne ne comprend comment le calcul est effectué, on ne peut avoir une confiance totale dans le résultat, mais cette approche permet de prendre en compte des relations non linéaires et non évidentes, et d'accélérer certains calculs scientifiques par des ordres de grandeur.
Lorsque la solution est évidente, il convient d'utiliser l'approche classique. Mais dans des conditions de grande incertitude, la MO n'est pas une panacée (c'est pourquoi ils ajoutent du bruit aux images dans les captchas).
S'il y a beaucoup de dimensions (attributs), même plus de 5, il n'est PAS utile de rechercher la proximité directe entre les lignes, il est préférable de réduire la dimensionnalité.
1 valeur de chaque caractéristique ne suffit pas
.
Où ai-je dit une seule valeur ?
et où ai-je dit qu'il y avait une seule valeur ?
Je dis que
lors de la réduction d'une dimension, personne ne se réduit à une seule dimension, c'est possible, mais on ne le fait pas.
J'ai dit
Utilisez-vous la convolution ou des prédicteurs simples qui traversent l'histoire ?