L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1761
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Une pensée m'est venue, l'archiveur peut être utilisé comme un test d'aléatoire. Le hasard ne sera pas compressé par l'archiveur.
Nous devrions tester le cotier, différentes tailles, plusieurs échantillons. Essayez de faire une décomposition des composants pour voir si la compression s'améliore.
Le flac compresse moins bien, bien qu'il semble être mieux adapté pour cela. Rorschach : flac est pire pour la compression, bien qu'il semble être plus adapté à ce type de compression.Par rapport au volume, le prix est similaire à celui de la fractale.
Par rapport au ratio de volume, le prix ressemble à une fractale.
bon départ. Si le prix est similaire aux variations fractales, où les modèles sont définitivement là))) P avec le hasard est aussi correct))))
Une chose que je ne comprends pas est pourquoi le taux de compression est le plus élevé dans la gamme aléatoire et P ?Une chose que je ne comprends pas est pourquoi le taux de compression est le plus élevé dans la gamme aléatoire et dans Pi ?
C'est le contraire, ils ont le taux de compression le plus bas.
C'est le contraire, ils ont le plus petit taux de compression.
Compris, le diplôme est déroutant. Il reste à sortir les modèles et à les dézipper pour voir la différence avec l'original.
Une pensée m'est venue, l'archiveur peut être utilisé comme un test d'aléatoire. Le hasard ne sera pas compressé par l'archiveur.
Nous devrions vérifier le cotier, les différentes tailles, quelques échantillons. Essayez de faire une décomposition en composants pour voir si la compression s'améliore.
Le flac compresse moins bien, bien qu'il semble être mieux adapté pour cela. Rorschach : flac est pire pour la compression, bien qu'il semble être plus adapté à ce type de compression.J'ai déjà vu cette idée. Comme les liens vers des ressources tierces ne sont pas autorisés, je vais le coller avec une image.
Une idée intéressante consiste à représenter les images comme une vague, 50 vagues pour être exact.
Chaque onde pourrait être alimentée à l'entrée NS.
Juste une idée.
Une idée intéressante consiste à représenter les images comme une vague, 50 vagues pour être exact.
Chaque onde pourrait être alimentée à l'entrée NS.
C'est juste une idée.
intéressante, mais dénuée de sens).
amusant, mais inutile )
J'ai expérimenté des prédicteurs "convolution", dont le principe est de décomposer le graphique en une grille et de renseigner l'accumulation des barres, en fait le contraste. Et, étonnamment, les motifs fonctionnent dans certaines feuilles. Je n'ai pas encore développé cette idée, me concentrant plutôt sur la structure des données et la capacité d'agrégation. Ce que je veux dire, c'est que le principe de la compression des données est essentiellement similaire ici.
À propos, la proposition de travailler de manière expérimentale avec un ensemble de données ouvertes est intéressante. Cependant, comment imaginez-vous que cela soit possible sans une EA open source avec fonction de partitionnement et sauvegarde des prédicteurs ?
J'ai expérimenté des prédicteurs "convolution", dont le principe est de décomposer le graphique en une grille et de renseigner le regroupement des barres, en fait le contraste. Et, étonnamment, dans certaines feuilles, les modèles fonctionnent. Je n'ai pas encore développé cette idée, me concentrant plutôt sur la structure des données et la capacité d'agrégation. Ce que je veux dire, c'est qu'il existe essentiellement un principe similaire de compression des données.
J'ai fait quelque chose de similaire, mais sous forme de distributions, ou en termes plus commerciaux - j'ai construit quelque chose comme des profils de volume au lieu de graphiques, c'est intéressant... il y a un point à creuser + représentation des niveaux + algorithmisation pratique
Au fait, la proposition de travailler expérimentalement avec un ensemble de données ouvertes est intéressante. Cependant, comment imaginez-vous que cela soit possible sans l'EA open source avec la fonction de marquage et de sauvegarde des prédicteurs ?
Je peux imaginer tout cela dans un fichier txt ou csv, où les colonnes sont des caractéristiques/prédicteurs/attributs et la dernière est un fichier cible.
Nous nous mettons d'accord sur la cible, ce qu'elle doit être et avec quels paramètres, et allons de l'avant...
Chaque participant ouvre un jeu de données dans le logiciel et essaie de réduire l'erreur de classification. En cas de succès, il ajoute les caractéristiques générées au jeu de données et renvoie un jeu de données amélioré au public, et ainsi de suite, un algorithme génétique humain de génération et de sélection de caractéristiques apparaît.
Lorsqu'une erreur acceptable est atteinte, nous pouvons envisager de tout convertir en code mql
c'est comme ça que je le vois
Je pense que l'erreur acceptable est de 95% +, jusqu'à présent le maximum est de 77-83% +-.
De plus, pour éviter de générer des "signatures poubelles", ils pourraient fixer des limites telles que le signe doit améliorer l'erreur d'au moins 1% par exemple, sinon ils jetteraient 15000 sacs et diraient : j'ai amélioré l'erreur de 2%)) je suis un héros)).
J'ai fait quelque chose de similaire, mais sous la forme de distributions, ou en termes plus commerciaux, j'ai construit des sortes de profils de volume au lieu de graphiques, c'est un truc amusant... il est logique de creuser + représentation des niveaux + algorithmes pratiques
J'ai 16 cellules 4x4, une fenêtre dynamique et je compte le nombre de barres fermées dans chaque cellule, pour le dire de manière primitive.
J'affiche le tout sous forme de fichier .txt ou csv, où les colonnes sont les caractéristiques/protecteurs/signatures et la dernière est une cible.
Nous nous mettons d'emblée d'accord sur la cible, ce qu'elle doit être et avec quels paramètres, et nous allons de l'avant...
La cible doit être générée par le conseiller expert, sinon on ne sait pas comment obtenir de nouveaux prédicteurs - en utilisant les données.
Les cibles peuvent alors être chargées avec beaucoup, ce qui permettra de révéler le pouvoir prédictif des prédicteurs, car un bon prédicteur sera performant sur différentes cibles.
L'instrument doit être le même pour tous - les futures ou la colle Moex sont préférables. J'aime bien Si.