L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1764
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
1) oui, il s'agit d'une ZZ ordinaire, cela ne fait aucune différence du point de vue de l'AMO quant au type de ZZ à utiliser.
2) oui exactement, AMO essaie de construire une sorte de DF (filtre numérique) qui comme tous les filtres est en retard, donc au milieu il y a toujours une meilleure prédiction que sur les bords.
1. Il peut y avoir des prédicteurs associés à ZZ. Comment définissez-vous la période ZZ ? Le résultat change-t-il lorsque vous changez la période de ZZ ?
2. c'est donc compréhensible - la tendance a plus de chances de se poursuivre que de s'arrêter... Les prédicteurs ont-ils une mémoire des valeurs passées ?
3. Comment cela peut-il être négocié - si le point de pivot ne peut être déterminé ?
4. Devons-nous rechercher uniquement des points qui peuvent générer des revenus ? Par exemple, mon objectif est "le début du dessin du segment actuel ZZ chevauchera le début du dessin du segment suivant ZZ", c'est-à-dire que la décision d'entrer sur le marché et la classification se fait sur la barre suivante, après le changement de vecteur ZZ, si le segment est long, il chevauche généralement le point d'entrée - utilisez le chalut.
5. Vous avez besoin d'un mot de passe d'investisseur d'où vous obtenez les devis pour les obtenir également.avez-vous sorti quelque chose ? et la question est, est-ce que vous le récupérez et comparez les rangées, où la compression a eu lieu, y a-t-il un grand changement ?
Il s'avère que la compression dépend de la distribution. La normale a été compressée par un facteur de 5 et les barres d'amplitude par un facteur de 15. Si le prix et le hasard ont la même distribution, alors le niveau de compression est presque le même.
Il s'est avéré que la compression dépendait de la distribution. La normale est comprimée par un facteur de 5 et les barres de portée par un facteur de 15. Si le prix et le hasard ont la même distribution, alors le niveau de compression est presque le même.
Je ne comprends pas, bien sûr la compression est plus grande,ils sont normalisés par le prix d'ouverture de fermeture. En général, la compression d'image et de son flexible et simple a des limitations strictes sur la zone de travail, les couleurs sont connues, le son de 20 à 20 kHz. Et nous codons une répétition de changements. Ce que vous envoyez à l'entrée de l'archiveur et ce qu'il encode est compressé. Avez-vous essayé les tiques ?
Bien, vous devriez dézipper et comparer les endroits où il y a eu des changements, si ce sont au moins des parties similaires, c'est logique.
Si tu ne t'accroches pas à ForEx... Les bourses russes (MOEX, FORTS), par exemple, donnent plus d'informations sur les cotations. Il s'agit d'un ratio du volume des positions ouvertes, un tableau de toutes les transactions. Il y a un an, je me suis intéressé à "toutes les affaires". Création d'un indicateur montrant toutes les transactions sous la forme d'un solde cumulé. Cela m'a permis d'observer des choses intéressantes :
Vous pouvez souvent constater des écarts importants entre les incréments de prix et les incréments de solde sur l'ensemble des transactions (ce qui n'est pas censé être logique). On peut observer quand il y a des charges de volume importantes avec un prix qui s'aplatit. Ensuite, vient le remboursement de la cupidité ! Comme la fermeture des positions d'achat est effectuée par les transactions de vente, en fait, elle n'interfère pas avec la visualisation. L'important ici est la prépondérance de l'intérêt ouvert. Je veux dire que de telles informations supplémentaires sur les entrées NS n'interviendraient pas... :)
Valeriy Yastremskiy:
C'est une bonne idée de dézipper et de comparer où se trouvent les changements, s'il s'agit au moins de sections similaires, alors il y a un intérêt à travailler.
Aucun changement, compression 7z, sans perte.
Pas de changement, compression 7z, sans perte.
étrange, quelle est la taille des données, kilo-octets ou mb ? des données compressibles sans équivoque, mais étrange. Dans les fichiers de lettres, bien sûr, 100 %, mais le son et l'image sont généralement perdus. Il y a un malentendu quelque part. Dans l'entrée d'ailleurs, un des prix de la barre ou les 4 et l'heure ? Documentation sur l'archiveur, il commence la fin de la section compressée à chercher.
étrange, quelle est la taille des données, kilo-octets ou mb ? des données compressibles sans équivoque, mais étrange. Dans les fichiers de lettres, bien sûr, 100 %, mais le son et l'image sont généralement perdus. Il y a un malentendu quelque part. Dans l'entrée d'ailleurs, un des prix de la barre ou les 4 et l'heure ? Documentation sur l'archiveur, il commence la fin de la section compressée à chercher.
Je prends des ticks, je les divise en étapes de _Point, je les différencie, j'obtiens la séquence +/-1, je sauvegarde en binaire comme short, je compresse en 7z. Pour le stockage, 1 bit est suffisant, et j'utilise 2 octets (courts), d'où la compression.
Pour les rendus, je prends les ticks, je les divise en rendus avec _Point step, je différencie, j'obtiens la séquence +/-1, je sauvegarde en binaire comme short, je compresse en 7z. Pour le stockage, 1 bit est suffisant, j'utilise 2 octets (courts), d'où la compression.
Et comment on fait sortir les modèles de série d'ici ? Les mauvais modèles sont pressés. Trop petit. Également séparés par une dichotomie. C'est pour ça qu'il y a un retour sans perte. Et sans différenciation, vous obtenez l'archive et le retour au match complet ? C'est une béquille, en fait. Nous devons trouver les caractères de début et de fin des archives et sortir les sections compressibles. La comparaison entre le fichier original et le fichier dézippé n'est pas tout à fait correcte.
Pas un mauvais article sur l'extraction de caractéristiques
https://towardsdatascience.com/optimize-data-science-models-with-feature-engineering-cluster-analysis-metrics-development-and-4be15489667a