L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3005
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
C'était un appel à réfléchir avant de faire des bêtises comme transformer la série initiale en graphes, quanta, niveaux, sinusoïdes ou je ne sais quoi d'autre que vous avez inventé.
Le fait que la tâche ne soit pas correctement définie, je le dis ici depuis longtemps, la dernière fois il y a 10-20 pages, alors comme si je n'avais rien à apprendre, je comprends tout parfaitement bien.....
La présence d'un signal constant dans les données signifie presque immédiatement la généralisation, et le bruit se transforme en erreurs. S'il n'y a pas de signal, nous obtenons la mémorisation, où l'erreur de classification est simplement un chevauchement d'échantillons avec des étiquettes différentes et les mêmes valeurs de caractéristiques. Le second modèle n'a aucune valeur prédictive. C'est la réponse à mon rébus. Et elle est confirmée par des tests sur des données synthétiques et réelles.
Les régularités ont une probabilité flottante, qui peut être cyclique ou disparaître complètement. Je travaille avec de grandes fourchettes de temps et j'ai observé ces phénomènes.
Je dirai qu'il est possible de former un modèle pour 2008-2017 (10 ans), qui fonctionnera jusqu'à aujourd'hui. Un tel modèle aura peu de signaux - rappel jusqu'à 30 % maximum, mais cela signifie également qu'il y a peu de modèles pour dix ans qui fonctionneraient pour les deux années suivantes (échantillon de test).
Mais il n'est pas encore possible d'établir de quel type de modèle il s'agit - cyclique ou ponctuel (peut-être avec un cycle de plusieurs dizaines d'années) - et il est donc impossible de sélectionner un modèle qui continuera à fonctionner.
Idéalement, il est nécessaire de trouver des modèles cycliques avec une fréquence d'au moins une fois tous les trois mois, et nous pouvons alors nous attendre à ce que le modèle soit capable de sortir de la baisse.
Un ensemble de modèles de ce type, entraînés sur différents modèles cycliques, permettra de réduire la baisse.
L'important est donc le signal initial + l'objectif + les prédicteurs présentant une régularité cyclique positive par rapport à l'objectif.
Votre approche - secouer et passer au crible - est similaire au travail d'un prospecteur - bien sûr, vous pouvez trouver beaucoup de choses intéressantes et non apprises, mais comment pouvez-vous être sûr qu'elles seront stables ?
J'aime bien trouver la date moi-même, et j'ai des idées dans ce sens, mais je veux maintenant creuser dans le sens de l'augmentation de la probabilité de stabilité du modèle.
Votre approche - secouer et passer au crible - ressemble au travail d'un prospecteur - bien sûr, vous pouvez trouver beaucoup de choses intéressantes et non apprises, mais comment être sûr qu'elles seront stables ?
J'aime moi-même secouer la date, et j'ai des idées dans ce sens, mais je veux maintenant creuser dans la direction de l'augmentation de la probabilité de stabilité du modèle.
J'ai écrit une compréhension de base sans laquelle il ne sert à rien de faire quoi que ce soit. Ne serait-ce que pour confirmer chaque point (si vous ne l'avez pas compris la première fois 🙂 )
Je ne conteste pas vos descriptions et l'approche en général - je l'ai moi-même décrite en substance il y a longtemps, bien qu'avec une implémentation différente.
Mes expériences artificielles ont montré qu'il suffit souvent d'extraire des lignes présentant 10 régularités simples (dans mon cas, un segment quantique où la valeur du prédicteur a chuté) pour que l'ensemble de l'échantillon modifie la probabilité de 15 à 20 % vers un, tout en réduisant l'échantillon de 35 %. Les méthodes d'apprentissage automatique ne permettent pas d'obtenir ce résultat. Essentiellement, il s'agit de l'élimination des données inutiles/contradictoires. Mais nous voulons le faire plus près de la date actuelle, c'est-à-dire non pas en connaissant statistiquement l'histoire, mais en utilisant des méthodes permettant de sélectionner uniquement les modèles faux/contradictoires.
Si nous définissons une tâche, selon laquelle le modèle doit fonctionner avec n'importe quel instrument, les tests sont possibles, mais il y a encore moins de modèles stables de ce type. Et se contenter de parcourir l'histoire ou, pire encore, de prendre des synthèses - je ne pense pas que ce soit efficace. Il est tout au plus possible de créer des synthèses à partir d'incréments quotidiens en mélangeant les jours, mais je n'y ai pas encore accès. Avez-vous essayé ?
Je ne suis pas du tout au courant, mais je me demande si un prix peut être représenté par un graphique et si cela présente un avantage par rapport à la représentation bidimensionnelle habituelle.
On pourrait prendre la représentation du prix de Mandelbrot comme une forêt d'arbres ternaires, où chaque mouvement est divisé en trois (deux mouvements dans la même direction et une correction entre les deux).
L'avantage est l'accès à la collecte de statistiques sur la structure fractale des prix. Les inconvénients sont la complexité des algorithmes et la difficulté d'éviter de regarder vers l'avant.
Quel est le lien avec les matrices et les exemples de plates-formes "parallèles" que j'ai cités plus haut ?
Par exemple, je prends les matrices du lien vers keras, je les appelle :
et j'obtiens des zéros.
L'exemple de contrôle ne convient pas.
L'entropie croisée catégorielle est utilisée dans les modèles de classification lorsqu'il y a plus de deux classes. Et après softmax. Softmax convertit un ensemble de valeurs en un ensemble de probabilités dont la somme est égale à 1.
Essayez un exemple de contrôle comme celui-ci :
pred : 0.1, 0.1, 0.2, 0.5, 0.1
true : 0, 0, 1, 0, 0, 0, 0
Il est tout au plus possible de créer des synthèses à partir des incréments quotidiens en mélangeant les jours, mais je n'y ai pas encore accès. Avez-vous essayé ?
Nous pouvons prendre la représentation de Mandelbrot du prix comme une forêt d'arbres ternaires, où chaque mouvement est décomposé en trois (deux mouvements dans la même direction et une correction entre les deux).
L'avantage est l'accès à la collecte de toutes les statistiques sur la structure fractale du prix. Les inconvénients sont la complexité des algorithmes et la difficulté d'éviter de se projeter dans l'avenir.
Peut-on le représenter sous la forme de règles associatives ?
Je n'y ai pas réfléchi, mais je pense que c'est peu probable, car l'ordre des mouvements est important dans les prix.
Au cas où, une image pour illustrer l'idée de Mandelbrot. Chaque mouvement de prix, si possible, est divisé en trois mouvements (en sélectionnant la correction maximale à l'intérieur du mouvement), puis il devient un nœud de l'arbre. S'il n'y a pas de correction à l'intérieur du mouvement (ou si elle est inférieure à une valeur donnée), il devient alors une feuille de l'arbre.