L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1830
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Ce qui est triste, c'est que vous dites des régularités, des régularités, mais demandez vous ce qui anime exactement le marché et vous ne le direz pas... parce que votre compréhension d'une régularité s'arrête à la réponse d'un réseau sous forme de probabilité.
Votre solution consiste à construire des centaines de réseaux sur différentes données et à analyser leurs résultats sous forme de probabilité...
Et si vous compreniez le marché et ses lois ?
Alors une seule règle d'enregistrement peut décrire ce que vous décrivez avec des centaines de réseaux...
Par exemple, voici une règle avec seulement trois éléments, et elle s'échange tout aussi bien qu'une centaine de vos filets.
Que se passe-t-il si je trouve 1000 de ces règles et que je crée à partir d'elles une sorte de forêt aléatoire ou un ensemble de règles ? La qualité s'améliorera-t-elle ? Oui, puis-je négocier ?
Et si vous essayez de créer un ensemble de 1000 neurones avec 100 neurones chacun ? vous obtenez 100k neurones , premièrement vous ne pouvez pas trouver un ensemble de données unique pour 100k neurones , deuxièmement vous devez attendre des lustres pour la réponse -....
En résumé, mon approche est plus "propre", plus rapide et plus évolutive et peut être expliquée, alors que votre approche est impossible à développer ((
Malheureusement,
En résumé, mon approche est plus "propre", plus rapide et plus évolutive, votre approche est impossible à développer ((
Pour être honnête, votre approche n'est pas très claire non plus, mais peut-être que c'est juste pour moi.....
Voici un exemple vivant de la façon dont on compresse l'information, ce n'est pas ce que je fais, mais je m'efforce d'appliquer ce concept.
Les données sont les iris de Fisher.
Pour plus de clarté, nous formons une forêt aléatoire, mais faisons comme s'il s'agissait d'un ensemble de vos réseaux neuronaux.
Formé....
On a les règles prédictives, il y en a environ 700.
La magie, c'est qu'il existe un algorithme capable de créer 7 de ces 700 règles, avec une perte de qualité minimale.
Donc c'est notre forêt aléatoire entière de 700 règles.
pas mal ? :)
Ce qui est triste, c'est que vous dites régularités, régularités, mais demandez vous ce qui anime exactement le marché et vous ne le direz pas... parce que votre compréhension de la régularité s'arrête à la réponse du réseau sous forme de probabilité.
Toute votre solution consiste à construire des centaines de réseaux sur différentes données et à analyser leurs résultats sous forme de probabilité...
Oui, c'est ça, pour un résultat vraiment pratique.
Et si vous compreniez le marché et ses lois ?
Pourquoi ? Peut-être que ce n'est même pas possible.
Ainsi, une seule règle d'enregistrement peut décrire ce que vous décrivez avec des centaines de filets.
C'est de la fantaisie, on vole dans les nuages.
répondu ci-dessus...
répondu ci-dessus dans le texte...
Vous écrivez :
Evgeny Dyuka:
2. En pratique, en utilisant ma méthode, vous ne pouvez obtenir une réponse acceptable que dans environ 1% des questions posées. En d'autres termes, si vous demandez au réseau "où sera le prix dans 5 minutes à la hausse ou à la baisse" à chaque feu rouge, le réseau ne vous donnera la réponse qu'une fois sur 100.
Ne pensez-vous pas que la raison est que 99% de vos données sont des déchets et 1% sont utiles, ne pensez-vous pas que ce 1% peut être décrit par 1-3 règles d'enregistrement ?
Vous écrivez :
Evgeny Dyuka:
2. En pratique, en utilisant ma méthode, vous ne pouvez obtenir une réponse suffisamment précise que dans environ 1% des questions posées. En d'autres termes, si vous demandez au réseau "où le prix sera dans 5 minutes à la hausse ou à la baisse", vous n'obtiendrez la réponse qu'une fois sur 100.
Ne pensez-vous pas que la raison en est que vos données contiennent 99% de déchets et 1% d'informations utiles ? Ne pensez-vous pas que ce 1% peut être décrit par 1-3 règles d'enregistrement ?
99% des déchets sont une propriété intrinsèque de l'objet que l'on étudie. C'est sa nature.
Nous aimerions tous espérer qu'il y a de l'harmonie à l'intérieur et des règles simples et compréhensibles, ce que nous n'avons pas encore trouvé, mais que nous trouverons sûrement. Il n'y a pas de telles règles. D'un point de vue philosophique, ils peuvent bien sûr exister, tout a une raison, mais ils sont au-delà de nos capacités actuelles et futures.
Le 1% n'est pas non plus décrit par des règles simples, le réseau est entraîné sur 500 000 exemples pour l'atteindre - ce ne sont clairement pas des règles simples.
Voici un exemple vivant de la façon de comprimer l'information, ce n'est pas ce que je fais, mais j'aspire à ce concept.
Les données sont les iris de Fisher.
Formation d'une forêt aléatoire, pour plus de clarté, mais faisons comme s'il s'agissait d'un ensemble de vos réseaux neuronaux.
Formé....
On a les règles prédictives, il y en a environ 700.
La magie, c'est qu'il existe un algorithme capable de créer 7 de ces 700 règles, avec une perte de qualité minimale.
Donc c'est notre forêt aléatoire entière de 700 règles.
pas mal ? :)
Pour décrire 150 lignes de données (il y en a 150 dans les données d'Iris), il faut au maximum 150 règles (si toutes les lignes sont uniques).
Où avez-vous trouvé 700 ?
Pour décrire 150 lignes de données (les données d'Iris ont 150 lignes), il faut au maximum 150 règles (si toutes les lignes sont uniques).
Où avez-vous trouvé 700 ?
Je ne sais pas exactement comment fonctionne le paquet forrest, mais avec 100 arbres, il génère 400-700 règles, en comptant probablement chaque branche comme une règle
Malheureusement, ce n'est pas vrai.
99% des déchets sont une propriété intrinsèque de l'objet que l'on étudie. C'est comme ça qu'il est construit, c'est sa nature.
Nous aimerions tous espérer qu'il y ait une harmonie à l'intérieur et des règles simples et claires que nous n'avons pas encore trouvées, mais que nous trouverons. Il n'y a pas de telles règles. D'un point de vue philosophique, ils peuvent bien sûr exister, tout a une raison, mais ils sont au-delà de nos capacités actuelles et futures.
Ce pourcentage de 1 % n'est pas non plus décrit par des règles simples. Le réseau a été entraîné sur 500 000 exemples pour arriver à ce résultat - il ne s'agit clairement pas de règles simples.
hmmm...
Donc c'est toute notre forêt aléatoire de 700 règles.
pas mal ? :)
Quel est le principe de la réduction des feuilles ? Regroupement par similarité et sélection de la meilleure option du groupe ?
Je ne sais pas exactement comment fonctionne le paquet Forrest, mais lorsqu'il est réglé sur 100 arbres, il génère 400 à 700 règles, chaque branche comptant probablement comme une règle.
Je ne sais pas...
Si vous construisez un arbre, vous obtenez les mêmes 7 règles que vous pensez être magiques)).
Voici ce qu'un arbre m'a donné pour les iris (Précision 96% ou 6 erreurs sur 150 exemples)
if(x[3]<1.800000){
if(x[3]<1.000000){v[0]=1.000000;v[1]=0.000000;v[2]=0.000000;s=50;}
else{
if(x[2]<4.700000){
if(x[2]<4.500000){v[0]=0.000000;v[1]=1.000000;v[2]=0.000000;s=29;}
else{v[0]=0.000000;v[1]=0.909091;v[2]=0.090909;s=11;}}
else{v[0]=0.000000;v[1]=0.714286;v[2]=0.285714;s=14;}}}
else{
if(x[0]<6.300000){v[0]=0.000000;v[1]=0.090909;v[2]=0.909091;s=11;}
else{v[0]=0.000000;v[1]=0.000000;v[2]=1.000000;s=35;}}