L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2475
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Pour y parvenir dans un réseau neuronal, le type de neurones doit être aussi différent que possible, et le nombre de couches et leur composition doivent également être arbitraires, alors c'est possible.
oui, afin d'approximer des paramètres indépendants les uns des autres pour tenter de les réduire à un seul résultat - il faut vraiment peser statistiquement des données historiques profondes jusqu'au moment actuel - c'est-à-dire avoir un échantillon représentatif (plus il est grand - plus il a de chances d'atteindre la cible)... pour les traiter (peser) dans une boîte noire... mais tout cela n'est que statistiques, et il se peut que ce soit très loin même de la phase économique actuelle... -obtenir une moyenne avec une grande variance (et un coefficient de variation également)
il semble que nous ayons traversé un cycle économique complet pendant 30 ans - il est préférable d' apprendre les signes du moment présent à partir d'une phase similaire de développement économique (c'est ce que je suppose) - afin de réduire l'échantillon de données initiales ()... mais je ne dispose pas personnellement de ces données (nécessaires pour que je croie à la validité d'une analyse significative sur une si longue période) .....
La plupart des gens utilisent un réseau neuronal à architecture fixe, mais pour une raison quelconque, ils ne comprennent pas que l'architecture doit également être flexible. En détruisant cette flexibilité, nous détruisons la possibilité même de minimiser le recyclage. En général, les mêmes critères peuvent bien sûr être appliqués à des modèles simples, même si c'est nécessaire, alors vous obtiendrez un bon résultat, mon modèle donne un bénéfice de quelques mois à l'avance et les paramètres peuvent être mis à jour en une journée. L'une des astuces de base consiste à prendre le plus de données possible (10 ans d'historique ou plus). Dans ce cas, nous recherchons des modèles globaux, qui sont basés sur la physique du marché lui-même et qui, dans la plupart des cas, fonctionnent sur une très longue période.
ce n'est pas un tour, c'est une tentative de fuir la réalité... imho
(il est possible d'obtenir un forward normal - avec moins de coût - logique - d'obtenir un forward normal - sans analyser les huskies et les bêtises pour le moment actuel - même si tout est appris seulement par comparaison, et dans la boîte noire aussi, mais quand même d'abord vous utiliseriez votre cerveau, et ensuite même l'apprentissage machine pas si profond, mais seulement concernant une partie du moment actuel par des signes importants dans la situation actuelle du marché) - et alors il manque toutes les données nécessaires de l'histoire....
Néanmoins, une compréhension de l'écosystème et une base de connaissances sur les échanges de matière et d'énergie, combinées à une prise de conscience en temps utile des nouvelles/événements moteurs, permettent de comprendre l'évolution sans charger une telle puissance de PC juste pour le plaisir de la moyenne et de la variance... imho
Mais merci pour vos observations... mais pour moi, la nécessité d'un tel apprentissage profond est discutable (bien que je suppose que pour la boîte noire, c'est indiscutable).
Ma vision n'est bien sûr pas une référence, je parle surtout d'un point de vue de gain de temps, juste parce que j'ai parlé à beaucoup de gens et je pense que ce n'est pas un secret que nous lirons ce forum dans 5 ans et que nous nous moquerons probablement de nous-mêmes, je pense juste que tous les développements ne sont pas vides et que vous devriez essayer de mettre à l'échelle ce que vous avez. J'ai souvent eu envie de tout foutre en l'air, mais pour une raison quelconque, je ne l'ai pas fait, même si cela ne rapporte pas d'argent. Il me semble que cette expérience est précieuse, et chacun a sa propre valeur, mais tout ce que nous pouvons faire, c'est soit passer à autre chose, soit aller dans un pub et se saouler. Il me semble qu'il nous suffit d'étendre et d'intensifier ce dont nous avons les prémices, et il me semble que c'est probablement très simple. Plus je complique les choses et plus j'ai envie de faire des calculs bizarres, moins tout est prévisible. Pour être honnête, je pense que tous ceux qui ont passé des années sur ce sujet comprennent qu'ils n'obtiendront pas 100 % par mois, et ceux qui n'ont pas passé ce temps regarderont vos 100 % par an et achèteront un signal avec 100 % par mois sans même faire attention au fait qu'il traîne pendant 2 mois.
oui, afin d'approximer des paramètres indépendants les uns des autres pour tenter de les ramener à un seul résultat - il faut vraiment peser statistiquement des données historiques profondes jusqu'au moment actuel - c'est-à-dire avoir un échantillon représentatif (plus il est grand - plus il a de chances d'atteindre la cible)... pour les traiter (peser) dans une boîte noire... mais tout cela n'est que statistiques, et il se peut que ce soit très loin même de la phase économique actuelle... -obtenir une moyenne avec une grande variance (et un coefficient de variation également)
il semble que nous ayons traversé un cycle économique complet pendant 30 ans - il est préférable d' apprendre les signes du moment présent à partir d'une phase similaire de développement économique (c'est ce que je suppose) - afin de réduire l'échantillon de données de départ ()... mais je ne dispose pas personnellement de ces données (nécessaires pour que je croie en la validité d'une analyse significative sur une si longue période).....
ce n'est pas une ruse, c'est une tentative de fuir la réalité... imho
(il est possible d'obtenir une avance normale - à moindre coût - logique - sans analyser l'enveloppe et le manque de signification pour le moment actuel - même si tout est connu seulement par comparaison, et dans la boîte noire aussi, mais quand même j'impliquerais mon cerveau d'abord, et puis même l'apprentissage machine pas si profond, mais seulement concernant une partie du moment actuel par des signes importants dans la situation actuelle du marché) - et puis toutes les données nécessaires de l'histoire sont manquantes....
Néanmoins, une compréhension de l'écosystème et une base de connaissances sur les échanges de matière et d'énergie, combinées à une prise de conscience en temps utile des nouvelles/événements moteurs, sont un moyen de comprendre l'évolution sans charger une telle puissance de PC juste pour le plaisir de la moyenne et de la variance... imho
Mais merci pour vos observations... Mais pour moi, la nécessité d'un tel apprentissage profond est discutable (bien que je suppose que pour une boîte noire, c'est indéniable)).
La variance et les autres déviations sont le résultat naturel de l'analyse d'un système basé sur des probabilités mais pas sur des équations différentielles, tout ce que vous pouvez obtenir est un système d'équations différentielles, dont les variables sont l'attention "probabilités de certains événements", ces événements qui semblent importants pour vous, et tout ce que vous pouvez prédire est la probabilité mais pas la valeur exacte. Une fois que vous aurez compris cela, les choses deviendront plus faciles et vous n'aurez plus peur de la variance ou d'autres choses. Vous obtiendrez toujours la variance, votre tâche consiste simplement à la minimiser. Vous ne pouvez pas prédire le comportement à long terme du système avec une précision de 100%, mais vous pouvez atteindre certains chiffres, ce qui est suffisant pour un trading rentable. Je veux dire ne faites pas son travail, donnez-lui un peu de liberté et vous verrez qu'il sait mieux que vous de quelles données il a besoin. A propos de la boîte noire, plus la boîte est noire, plus elle est intelligente. L'IA est construite exactement sur ce principe.
. Ce que je veux dire, c'est qu'il ne faut pas faire le travail de la machine à sa place, mais lui donner de la liberté et vous verrez qu'elle sait mieux que vous de quelles données elle a besoin. En parlant de boîte noire, plus la boîte est noire, plus elle est intelligente. L'IA est construite sur ce principe.
- Eh bien, je vois, plus il y a de données d'entrée (et de caractéristiques à sélectionner), plus l'estimation approximative et même la prédiction basée sur celle-ci sont précises (mais toujours avec une probabilité d'erreur)...
Après vos posts, le domaine de responsabilité du développeur devient un peu plus clair,
La variance et les autres déviations sont le résultat naturel de l'analyse d'un système basé sur des probabilités mais pas sur des équations différentielles, tout ce que vous pouvez obtenir est un système d'équations différentielles où les variables sont des "probabilités de certains événements", ces événements qui semblent importants pour vous, et tout ce que vous pouvez prédire est la probabilité mais pas la valeur exacte.
Algorithme pour trouver les dérivées en utilisant la formule de différence directe de Newton
. Vous aurez toujours des déviations, votre tâche consiste simplement à les minimiser.
oui, il y avait une image quelque part sur le lien que j'ai laissé plus tôt ~ convergence de la prédiction et de l'erreur tout en bas de la parabole (c'est pour éviter le surentraînement et s'arrêter à temps) - l'évolution va en spirale jusqu'à ce point (donc je suppose avec une accélération décroissante, jusqu'à ce qu'elle s'arrête complètement - jusqu'à la variation de la différence de plus en plus faible, comme la chute dans un vortex)
p.s.
J'ai codé une fois en utilisant Calculate Implied Volatility with VBA- Implied Volatility with Newton-Raphson Iteration - je n'ai pas trouvé de signaux... Et c'est compréhensible (car les trous noirs ne fonctionnent pas du tout sur la monnaie, car tout n'y est pas distribué de manière aussi binaire qu'on voudrait le croire).
... Pour être honnête, je ne suis pas du tout familier avec Newton - qu'il ait inventé tant de choses différentes ( ?), ou que ceci (votre forward et ma Volatilité implicite) soit de la même ligne et dans la même perspective et l'essence du même calcul... ?... Je ne veux pas perdre mon temps sur quelque chose auquel je ne crois pas - je ne crois pas à la modélisation financière.
mais il reste la question du choix de la fonction cible... - c'est aussi la responsabilité d'un développeur... - que conseillez-vous ?
(bien que oui, vous avez utilisé la différence avant)
p.s.
sur les degrés de liberté - je vais regarder à nouveau
croire à la demande - l'offre... dans le modèle de toile d'araignée (accent mis sur l'élasticité et leWalrasien) - dans l'équilibre-déséquilibre - pour déterminer la direction... (pour la probabilité de sortir d'un flat pour entrer dans une tendance) - seulement OI et gestion du temps (y compris le fait qu'on ne peut pas toujours être guidé par Walras)...
pour le fait - le verre (analyse des niveaux ou oops - iceberg qui saute) - bien que, bien sûr, il est préférable de ne pas analyser, mais de passer calmement, lorsque quelqu'un a déjà analysé le niveau et qu'il n'y a PAS d'opposé (mieux avec le test après la panne - également visible dans le verre, et sur la bande)
sur Walras
J'ai adoré celle sur le village du fromage et le centre de vinothérapie.
Je peux seulement vous parler de Newton. Je comprends qu'il existe une prévision de l'avenir sur la base de la courbe existante dans le passé, je l'ai fait il y a longtemps, cela ne fonctionne pas du tout avec le prix, du mot, si c'est ce que vous voulez dire. Mais cela fonctionne si vous essayez de prédire le graphique du backtest vers l'avant, mais il y a quelques nuances comme celle-ci :
C'est uniquement mon expérience. Toute méthode pour prédire quelque chose est basée sur l'interpolation de la fonction avec un polynôme suivi de la construction de la suite, je ne sais pas comment Newton le fait, mais il est plus probable que les dérivés soient calculés comme ordre profond et ensuite ils sont pris comme constante pour cette fonction, bien que bien sûr tout change avec le temps (sur le marché de telles prédictions ne fonctionnent pas du tout, j'ai vérifié). Si nous prévoyons un backtest à l'avance, il doit être aussi droit que possible et comporter autant de points que possible (données ou transactions dans ce cas, nous pouvons alors regarder un peu en avant). En d'autres termes, si nous avons trouvé un échantillon avec une plage de fluctuation suffisamment étroite d'autant de dérivées premières que possible, de telles méthodes d'extrapolation fonctionneront partiellement, l'essentiel étant de ne pas être trop gourmand et de s'arrêter à temps. Je me contente ci-dessous de montrer comment gérer l'incertitude au moyen de la loterie (si nous ne savons pas exactement où la prévision perdra son pouvoir). Je peux interpoler des transformées de Fourier et dessiner des séquences dans le futur, mais cela ne fonctionne pas avec des fonctions arbitraires. Et à propos de l'entonnoir d'apprentissage, eh bien, vous pouvez contrôler le réapprentissage de différentes manières, je n'ai jamais pris les formules de quelqu'un d'autre, juste parce que je peux bricoler les miennes en un rien de temps si nécessaire, et elles seront très probablement plus faciles et plus utiles, juste parce que je comprends tout, je n'ai jamais eu aucun problème avec ça.
Je peux seulement vous parler de Newton. Je comprends qu'il existe une prédiction à terme basée sur une courbe dans le passé, j'ai fait cela il y a longtemps, cela ne fonctionne pas du tout avec le prix, dès le départ, si c'est ce que vous voulez dire.
C'est uniquement mon expérience. Toute méthode pour prédire quelque chose est basée sur l'interpolation de la fonction avec un certain polynôme suivi de la construction d'une suite, je ne sais pas comment Newton le fait, mais... (sur le marché, de telles prédictions ne fonctionnent pas du tout, testées).
cette conclusion m'a paru intéressante - merci ! -
Qu'en est-il de l'entonnoir de formation, vous pouvez contrôler la rééducation de différentes manières, je n'ai jamais utilisé les formules de quelqu'un d'autre, simplement parce que je peux faire les miennes en un rien de temps si je dois le faire, et elles seront probablement plus faciles et plus utiles, simplement parce que je comprends tout, je n'ai jamais eu de problème avec cela.
+1, mais je ne suis pas un étudiant en physique... Même si je suis plus proche de ma propre logique que d'utiliser les modèles de quelqu'un d'autre.
Si vous voulez faire une prévision pour un backtest, vous devez rendre le graphique aussi droit que possible et y inclure le plus grand nombre de points possible (données ou transactions dans ce cas, vous pouvez alors regarder un peu en avant). En d'autres termes, si nous avons trouvé un échantillon avec des plages de fluctuation suffisamment étroites pour autant de dérivées premières que possible, ces méthodes d'extrapolation fonctionneront partiellement,
en général, avoir une parabole normale dont la dérivée première est linéaire... on se retrouve avec juste le coefficient de sa pente (comme une tendance débarrassée du bruit) - avec tout ce que vous avez décrit (plage étroite d'un grand nombre de dérivées premières)... doivent juste être pesés jusqu'à ce que leur visage soit bleu ? (plusieurs couches jusqu'à ce que la sortie soit une parabole)... ou plutôt une dérivée directe 1x de celle-ci
Les méthodes elles-mêmes sont d'une importance secondaire ici, il est possible d'interpoler Fourier et de dessiner une continuation dans le futur, mais cela ne fonctionnera pas avec des fonctions arbitraires.
c'est ce qui m'intrigue dans les réseaux neuronaux, ne pas dériver une distribution et la comparer avec les distributions tabulaires/empiriques, et ne pas chercher à confirmer chaque éternuement statistiquement (jusqu'à "ai-je bien compris la moyenne") en comparant l'hypothèse nulle avec celle du tableau... - c'est une sorte de traitement statistique du siècle dernier... en général, pas pour prouver la validité tant du modèle que de la prédiction et des erreurs et tout cela avec des tableaux en main datant du siècle dernier (pardonnez l'expression)
ou, alternativement, juste une pondération multicouche (je le prends comme un réseau neuronal)... comme je l'ai dit : jusqu'à ce que le visage soit bleu ? (plusieurs couches jusqu'à obtenir une parabole en sortie)... ou plutôt une dérivée directe 1x de celle-ci?
? ?? ou, en général, oublier toutes sortes de fonctions (y compris la parabole) et se contenter de chercher poids*signal(événement) -> niveau suivant... et à chaque niveau, la fonction devrait être choisie de manière plus ou moins triviale, comme dans l'outil de recherche de solutions d'Excel (soit pour une dépendance linéaire, soit pour une dépendance non linéaire, soit pour des données indépendantes) [bien que je ne sache pas ce qu'Excel a sous le capot avec ces noms, mais ce sont des détails, l'accent étant mis sur la logique].
et au point de convergence des signaux au niveau suivant (en tenant compte des pondérations précédentes) calculer toutes les différences des signaux reçus...
? est-ce que je comprends bien le réseau neuronal et la différenciation par les forces de la machine du chaos sans besoin d'adhérer à une quelconque courbe/ligne droite - qui, à mon sens, ne peut être qu'un résultat de la structuration du chaos, mais pas un point de départ... il s'agit de la responsabilité du même développeur - je ne crois pas et ne vois aucune raison de mettre dans l'analyse financière des modèles financiers issus de livres/blogs/articles (et des distributions traitées statistiquement) lorsqu'il s'agit d'approximer/interpoler le chaos... pour une extrapolation plus poussée
p.s.
au fond, je comprends qu'il n'y a que la vitesse (coefficient en x) et l'accélération (coefficient en x^2) et le déplacement du membre libre - dans la parabole, et bien sûr sa dérivée première est linéaire... les formules me font peur, surtout celles des modèles d'autres personnes
Il y a une part de vérité ici, mais j'ai vérifié mon modèle, l'essentiel est de savoir sur quel type d'avancée nous comptons. Le problème réside dans la reconversion, pour ne pas se reconvertir, il faut s'efforcer d'obtenir un rapport maximal entre les données analysées et l'ensemble final de critères, en d'autres termes, il existe une compression des données. Par exemple, nous pouvons analyser les données d'un graphique de parabole et prendre plusieurs milliers de points et tout réduire à trois coefficients A*X^2 + B*X + C. C'est là que la qualité de la compression des données est la plus élevée - c'est là que se trouve l'avancée. Le réentraînement peut être contrôlé en introduisant des indicateurs scalaires corrects de sa qualité en tenant compte de cette compression des données. Dans mon cas, cela se fait d'une manière plus simple - nous prenons un nombre fixe de coefficients et faisons en sorte que la taille de l'échantillon soit aussi grande que possible, c'est moins efficace mais cela fonctionne.
J'ai trouvé votre réponse plus tôt... J'ai dû bâcler le post précédent... il faudrait probablement au moins partir d'une parabole comme fonction décrivant le mouvement avec vitesse et accélération... (J'ai même vu ce type de graphiques et de grecques (delta et gamma) d'options quelque part - je ne m'en souviens pas et je ne veux pas le retrouver - nous avons besoin d'une analyse temporelle - horizontale, pas verticale).