L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2473
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Bonjour !
Un esprit brillant a dit un jour : - Un réseau neuronal est un réseau neuronal, mais la fondation casse tout.
Alors on perd notre temps ? Ou le sommes-nous ?
Veuillez l'expliquer à moi qui suis inexpérimenté.
L'économétrie est une grande science. Mais ça ne dit rien, ça ne prédit rien. Elle énonce un fait. On peut faire un classificateur bayésien, par exemple, le torturer longuement, puis conclure économétriquement et scientifiquement que le prix est une martingale, que la meilleure stratégie serait d'acheter tout en vendant simultanément.
Si l'objectif était de déterminer le prix de la martingale, vous pouvez vous arrêter là, et sinon - examiner d'autres facteurs.
Bonjour !
Un esprit brillant a dit un jour : - Un réseau neuronal est un réseau neuronal, mais la fondation casse tout.
Alors on perd notre temps ? Ou le sommes-nous ?
Expliquez-moi, si vous êtes un ignorant.
Le socle ne casse rien, pas plus que les réseaux neuronaux, pas plus que le verre, pas plus que l'économétrie, etc.
C'est l'équilibre du marché qui casse tout.
et rien d'autre
Que cherchez-vous ? Ce n'est pas du tout clair dans vos articles, dites-moi.
Il est plus facile pour moi d'enregistrer une vidéo et de la télécharger sur YouTube, il est plus facile de montrer clairement que d'écrire des tonnes de texte. Plus précisément, si je dis que j'ai déjà trouvé une solution possible, beaucoup vont l'apprécier. Quant au reste des articles, il contient davantage de théorie, qui, je l'espère, sera utile à quelqu'un. Malheureusement, je ne peux pas tout faire tout seul. J'ai beaucoup d'idées, beaucoup de connaissances, mais je ne suis pas assez fort pour les mettre en œuvre. Je n'ai réussi à faire qu'une seule solution et je dois la vérifier en dynamique, mais je n'ai pas de ressources pour cela... Pour l'instant, je ne connais que le manque de puissance de calcul, le reste suffit. En bref, j'ai besoin de serveurs, les plus nombreux et les plus puissants étant les meilleurs. Voici une vidéo :
https://youtu.be/NLA0u172oTw
Bonjour !
Un esprit brillant a dit un jour : - Un réseau neuronal est un réseau neuronal, mais la fondation casse tout.
Alors on perd notre temps ? Ou le sommes-nous ?
S'il te plaît, explique-moi, ignorant.
Les équipes gagnent maintenant - c'est-à-dire que le commerçant perd au niveau de l'organisation de l'entreprise.
Chacun doit s'occuper de ses affaires.
À long terme, un trader peut négocier, mais plus le niveau de bruit est faible, plus une équipe organisée est nécessaire. Et il est absurde pour un trader de gagner de l'argent tout seul et de ne le partager avec personne.
Vous avez besoin d'un gestionnaire de risques adéquat.
Négociants adéquats
Quants adéquats
Les filles qui traitent la clientèle du fonds
Il y en a peut-être dans les marchés non organisés, mais pour l'instant, tous ne sont pas efficaces, ils disparaissent rapidement.
il y a une analyse qui est pire ou meilleure mais qui fonctionne avec n'importe quelle fondation, un réseau neuronal est engagé dans l'analyse, donc il peut prédire quand la fondation n'affecte pas beaucoup.
La gestion du temps n'est pas annulée par une quelconque automatisation ... une fois toutes les 2 semaines (lors de la réunion du FOMC) - ne comptez pas sur l'AT, seulement sur la FA (et quelques prérequis dans la DB)... elle se réunit d'ailleurs (prend des décisions sur les affaires courantes de sa BP Balance des paiements) et dit - à différents moments... donc - tel qu'entendu et compris au moment où il parle, cela n'a pas d'importance, et de toute façon le retail-trader (le plus mal informé) ne comprend que "a-post"... mais toutes les nuances du timing (qui entre sur le marché quand et dans quel but) doivent être imaginées au moins en termes généraux...
Il est plus facile pour moi d'enregistrer une vidéo et de la télécharger sur YouTube, il est plus facile de montrer clairement que d'écrire des tonnes de texte.
Le problème, c'est qu'avec de nouveaux modèles de données de ce type, on tombe immédiatement en panne et on n'est pas aidé par la validation croisée ou autre...
Et le type de fonction de référence à utiliser n'a pas d'importance.
qu'il s'agisse d'approximation polynomiale ou de
filtre en cascade ou
une cascade de filtres générée automatiquement ou
cascade d'approximation par régression linéaire (MGUA) ou
approximation par des harmoniques conventionnelles etc...
En substance, peu importe les fonctions de référence à utiliser pour l'approximation (rapprochement), en gros c'est pareil, le problème est différent
Soit les données sont fausses, soit nous les enseignons mal, puisque toutes les méthodes donnent le même résultat...
+1
La gestion du temps n'a été abolie par aucune automatisation... toutes les 2 semaines (quand le FOMC se réunit) - ne comptez pas sur le TA, seulement sur le FA (et quelques prérequis dans le DB)... elle se réunit d'ailleurs (prend des décisions sur les affaires courantes de sa BP Balance des paiements) et dit - à différents moments... donc - comme entendu, comme compris au moment où il parle, cela n'a pas d'importance, et de toute façon le retail-trader (le moins informé) ne comprendra que "a-after"... mais toutes les nuances du timing (qui entre sur le marché quand et dans quel but) doivent être imaginées au moins en termes généraux...
в... vous.... vous-même.... trading.... ?
FOMC.... sits.... pas.... deux.... temps.... в.... mois, mais......... fois.... в.... année....
Le fait que j'aie créé un automate complet est cool, mais le problème est qu'avec de nouvelles données, les modèles de ce type vont directement dans la zone morte et que ni la validation croisée ni rien d'autre ne les aide...
Et le type de fonction de référence à utiliser n'a pas d'importance.
qu'il s'agisse d'approximation polynomiale ou de
filtre en cascade ou
une cascade de filtres générée automatiquement ou
cascade d'approximation par régression linéaire (MGUA) ou
approximation par des harmoniques conventionnelles etc...
En substance, peu importe les fonctions de référence à utiliser pour l'approximation (rapprochement), en gros c'est pareil, le problème est différent
Soit les données sont fausses, soit nous les enseignons mal, puisque toutes les méthodes aboutissent au même résultat...
Il y a une part de vérité ici, mais j'ai vérifié mon modèle et l'essentiel est de connaître le taux d'intérêt à terme. Le problème se situe au niveau du recyclage, où nous devrions nous efforcer d'obtenir un rapport maximal entre les données analysées et l'ensemble final de critères, sinon, il y a compression des données. Par exemple, vous pouvez analyser des données sur le graphique de la parabole, prendre plusieurs milliers de points et les réduire à trois coefficients A*X^2 + B*X + C. C'est là que la qualité de la compression des données est la plus élevée - c'est là que se trouve l'avancée. Le réentraînement peut être contrôlé en introduisant des indicateurs scalaires corrects de sa qualité en tenant compte de cette compression des données. Dans mon cas, cela se fait d'une manière plus simple - nous prenons un nombre fixe de coefficients et nous prenons un échantillon aussi grand que possible, c'est moins efficace mais cela fonctionne.