L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3380
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Dans la MO, la fonction d'aptitude est utilisée pour former le modèle (sélection des paramètres) par le biais de l'optimisation. Une ou plusieurs métriques sont utilisées pour évaluer le modèle résultant. Souvent, la métrique ne correspond PAS à la fonction d'aptitude. D'un point de vue mathématique, cela signifie que la MO résout un problème d'optimisation MULTICRITÈRE plutôt qu'un problème monocritère habituel.
Une autre différence significative par rapport à l'optimisation conventionnelle est l'absence fréquente d'un ensemble fixe de paramètres d'optimisation. C'est déjà le cas pour un arbre régulier. D'un point de vue mathématique, cela conduit à un problème d'optimisation dans l'espace FONCTIONNEL, au lieu de l'espace numérique habituel.
Ces deux points rendent les problèmes de MO irréductibles à l'optimisation conventionnelle.
Dans la MO, la fonction d'aptitude est utilisée pour former le modèle (sélection des paramètres) par le biais de l'optimisation. Une ou plusieurs métriques sont utilisées pour évaluer le modèle résultant. Souvent, la métrique ne correspond PAS à la fonction d'aptitude. D'un point de vue mathématique, cela signifie que la MO résout un problème d'optimisation MULTICRITÈRE plutôt qu'un problème habituel à critère unique.
Une autre différence significative par rapport à l'optimisation conventionnelle est l'absence fréquente d'un ensemble fixe de paramètres d'optimisation. C'est déjà le cas pour un arbre régulier. D'un point de vue mathématique, cela conduit à un problème d'optimisation dans l'ESPACE FONCTIONNEL au lieu de l'espace numérique habituel.
Ces deux points rendent les problèmes de MO irréductibles à l'optimisation conventionnelle.
Il existe toute une classe distincte d'algorithmes d'optimisation multicritères. Mais, s'il est bien compris, le multicritère se réduit à des conditions limites supplémentaires et à des évaluations séparées.
L'espace fonctionnel nécessite également une évaluation. Tout nécessite toujours une évaluation.
Dans la MO, la fonction d'aptitude est utilisée pour former le modèle (sélection des paramètres) par le biais de l'optimisation. Une ou plusieurs mesures sont utilisées pour évaluer le modèle résultant. Souvent, la métrique ne correspond PAS à la fonction d'aptitude. D'un point de vue mathématique, cela signifie que la MO résout un problème d'optimisation MULTICRITÈRE plutôt qu'un problème habituel à critère unique.
Une autre différence significative par rapport à l'optimisation conventionnelle est l'absence fréquente d'un ensemble fixe de paramètres d'optimisation. C'est déjà le cas pour un arbre régulier. D'un point de vue mathématique, cela conduit à un problème d'optimisation dans l'ESPACE FONCTIONNEL au lieu de l'espace numérique habituel.
Ces deux points rendent les problèmes de MO irréductibles à l'optimisation conventionnelle.
Merci pour cette explication détaillée. Néanmoins, il y avait un certain contexte pour soulever le sujet de FF. Le voici.
Forum sur le trading, les systèmes de trading automatisés et les tests de stratégies de trading
Apprentissage automatique en trading : théorie, modèles, pratique et algo-trading
Maxim Dmitrievsky, 2024.01.10 19:27
Il est possible de trouver une ré-optimisation avec une vérification de l'OOS :) qui est le cas le plus simple d'un loup en avant OU d'une validation croisée avec un pli.Il existe toute une catégorie distincte d'algorithmes d'optimisation multicritères. Mais, avec une bonne compréhension, le multicritère se réduit à des conditions limites supplémentaires et à des évaluations séparées.
L'espace fonctionnel nécessite également une évaluation. Tout nécessite toujours une évaluation.
Les caractéristiques que j'ai mentionnées fonctionnent simultanément, et non pas une par une, et je ne sais donc pas quel type de limites vous allez construire dans les espaces fonctionnels.
Il serait plus utile que tous les participants à ce fil de discussion connaissent les bases de la MO moderne. Un manuel de SHAD serait une bonne option.
Les caractéristiques que j'ai mentionnées ne fonctionnent pas une par une, mais simultanément, et je ne sais donc pas quel type de limites vous allez établir dans les espaces fonctionnels.
Oui, nous parlons du travail simultané de composants distincts dans des espaces multifonctionnels. Les deux composantes peuvent être évaluées séparément dans un espace multifonctionnel et toutes ensemble - par des méta-évaluations ou autrement - par des évaluations intégrales. L'une n'interfère pas avec l'autre. Toutes les étapes de la MO nécessitent des évaluations, et il existe à cet effet de nombreuses mesures spéciales, dont la maximisation est l'essence même de l'optimisation.
1) Dans la MO, la fonction d'aptitude est utilisée pour former le modèle(sélection des paramètres) par le biais de l'optimisation. Uneou plusieurs métriques sont utilisées pour évaluer le modèle résultant. Souvent, la métrique ne correspond PAS à la fonction d'aptitude. D'un point de vue mathématique, cela signifie que la MO résout un problème d'optimisation MULTICRITÈRE plutôt qu'un problème monocritère habituel.
2) Une autre différence significative par rapport à l'optimisation conventionnelle est l' absence fréquente d'un ensemble fixe de paramètres d'optimisation. Même pour un arbre régulier, c'est déjà le cas. D'un point de vue mathématique, cela conduit à un problème d'optimisation dans l'ESPACE FONCTIONNEL au lieu de l'espace numérique habituel.
Ces deux points rendent les problèmes de MO irréductibles à l'optimisation conventionnelle.
1)
Quelle est la contradiction ?
sélection des paramètres == recherche de paramètres dans l'algorithme d'optimisation
estimation de la métrique du modèle == FF avec l'estimation d'akurasi par exemple.
Qu'est-ce que vous contestez ici ?
2)
Pouvez-vous préciser ce que vous considérez comme le problème ? Par exemple, je ne vois pas
Merci pour cette explication détaillée. Il restait encore un peu de contexte à l'évocation du sujet FF. Le voici.
J'ai vu votre question, mais je ne peux rien dire d'intelligible à ce sujet.
Et je ne suis pas un très bon traducteur de la langue de Maxim's)
Oui, nous parlons du travail simultané de composants individuels dans des espaces multifonctionnels. Les deux composantes peuvent être évaluées séparément dans un espace multifonctionnel et toutes ensemble - par des méta-évaluations, ou autrement - par des évaluations intégrales. L'une n'interfère pas avec l'autre. Toutes les étapes de la MO nécessitent des évaluations, et il existe à cet effet de nombreuses mesures spéciales, dont la maximisation est l'essence même de l'optimisation.
J'ai vu votre question, mais je ne peux rien dire d'intelligible à ce sujet.
Et je ne suis pas un très bon traducteur de la langue de Maxim's).
Il ne s'agit pas de traduction.
Forum sur le trading, les systèmes de trading automatisés et les tests de stratégies de trading
L'apprentissage automatique dans le trading : théorie, modèles, pratique et algo-trading
fxsaber, 2024.01.10 19:43
Supposons que 100 étapes soient réalisées - nous avons 100 ensembles d'entrées. Si nous formons l'ensemble moyen selon le principe"chaque entrée est égale à la moyenne des 100 ensembles d'entrées correspondants", il est peu probable que cet ensemble réussisse bien l 'ensemble de l'intervalle initial.
Forum sur le trading, les systèmes de trading automatisés et les tests de stratégies de trading
Apprentissage automatique en trading : théorie, modèles, pratique et algo-trading
Maxim Dmitrievsky, 2024.01.10 19:46
Si ce n'est pas le cas, il n'y a pas de bons ensembles du tout, logiquement. En termes de confiance dans l'avenir.Il est clair que cent ensembles dépendent de FF.
Fournir des références, si ce n'est pas difficile (articles, livres).
J'ai conservé plusieurs centaines de livres sur les réseaux neuronaux, la MO, l'optimisation, les mathématiques dans les archives. J'ai donné un lien vers les archives. L'archive était disponible pour tout le monde dans le nuage pendant plusieurs années, actuellement je ne soutiens pas cette archive, le nuage avec l'archive n'existe pas maintenant.
A.P. Karpenko a écrit de nombreux livres sur ces sujets, de bons livres sont ceux de Simon D.