L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3317

 
Andrey Dik #:

Restez où vous êtes. Tout le monde est stupide sauf vous, alors c'est vous qui répondez aux questions.

Qu'est-ce que c'est ? C'est quoi cette rougeur là-bas ? C'est rond, rouge, en bas.


Je n'ai jamais vu un tel graphique.

Fictionniste, tu inventes des choses et tu imposes des discussions sur des choses qui n'existent pas.

En fait, il est normal d'obtenir un tel graphique à partir d'un modèle, plutôt que de blablater ici pendant des années.

 
Ainsi, au point le plus bas de votre tableau, il y a un énorme surentraînement parce que la courbe de l'arbre va le plus loin possible vers le haut.
 
Andrey Dik #:

Ai-je bien compris que vous considérez l'apprentissage comme la recherche de la réponse d'une fonction sans certains de ses membres ?

Par exemple, nous avons des observations A+B+C=Y, A et B - en tant que prédicteurs, et C est inconnu. En nous familiarisant avec les réponses (majoration) de l'échantillon par le biais de l'optimisation, nous sélectionnons la compensation de la valeur de C, qui peut être exprimée par des manipulations, y compris la multiplication par des coefficients dans le cas de NS, ou par des règles mutuelles. En d'autres termes, il y a une recherche active de la fonction afin de remplacer les variables manquantes et de s'approcher de la bonne réponse. On suppose que les résultats du calcul de la fonction dans l'échantillon sont suffisamment représentatifs pour que le résultat puisse être utilisé sur de nouvelles données.

Cependant, dans le cas de l'optimisation dans le testeur, nous pouvons changer les valeurs des variables (en les représentant essentiellement comme des fonctions), en supposant que nous ne les connaissons pas, ou même que nous savons lesquelles donneront plus de poids à notre fonction compensatoire sous la forme de règles approximant les valeurs Y.

 

Autres questions du chatGPT.


Max, [26 Oct 2023, 18:59:31] :

Quel est le rapport entre le dilemme déplacement-dispersion et la recherche d'un minimum global ?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 18:59:38] :

Le dilemme biais-dispersion fait référence au problème de sélection de modèle dans l'apprentissage automatique. Il indique qu'à mesure que la complexité du modèle augmente (par exemple, en ajoutant de nouvelles fonctionnalités ou en augmentant le nombre de paramètres), il y a une augmentation de la variance (dispersion) des prédictions du modèle, mais il peut y avoir un biais (erreur) en faveur des modèles plus simples.


D'autre part, la recherche du minimum global se réfère à l'optimisation des paramètres du modèle. L'objectif est de sélectionner les valeurs des paramètres pour lesquelles la valeur minimale de la fonction d'erreur est atteinte. Cependant, avec un grand nombre de paramètres et un modèle complexe, la recherche du minimum global peut s'avérer difficile, voire impossible.


Ainsi, le dilemme biais-dispersion et la recherche d'un minimum global sont liés en ce sens que la sélection d'un modèle trop complexe pour un problème d'apprentissage automatique peut entraîner un problème de surentraînement (variance élevée), tandis que l'utilisation d'un modèle trop simple peut entraîner un problème de sous-entraînement (biais élevé). Cela peut rendre difficile la recherche du minimum global et conduire à des résultats sous-optimaux. Il est donc important de trouver un équilibre entre la complexité du modèle et sa capacité à généraliser les données pour obtenir des résultats optimaux.

 

Max, [26 Oct 2023, 19:03:50] :

Le modèle optimal devrait correspondre au minimum global dans ce cas, ou pas ?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 19:03:54] :

Non, le modèle optimal ne correspond pas nécessairement au minimum global. Dans certains cas, notamment en présence de bruit dans les données, le minimum global peut être atteint en ré-entraînant le modèle. Un tel modèle peut présenter une grande précision sur les données d'apprentissage, mais une mauvaise généralisation des données à de nouveaux exemples.


Au contraire, le modèle optimal doit être proche du minimum global, mais avec une variance et un biais faibles. Un tel modèle produira des prédictions stables et précises sur de nouvelles données. Il est donc important de tenir compte non seulement de la précision du modèle sur les données d'apprentissage, mais aussi de sa capacité à se généraliser à de nouveaux exemples lors de la sélection du modèle optimal.

 
Aleksey Vyazmikin #:

Ai-je bien compris que vous représentez l'apprentissage comme la recherche de la réponse d'une fonction sans certains de ses membres ?

Par exemple, nous avons des observations A+B+C=Y, A et B - comme prédicteurs, et C est inconnu, en prenant connaissance des réponses (majoration) sur l'échantillon par l'optimisation, nous sélectionnons la compensation de la valeur de C, qui peut être exprimée par des manipulations, y compris la multiplication par des coefficients dans le cas de NS, ou par des règles mutuelles. C'est-à-dire qu'il y a une recherche active de la fonction afin de remplacer les variables manquantes et de s'approcher de la bonne réponse. On suppose également que les résultats du calcul de la fonction dans l'échantillon sont suffisamment représentatifs, ce qui permettra d'utiliser le résultat sur de nouvelles données.

Cependant, dans le cas de l'optimisation dans le testeur, nous pouvons changer les valeurs des variables (en les représentant essentiellement comme des fonctions), en supposant que nous ne les connaissons pas, ou même que nous savons lesquelles donneront plus de poids à notre fonction de compensation sous la forme de règles approximant les valeurs Y.

Je ne comprends pas très bien la question. Veuillez la clarifier.

 
Maxim Dmitrievsky chatGPT.


Max, [26 Oct 2023, 18:59:31] :

Quel est le lien entre le dilemme déplacement-dispersion et la recherche d'un minimum global ?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 18:59:38] :

Le dilemme biais-dispersion fait référence au problème de sélection de modèle dans l'apprentissage automatique. Il indique qu'à mesure que la complexité du modèle augmente (par exemple, en ajoutant de nouvelles fonctionnalités ou en augmentant le nombre de paramètres), la variance (dispersion) des prédictions du modèle augmente, mais il peut y avoir un biais (erreur) en faveur des modèles les plus simples.

Comment est-il proposé de prendre en compte la variance (étendue) de l'erreur dans la classification plutôt que dans la régression ?

 
Maxim Dmitrievsky #:

Max, [26 Oct 2023, 19:03:50] :

Le modèle optimal devrait correspondre au minimum global dans ce cas, ou pas ?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 19:03:54] :

Non, le modèle optimal ne correspond pas nécessairement au minimum global. Dans certains cas, notamment en présence de bruit dans les données, le minimum global peut être atteint en ré-entraînant le modèle. Un tel modèle peut présenter une grande précision sur les données d'apprentissage, mais une mauvaise généralisation des données à de nouveaux exemples.


Au contraire, le modèle optimal doit être proche du minimum global, mais avec une variance et un biais faibles. Un tel modèle produira des prédictions stables et précises sur de nouvelles données. Il est donc important de tenir compte non seulement de la précision du modèle sur les données d'apprentissage, mais aussi de sa capacité à se généraliser à de nouveaux exemples lors de la sélection du modèle optimal.

Demandez à GPT, quand devez-vous arrêter l'entraînement ? Vous n'avez pas encore répondu à cette question.

 
Andrey Dik #:

Je ne comprends pas très bien la question. Veuillez la clarifier.

Mes calculs ne sont donc pas corrects et la réponse est "non" - vous avez une idée différente du processus.