L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 460

 
Mihail Marchukajtes:

Vous tournez autour du pot...... Donnez-moi un exemple précis... Alors nous pouvons continuer la conversation, mais autrement....

Il n'a pas d'arguments, s'il trouve quelque chose qu'il considère comme une erreur et le dit à Reshetov. De son côté, il ne l'a pas reconnu comme une erreur, ce qui signifie que ses arguments sont faibles ou erronés. Alors il se tait.


Des disputes dans un studio !

 
Toujours en train de tergiverser. Aucun argument pour soutenir ce que vous dites.
 
Vizard_:

Mishek, pourquoi ne dis-tu pas quelque chose ? Soutenez votre frère))))

Qu'est-ce que tu racontes ? Tu as des affaires ? Au moins les gens font quelque chose d'intéressant.

Écrivez quelque chose de bien

 

Il s'agit d'une très ancienne version, et je suis 100% d'accord avec Wizard pour dire qu'il est préférable de ne pas l'utiliser. Le modèle se réapprend, et lorsqu'à la fin il affiche une estimation de la précision sur les données hors échantillon, il l'affiche avec une erreur, la surestimant largement. J'ai même posté dans ce fil de discussion du forum un exemple où le modèle dans info après l'entraînement montrait une précision de 90% sur de nouvelles données et après avoir ajouté ces données à la formule et après avoir calculé le résultat en utilisant la formule, au moins dans excel, les prédictions étaient complètement aléatoires et seulement 50% de précision.

Yuri me l'a ensuite rappelé, a ajouté un comité de plusieurs modèles, a accéléré et nommé le tout jPrediction, a créé un site web pour ce modèle particulier. Le site a disparu, demandez à Mikhail la dernière version et les sources.
Je pense que ce modèle s'est avéré correct, mais compte tenu de la lenteur, il y a des choses beaucoup plus productives dans R.

 
Dr. Trader:

Il s'agit d'une très ancienne version, et je suis 100% d'accord avec Wizard pour dire qu'il est préférable de ne pas l'utiliser. Le modèle se réapprend, et lorsqu'à la fin il affiche une estimation de la précision sur les données hors échantillon, il l'affiche avec une erreur, la surestimant largement. J'ai même posté dans ce fil de discussion du forum un exemple où le modèle en info après l'entraînement a montré une précision de 90% sur les nouvelles données et après avoir ajouté ces données à la formule et calculé les résultats en utilisant la formule au moins dans excel il y avait un hasard complet et seulement 50% de précision dans les prédictions.

Yuri y a alors pensé, a ajouté un comité de plusieurs modèles, a accéléré et nommé le tout jPrediction, a créé un site web pour ce modèle. Le site a disparu, demandez à Michael la dernière version et les sources.
Je pense que ce modèle est correct, mais compte tenu de la lenteur, il y a des choses beaucoup plus productives dans R.

Je l'ai, je pense qu'il est aussi recyclé, juste un lien vers la description.
 
Vizard_:

Pourquoi tu cries alors ? Il n'est pas stupide. Wizard va toujours droit au but, même quand il est drôle))))
Jette le hochet, ne perds pas ton temps avec ça. Les outils et leurs combinaisons possibles exprimés hier.
Ne perdez pas votre temps sur Mishek, il écrit une chose implique une autre, et la res sur les oos est la troisième....


Oui, je chuchote. ) Impossible de trouver d'autres messages, supprimés par les modérateurs ou quelque chose comme ça.
 

Je vais bien... J'ai été absent pendant un petit moment. ....

Vraiment ce qui est décrit sur google est une ancienne version de celui-ci.... BUT !!!!!!!

Pour prouver raisonnablement que JPrediction est recyclé et ne fonctionne pas correctement, faisons une expérience. Après tout, tout s'apprend par comparaison. C'est exactement ce que je voulais faire.

Supposons que nous ayons un ensemble de données, que nous l'entraînions et que nous laissions ce modèle fonctionner pendant un certain temps, puis voyons le résultat...

Je forme un ensemble de données sur JPrediction, vous formez le même ensemble de données sur votre IA, choisissez un intervalle et voyez quel modèle fonctionnera plus longtemps et mieux......

C'est ce que je voulais dire quand je vous ai demandé d'entraîner mon jeu de données sur vos IA.

Et donc.... il n'est pas clair quels critères ont été utilisés pour décider que le prédicteur était sur-training ????? D'où tu sors ça, Sorcier. Avez-vous des preuves concrètes que l'Optimiseur ne fonctionne pas ? ? ??? Je le fais ???? Donnez-moi un exemple.....

De la même manière, je peux entraîner votre ensemble de données et vous pourrez alors voir par vous-même quel modèle fonctionne le mieux. Celui formé par vous ou celui formé par moi avec l'optimiseur....

 
Vizard_:

Non. Reshetov n'a pas compris que nous n'aurions pas dû fixer rigidement la normalisation selon la formule connue. Nous aurions dû faire
un interrupteur de déconnexion. De même, le découpage aléatoire est discutable et nous aurions dû au moins le signaler, mais il vaut mieux le désactiver, etc...

Oh oui, j'ai aussi écrit sur la panne. Donc pour les données normales, c'est bon, mais spécifiquement pour le forex, nous aurions dû faire une sorte de roll-forward. Ou au moins, divisez-le en deux parties en fonction de la date : entraînement avant la date et test après la date.

Quel est le problème de la normalisation ? Pour la neuronique, la plage d'entrée n'a aucune importance, des poids correctement initialisés digéreront tout. La normalisation n'interfère pas, mais elle n'aide pas du tout.
Bien que l'intuition dise que si l'entrée contient des nombres positifs et négatifs, il est préférable de ne pas décaler le zéro. Et R dit de ne pas mettre les prédicteurs à l'échelle 0-1, mais que sd(x) = 1.

 
Vizard_:

Non. Reshetov n'a pas compris que nous n'aurions pas dû faire la normalisation de manière rigide sur la base de la formule connue. Nous aurions dû faire
un interrupteur de déconnexion. La ventilation aléatoire est également en cause et nous aurions dû au moins la signaler, mais il vaut mieux la désactiver etc...


Pour ce qui est de la répartition aléatoire, je suis prêt à discuter.

Lorsque nous faisons une prédiction avec l'IA, alors OUI, la séquence de données importe du passé au futur, nous faisons une prédiction.

Mais lorsqu'il s'agit de classification, la séquence de données ne joue absolument aucun rôle, car nous avons une zone à diviser et à trouver l'hyperplan qui fera le mieux l'affaire dans l'espoir que la loi trouvée sera encore valable pendant un certain temps.

Tout comme la loi que nous avons trouvée lorsque nous avons construit le modèle de prédiction........

 

Sans compter que la description montre que le modèle enseigne délibérément les exemples les plus difficiles à apprendre, en écartant ceux qui sont faciles à apprendre. Eh bien, c'est juste moi... lu dans la description.... si je comprends bien...

Lorsque l'on divise l'échantillon en échantillons de formation et de test, c'est comme si les deux valeurs les plus proches tombaient dans des échantillons différents. Si je comprends bien, si nous avons deux vecteurs identiques, ils se retrouveront dans des échantillons différents, un dans l'échantillon d'entraînement et un autre dans l'échantillon de test... Alors...