Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Je réfléchis donc... comment interpréter le résultat... pour le rendre plus rapide et certainement pas à la main.........
A choisir : c, c++, Java, JavaScript, mql4, mql5
Yuri plz.
Pouvez-vous me dire comment relier MT4.5 avec JAVA ? Je veux vraiment essayer, au moins pour lire quelque chose.
Yuri plz.
Je veux utiliser votre mt4.5 dans JavA et je n'ai aucune idée de comment l'utiliser.
Il existe de nombreuses méthodes, mais elles sont toutes lourdes. Java n'a pas été conçu pour les applications de bas niveau, dans le but d'être indépendant de la plate-forme. Et MT manque de canaux de communication de haut niveau qui ne soient pas liés à la plateforme - Windows.
C'est pourquoi je ne les attache pas et j'écris des générateurs de code en Java, dont je peux facilement coller les résultats dans MQL, C ou Java.
Je n'arrive pas encore à comprendre la positivité de cette chose. Mais lors de l'optimisation, le nombre total d'erreurs n'est pas toujours compté correctement. Et dans ce cas, pour une raison quelconque, à la fin de l'optimisation, il affiche un message Bad Data !!! Qu'est-ce que ça peut être ?
Les mauvaises données signifient que le modèle se trompe dans ses "prédictions" plus souvent que si nous n'avions pas utilisé le modèle. Autrement dit, le modèle n'est pas adapté à l'application. La raison : des déchets dans les entrées. C'est-à-dire que les entrées sont insignifiantes.
Prenons les résultats des tests sur un échantillon de contrôle et compilons un tableau de contingence :
Dans ce cas, la fréquence des résultats positifs dans l'échantillon, c'est-à-dire si nous prenons au hasard un échantillon quelconque de l'échantillon, sera égale à (TP + FN) / (TP + FN + FP + FN)
Si nous utilisons les prédictions du modèle, la fréquence des résultats positifs correctement prédits par le modèle sera égale à : TP / (TP + FP)
Pour que le modèle se trompe moins souvent en prédisant des résultats positifs pour les échantillons que si nous prenons des échantillons arbitraires de l'échantillon au hasard et traitons leurs résultats comme positifs par défaut, il est nécessaire et suffisant que la condition
TP / (TP + FP) > (TP + FN) / (TP + FN + FP + FN)
Si la condition n'est pas remplie, alors le modèle ne convient pas pour prédire des résultats positifs dans la pratique, car si nous prenons n'importe quel exemple arbitraire de l'échantillon et que nous traitons son résultat comme positif par défaut, nous nous tromperons aussi souvent que si nous traitons les résultats positifs prédits par le modèle.
Je vois et je comprends qu'il est nécessaire de rechercher un tel ensemble de données d'entrée qui réduirait considérablement les erreurs et augmenterait la capacité de généralisation...... Et ce, avec suffisamment d'enregistrements de données .....
Exactement. C'est-à-dire qu'il est possible d'introduire jusqu'à 1023 prédicteurs (données d'entrée) à la fois. Ensuite, si aucun message BadData n'apparaît, excluez de l'échantillon (supprimez les colonnes de la feuille de calcul) les prédicteurs qui sont marqués comme en cours de réduction dans la description du modèle.
Un échantillon des prédicteurs restants peut déjà être exécuté à nouveau et sera soumis à des transformations de noyau. Et les transformations de noyaux permettront à leur tour une généralisation accrue.
Les transformations de noyau sont automatiquement activées si le nombre d'entrées (c'est-à-dire les colonnes avec les variables explicatives) ne dépasse pas 44. Si le nombre d'entrées ne dépasse pas 10, on inclut le MSUA, qui donne la généralisabilité maximale.