réseau neuronal et entrées - page 40

 
nikelodeon:

Je réfléchis donc... comment interpréter le résultat... pour le rendre plus rapide et certainement pas à la main.........

Choix : c, c++, java, javascript, mql4, mql5
 
Reshetov:
A choisir : c, c++, Java, JavaScript, mql4, mql5

Yuri plz.

Pouvez-vous me dire comment relier MT4.5 avec JAVA ? Je veux vraiment essayer, au moins pour lire quelque chose.

 
J'ai fait une interpolation en Matlab. Bien sûr, il est encombrant, mais il a des formules longues, contrairement à Excel :-)
 
ivandurak:

Yuri plz.

Je veux utiliser votre mt4.5 dans JavA et je n'ai aucune idée de comment l'utiliser.

Il existe de nombreuses méthodes, mais elles sont toutes lourdes. Java n'a pas été conçu pour les applications de bas niveau, dans le but d'être indépendant de la plate-forme. Et MT manque de canaux de communication de haut niveau qui ne soient pas liés à la plateforme - Windows.

C'est pourquoi je ne les attache pas et j'écris des générateurs de code en Java, dont je peux facilement coller les résultats dans MQL, C ou Java.

 
Je n'ai pas encore une compréhension claire de la positivité de cette chose. Mais lors de l'optimisation, le nombre total d'erreurs n'est pas toujours compté correctement. Et pour une raison quelconque, le message Bad Data s'affiche à la fin du processus d'optimisation ! Qu'est-ce que ça peut être ?
 
nikelodeon:
Je n'arrive pas encore à comprendre la positivité de cette chose. Mais lors de l'optimisation, le nombre total d'erreurs n'est pas toujours compté correctement. Et dans ce cas, pour une raison quelconque, à la fin de l'optimisation, il affiche un message Bad Data !!! Qu'est-ce que ça peut être ?

Les mauvaises données signifient que le modèle se trompe dans ses "prédictions" plus souvent que si nous n'avions pas utilisé le modèle. Autrement dit, le modèle n'est pas adapté à l'application. La raison : des déchets dans les entrées. C'est-à-dire que les entrées sont insignifiantes.


Prenons les résultats des tests sur un échantillon de contrôle et compilons un tableau de contingence :


Prédiction du modèle \Nrésultat réel (valeur de la variable dépendante)
Résultat positif
Résultat négatif
Résultat positif
Vrai positif (TP)
Faux positifs (FP)
Résultat négatif
Faux négatif (FN)
Vrai négatif (TN)


Dans ce cas, la fréquence des résultats positifs dans l'échantillon, c'est-à-dire si nous prenons au hasard un échantillon quelconque de l'échantillon, sera égale à (TP + FN) / (TP + FN + FP + FN)

Si nous utilisons les prédictions du modèle, la fréquence des résultats positifs correctement prédits par le modèle sera égale à : TP / (TP + FP)

Pour que le modèle se trompe moins souvent en prédisant des résultats positifs pour les échantillons que si nous prenons des échantillons arbitraires de l'échantillon au hasard et traitons leurs résultats comme positifs par défaut, il est nécessaire et suffisant que la condition

TP / (TP + FP) > (TP + FN) / (TP + FN + FP + FN)

Si la condition n'est pas remplie, alors le modèle ne convient pas pour prédire des résultats positifs dans la pratique, car si nous prenons n'importe quel exemple arbitraire de l'échantillon et que nous traitons son résultat comme positif par défaut, nous nous tromperons aussi souvent que si nous traitons les résultats positifs prédits par le modèle.

 
Je vois, et je comprends que vous devez chercher un ensemble de données d'entrée qui réduit considérablement les erreurs et augmente la capacité de généralisation...... Et ce, avec suffisamment d'enregistrements de données .....
 
nikelodeon:
Je vois et je comprends qu'il est nécessaire de rechercher un tel ensemble de données d'entrée qui réduirait considérablement les erreurs et augmenterait la capacité de généralisation...... Et ce, avec suffisamment d'enregistrements de données .....

Exactement. C'est-à-dire qu'il est possible d'introduire jusqu'à 1023 prédicteurs (données d'entrée) à la fois. Ensuite, si aucun message BadData n'apparaît, excluez de l'échantillon (supprimez les colonnes de la feuille de calcul) les prédicteurs qui sont marqués comme en cours de réduction dans la description du modèle.

Un échantillon des prédicteurs restants peut déjà être exécuté à nouveau et sera soumis à des transformations de noyau. Et les transformations de noyaux permettront à leur tour une généralisation accrue.

Les transformations de noyau sont automatiquement activées si le nombre d'entrées (c'est-à-dire les colonnes avec les variables explicatives) ne dépasse pas 44. Si le nombre d'entrées ne dépasse pas 10, on inclut le MSUA, qui donne la généralisabilité maximale.

 
Super, sauf que lorsque vous augmentez la colonne de plus de 7, le temps d'optimisation augmente considérablement...... Je ne sais même pas comment augmenter la puissance. .... Je ne veux même pas parler de 10 colonnes. D'une longueur irréaliste.... Y a-t-il un moyen de le réparer ?
 
J'ai préparé un échantillon de données de 11 colonnes + 1 colonne de sortie. Question : Lors de l'exécution du Predictor, quel est le nombre de colonnes à spécifier ? Seulement la quantité de données (11) ou ensemble avec la sortie (12) ? ???