réseau neuronal et entrées - page 37

 

D'après ce que j'ai lu, vous semblez beaucoup aimer la transformation de Hartley. Je me demande pourquoi. Je ne peux pas me prononcer sur votre préférence, mais je pense que c'est très compliqué. Je pense qu'il est plus facile d'utiliser la décomposition des séries en tendance/saison, de faire une prédiction pour chacune séparément et de renvoyer la somme au graphique.

IMHO.

J'ai déjà écrit ci-dessus qu'un réseau de neurones ou un ensemble de réseaux de neurones n'est pas le meilleur modèle pour la prévision, en particulier pour les séries non stationnaires.

Il existe aujourd'hui des modèles plus efficaces.

Prédire les valeurs futures d'une série (régression) est tentant mais ingrat. J'y ai consacré beaucoup de temps sans résultat tangible.

Maintenant seulement la classification, le résultat est excellent.

Bonne chance.

 
vlad1949:

D'après ce que j'ai lu, vous semblez beaucoup aimer la transformation de Hartley. Je me demande pourquoi.

Maintenant, juste la classification, le résultat est excellent.



Je n'ai pas de préférence particulière pour Hartley, je l'ai choisi car il est plus facile à utiliser, sans la composante imaginaire.

La classification est un pouvoir. Je pense utiliser la classification pour diviser une base de données de formation en plusieurs parties, chaque partie ayant sa propre classe.

J'ai utilisé des ensembles de réseaux neuronaux dans mes expériences parce que je voulais améliorer la précision des prévisions, à l'avenir je pense que j'utiliserai des ensembles pour la formation sur les bases de formation classées.

Nous vous remercions de votre intérêt.

 

J'ai répondu dans votre fil de discussion.

"Application des ensembles de réseaux neuronaux dans le domaine des excréments...." typo ???

Bonne chance

 
Corrigé.
 
vlad1949:
Non. Ensemble est meilleur que DT, mlp et svm. Les chiffres RF et ada sont donnés ensuite et ils sont meilleurs.

Pour plus de clarté, il est probablement préférable de prendre quelque chose de plus simple...
...disons un Fisher's Iris classique et regardons et voyons... + temps de calcul approximatif...
(setosa = 1,virginica = 0,versicolor = -1 (d'autres valeurs sont également possibles))
Couleur=input...noir=ouch (vue iris) sur 1 écran...suivant...
Sur tous les écrans bleu = aïe... rose = sortie du modèle...

50% graf= échantillonnage ob...50%= échantillonnage test...


Dossiers :
 
kk (cartes koh)
15x15=2-3 sec


20x20=3-4 sec

Mbs (méthode du voisin) = 1 seconde ou moins


 
Ns (réseau neuronal - couches kr))

3x-sec (4-2-1)=20 sec ou plus



C'est là que ça devient intéressant...
Nous pouvons voir le chatter à 0 (dans notre exemple nous pouvons le supprimer avec une simple action (filtre)
afin de ne pas utiliser des ns plus lourds à l'avenir)
Il est probable que quelque chose de similaire vous arrive... par conséquent, il existe une erreur de calcul plus grave ...
Je ne sais pas ce qu'est le ratio d'affectation dans R et comment il est calculé, et je peux me tromper...

des ns plus lourds...
3x scrsl (8-4-2)=30 sec ou plus
une meilleure coupe...

etc....


======================

En résumé...

1. de la même manière, il est possible de résoudre avec succès des problèmes de classification en utilisant différents algorithmes.
2.le temps de résolution du problème dépend de l'algorithme appliqué

3.pour classer les données de front, il vaut mieux utiliser des algorithmes spécialement conçus pour cela...

 
Vizard:

Il est probablement préférable d'utiliser quelque chose de plus simple pour illustrer le propos...
...disons un Fisher's Iris classique et regardons et voyons... + temps de calcul approximatif...
(setosa = 1,virginica = 0,versicolor = -1 (d'autres valeurs sont également possibles))
Couleur=input...noir=ouch (vue iris) sur 1 écran...suivant...
Sur tous les écrans, bleu=ouch... rose= sortie du modèle...

50% de graffitis=échantillonnage objectif...50%=essais...



C'est parti. Devons-nous classer les iris ? Prenez des données spécifiques sur notre sujet et donnez un exemple.

Pourquoi faire de l'exercice sur les iris ? Laissez les autres s'exercer sur des chattes.

Débattre des mérites des méthodes est une tâche ingrate. Chacun a ses propres préférences. Lorsque je choisis une méthode, je pars d'un principe simple : une méthode doit fonctionner avec diverses données d'entrée (tant numériques que nominales) sans aucune transformation préalable . Laissez-moi vous expliquer pourquoi. Il existe un grand nombre de méthodes de prétraitement des données d'entrée (j'en connais plus de 20). Et en fonction de cela, nous obtenons des résultats différents. Nous devons donc sélectionner l'ensemble optimal de données d'entrée, la manière optimale de préparer ces données et la méthode optimale qui donne les meilleurs résultats, quel que soit le critère. Et si nous ne pouvons pas nous débarrasser du premier et du dernier, nous devons au moins nous débarrasser du second.

Pour ce qui est du critère de précision, il s'agit du rapport entre le nombre de cas correctement classés d'une certaine classe et le nombre total de cas de la même classe.

Bonne chance

 
vlad1949:


Personnellement, lorsque je choisis une méthode, je pars d'un principe simple : la méthode doit fonctionner avec différentes données d'entrée (tant numériques que nominales) sans aucune prétransformation. Laissez-moi vous expliquer pourquoi. Il existe un grand nombre de méthodes de prétraitement des données d'entrée (j'en connais plus de 20). Et en fonction de cela, nous obtenons des résultats différents. Nous devons donc sélectionner l'ensemble optimal de données d'entrée, la manière optimale de préparer ces données et la méthode optimale qui donne les meilleurs résultats, quel que soit le critère. Et si nous ne pouvons pas nous débarrasser du premier et du dernier , nous devons au moins nous débarrasser du second.

Vous êtes un "homme effrayant" ;))
pour cette approche ; oui...une forêt aléatoire est bien...
bonne chance...
 
Vizard:
Vous êtes un "homme effrayant" ))))
pour cette approche oui...les bois aléatoires sont bien...
bonne chance...


Par hasard, vous ne voulez pas dire RandomForest ?