"New Neural" est un projet de moteur de réseau neuronal Open Source pour la plateforme MetaTrader 5. - page 67

 
Mischek:
Donc nous attendrons pour l'essayer. Je vais me moquer d'elle.)

Dis-moi ce que tu vas faire. Tout est fait pour le programmeur. C'est-à-dire l'API.

Mais pour l'utilisateur, il n'y a rien, j'ai l'habitude d'automatiser, avec une possibilité minimale d'intervention par des mains non autorisées. C'est-à-dire qu'il n'y a pas d'interface utilisateur pour vous.

Urain:

Mais il ne suffit pas d'utiliser le bouton [make it good for me], il faut aussi apprendre les bases.

Il existe un moyen d'obtenir l'exposant de Hearst(yemnip) pour l'état du système prédit pour la méthode de la fenêtre de signal commun.

Il est vrai qu'il n'est pas mis en œuvre ...

 
LeXpert:

Dis-moi ce que tu vas faire. Tout est fait pour le programmeur. C'est-à-dire l'API.

Il n'y a rien pour l'utilisateur, je l'automatise généralement, avec une possibilité minimale d'intervention par des mains non autorisées. C'est-à-dire sans interface utilisateur.



Je vous l'avais dit ((

Ne vous donnez pas la peine.

 
Mischek:

Je vous l'avais dit ((

Ensuite, vous devrez choisir les neuro-packages. Essayez de regarder le verso du vôtre, vous ne pouvez pas obtenir un bouton "pish", seulement pour une tâche spécifique.

Vous devez préparer les données, les alimenter correctement, les former correctement et évaluer le résultat correctement.

 

Ceci est en fait dans le fil "Intéressant...", mais le sujet est plus proche ici.

Évolution et vie artificielle

et il y a de la vie ici http://www.math.com/students/wonders/life/life.html
Эволюция и искусственная жизнь
  • alt-future.narod.ru
Искусственная жизнь (ИЖ, ALife) как отдельное научное направление выделилась из теории искусственного интеллекта (ИИ) в 80-х гг. прошлого века, когда состоялась первая Международная конференция ALife I (1989 г., Лос-Аламос). Вскоре за ней последовали Европейская конференция по искусственной жизни и Международная конференция по...
 

Messieurs, qui êtes familiers avec les algorithmes d'apprentissage énumérés ci-dessous,

Liste des variantes du trait d'enseignement.

Par exemple, dans un backprop, il y a d'abord un mouvement avant de calcul, puis un mouvement arrière de propagation d'erreur.

Quels autres mouvements existe-t-il dans de nombreux algorithmes d'apprentissage ?

Ceci est nécessaire afin de mettre les fonctions virtuelles nécessaires dans le moteur.

ZZZY ci-dessous est un tableau, qui sait ce que écrire ce mouvement option (s) utilisé dans ces algorithmes.

 
Paradigme Règle d'apprentissage Architecture Algorithme d'apprentissage Tâche
Avec le professeur Correction des erreurs Perceptron monocouche et multicouche Algorithmes d'apprentissage du perceptron
Propagation inverse
Adaline et Madaline
Classification de modèles
Approximation de fonctions
Prédiction, contrôle
Boltzmann Récurrence Algorithme d'apprentissage de Boltzmann Classification des motifs
Hebb Propagation directe multicouche Analyse discriminante linéaire Analyse des données
Classification des modèles
Concours Concours Quantification vectorielle Catégorisation intraclasse Compression des données
Réseau ART ARTMap Classification des images
Sans professeur Correction des erreurs Propagation directe multicouche Projection de Sammon Catégorisation en classe Analyse des données
Hebb Propagation directe ou concurrence Analyse en composantes principales Analyse des données
Compression des données
Réseau Hopfield Apprentissage de la mémoire associative Mémoire associative
Concours Concours Quantification vectorielle Catégorisation
Compression de données
Kohonen SOM Kohonen SOM Catégorisation
Analyse des données
Réseaux ART ART1, ART2 Catégorisation
Mixte Correction d'erreur et concurrence Réseau RBF Algorithme d'apprentissage RBF Classification des motifs
Approximation des caractéristiques
Prédiction, contrôle
 

OK, le silence général, je le tiens de la complexité de la question.

Laissez-moi reformuler la question :

Pour quel algorithme d'apprentissage, le retour en arrière des couches n'est pas approprié ?

 
Urain:

OK, le silence général, je le tiens de la complexité de la question.

Laissez-moi reformuler la question :

Pour quel algorithme d'apprentissage, le backtracking n'est pas approprié ?

Plutôt, "Pour quel algorithme d'apprentissage, le retour en arrière des couches n'est pas nécessaire ?".

Je suis sûr d'une chose, l'algorithme génétique n'en a pas besoin.

Dans d'autres cas, je peux me tromper, elle l'est.

 
son.humain :

Plutôt, "Quel algorithme d'apprentissage ne nécessite pas de retour en arrière de couche ?".

Je suis sûr d'une chose, l'algorithme génétique n'en a pas besoin.

Dans d'autres cas, je peux me tromper, c'est le cas.


L'essence de ce qui, fixer pour l'algorithme d'apprentissage (pour ajuster les poids) que le coup en arrière de l'énumération des couches, si nous n'avons pas besoin pour l'apprentissage d'un mouvement de la grille elle-même, nous pouvons appeler un coup en avant de calcul d'une grille, si elle est nécessaire, nous pouvons appeler et inverser.

J'ai juste un doute, peut-être qu'un algorithme a besoin de l'avancement du calcul de la grille et de l'avancement des poids d'ajustement ?

Je ne connais pas vraiment ces algorithmes, mais je ne peux pas tout savoir.

 

Bonjour, ce n'est pas vraiment le sujet, mais j'ai besoin d'un conseil.

On m'a confié une tâche. J'ai besoin de sélectionner la fenêtre de temps adaptative du moment actuel, au lieu de la définir dans les paramètres, par exemple 10 barres. Ensuite, parcourez l'historique en profondeur pour déterminer à quel cluster appartient la fenêtre sélectionnée. Les réseaux neuronaux peuvent-ils s'en charger ou est-il plus facile de faire autre chose ? Si vous le voulez bien, envoyez-moi un livre sur les grilles au niveau des saucisses uniquement.