"New Neural" est un projet de moteur de réseau neuronal Open Source pour la plateforme MetaTrader 5. - page 35

 
vous esquissez un constructeur et ensuite vous verrez dans la composition comment l'appeler...
 
Mischek:
Idéalement, il devrait entrer en résonance (être convivial) avec le logo de metaqvot.

MétaPerceptif ;) (Perception du percipient)

il y a même une idée pour le logo :) -- Le nom du robot qui renifle la fleur - un jeu sur l'ambiguïté du mot Perceptive. Plus le robot est rare, mieux c'est :)

________

simplement et avec goût Neural. ou TheNeural :)

________

Neural Nets eXtension (NNX).

________

Neural Nets Xpert (NNXpert) :))))

________

Boîte à outils pour les réseaux neuronaux (NNToolkit)

________

Outils pour réseaux neuronaux (NNTools)

 
LeXpert:

Je suis tout à fait favorable à Neural Nets eXtension (NNX).

surtout cette partie de Neural NetseXtension (NNX) parce que nous allons tout faire foirer comme il faut.

N'est-il pas préférable de se transformer en Neural Universal eXtension (NUX) presque LINUX

 
Oui, nous devrons soit faire un vote plus tard, soit soumettre les options aux Metakvots.
 
gpwr:
Si la question s'adresse à moi, dans la littérature, les réseaux que j'ai décrits sont appelés réseaux neuronaux hiérarchiques.

EMNIP, le cognitron est quelque chose de similaire.

J'attends la suite :)

 
LeXpert:
Oui, nous devrions soit faire un vote, soit jeter des options à Metakvotam après.

Pourquoi cette précipitation, en principe nous devrions aussi considérer dans le nom du produit la possibilité d'échanger avec d'autres neuro packs et la génération d'un conseiller final prêt à l'emploi.

Le produit est plus que NN. Dans le processus, il peut se transformer en quelque chose d'utile.

 
Mischek:

Le produit est plus grand que NN.

Compris. Mais lié spécifiquement à NN. Le lien sera plus précis.

J'ai peur que nous obtenions quelque chose comme "AWVREMGVTWNN" :) L'essentiel est de transmettre l'essence, les nuances ne sont pas si importantes.

 

Informations sur

-Descente du gradient conjugué

-BFGS

 

Méthode du gradient conjugué (wiki)

-BFGS (wiki)


Метод сопряжённых градиентов — Википедия
  • ru.wikipedia.org
Метод сопряженных градиентов — метод нахождения локального минимума функции на основе информации о её значениях и её градиенте. В случае квадратичной функции в минимум находится за шагов. Определим терминологию: Векторы называются сопряжёнными, если: Теорема (о существовании). Существует хотя бы одна система сопряжённых направлений для...
 

Lecture 3. Le modèle HMAX

Pour comprendre les détails de la transformation biologique des informations visuelles, nous allons examiner le modèle populaire de reconnaissance des objets HMAX ("Hierarchical Model and X"). Ce modèle a été créé par des chercheurs du MIT dirigés par Tomaso Poggio à la fin des années 1990. La description et le code du modèle se trouvent ici

http://riesenhuberlab.neuro.georgetown.edu/hmax.html

Avec quelques légères modifications, HMAX fait un bien meilleur travail que les réseaux neuronaux classiques dans la reconnaissance des visages. Cette photo décrit assez bien le modèle :

La première couche du modèle (S1) est constituée de filtres de sections droites et courtes de quatre inclinaisons différentes (verticale, horizontale, inclinaison de 45 degrés et inclinaison de 135 degrés - représentées en rouge, jaune, vert et bleu), chacune de taille 16, de sorte que chaque section de l'image d'entrée est "couverte" par 4 x 16 filtres. Chaque filtre est un neurone dont la sortie est égale à la somme des pixels de l'image dans une certaine zone de l'image multipliée par les poids d'entrée de ce neurone. Ces poids d'entrée sont décrits par la fonction de Gabor. Voici un exemple de ces filtres (pondérations) :

La deuxième couche du modèle (C1) est constituée de neurones complexes. Chaque neurone complexe sélectionne l'activation maximale (sortie) des neurones S1 qui filtrent les sections de même pente dans différentes parties de l'image et dans deux dimensions adjacentes. Ainsi, ce neurone complexe présente une invariance par rapport à la position et à la taille des segments élémentaires, ce qui est expliqué ci-dessous :

Les neurones de la troisième couche du modèle (S2) reçoivent des entrées des neurones C1. On obtient ainsi des filtres de formes plus complexes (notés P1, P2,...) qui sont composés de segments élémentaires. Pour chaque figure, nous disposons de 4 jeux de filtres de tailles différentes. Les filtres de chaque ensemble diffèrent par leur position spatiale (ils "regardent" différentes parties de l'image).

Les neurones de la quatrième couche du modèle (C2) choisissent l'activation maximale des neurones S2 qui filtrent la même figure mais de taille et de disposition spatiale différentes. Il en résulte des filtres de formes plus complexes qui sont invariants par rapport à leur position et leur taille.

Références :

T. Serre, "Robust object recognition with cortex-like mechanisms," IEEE Trans. sur les motifs, août 2006.

http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf