Comment travaillez-vous avec les réseaux neuronaux ? - page 3

 
Je comprends qu'il n'y a pas de sources dans le domaine public. Sont-ils disponibles uniquement au cas par cas ? Si cela ne vous dérange pas, veuillez les envoyer à l'adresse électronique ci-dessus.
 

"Béni soit celui qui croit, il a chaud dans le monde"...

 

"Блажен, кто верует, тепло тому на свете"...

Mec, trois pages dans le fil et je n'ai pas eu une seule réponse à mes questions. Il n'est pas difficile d'aider. Je demande et je demande le vrai truc. Merci à la communauté.

 
sayfuji:

"Béni soit celui qui croit, il a chaud dans le monde"...

Mec, trois pages dans le fil et je n'ai toujours pas eu une seule réponse à mes questions. C'est si difficile que ça d'aider ? Je demande et je demande le vrai truc. Merci à la communauté.

Vous ne pouvez pas le nier - sachez soutenir le sujet sans dire un mot sur le fond.

 

Sayfuji, tu devrais au moins faire quelques recherches. Il existe de nombreux fils de discussion sur les réseaux neuronaux ici.

Vous pouvez également consulter ce site, il est également un visiteur très connu et respecté de ce forum.

http://fxreal.ru/forums/index.php

 

J'ai abordé la question de manière responsable, mais le respecté LeoV a maintenu la conversation, mais n'a pas répondu à l'essence de la question. Il a vécu sur le forum alp...ri pendant un certain temps, donc dans ses connaissances et compétences je ne doute pas, donc j'ai attendu sa réponse, mais elle n'était pas là.

PS Prival, c'est un très bon site, je l'utilise depuis quelques mois maintenant. klot bien fait.

 
J'ai peut-être été mal compris. Sur le fond (ci-après mon avis purement privé) ;

1) c'est l'idée, et non les moyens de sa réalisation logicielle, qui importe le plus. L'idée est bien décrite dans l'extrait de St. Lem ci-dessus ;
2) Personne ne donnera les sources d'un réseau qui fonctionne vraiment pour rien, très probablement ;
3) à propos des programmes de réseaux neuronaux prêts à l'emploi : il est impossible de créer une "théorie universelle de tout", donc personne n'est à l'abri d'une mise en œuvre indépendante de ses idées, si le but est de développer quelque chose de réalisable. Pour cette raison, même Matlab et sa puissante boîte à outils, par exemple, ne m'ont pas satisfait. Le NSDT est, bien sûr, loin d'atteindre le niveau de Matlab.

Exemple.

Je dois dire tout de suite que je considère toutes sortes de prévisions sur le prix lui-même, surtout jusqu'à la troisième ou quatrième décimale, comme un exercice intrinsèquement dénué de sens. De telles constructions, à mon avis, ne sont rien d'autre que de l'auto-illusion. Au lieu de cela, comme quelqu'un l'a suggéré dans l'un des fils de discussion locaux, vous pouvez essayer de faire une détection précoce du mouvement du prix quand il passera pas moins d'un nombre prédéterminé de points. Ce nombre peut être déterminé sur la base de l'analyse du comportement antérieur des prix (je pense que Composter a résolu ce problème lorsqu'il a défini une tendance/plat).

Une hypothèse de travail : certains mouvements de prix forts ont des "précurseurs" reproductibles. Nous pouvons essayer d'apprendre au réseau à reconnaître ces "précurseurs" tout en travaillant "à partir du marché".

La conception d'un réseau ("cristal" dans la terminologie de St. Lem comme unité structurelle de base d'un grand réseau, c'est-à-dire "nuage") en termes généraux :


- Un réseau Oya de compression auto-adaptatif multicouche à sortie unique avec la possibilité de sélectionner le type et les paramètres de la fonction de transfert des couches d'entrée, intermédiaire et de sortie. Un tel réseau peut remplir simultanément les fonctions de mémoire adaptative et de classification des vecteurs d'entrée ;

- le nombre de couches est déterminé par la dimensionnalité du vecteur d'entrée, c'est-à-dire que le réseau est généré automatiquement par la définition et l'initialisation/la lecture des tableaux de travail ;

- le nombre de neurones dans la couche cachée diminue progressivement avec l'augmentation du nombre de couches N selon la loi 1/(2^N) ("résoudre les cristaux") ou 1/N ("se souvenir des cristaux") ;

- le paramètre de non-linéarité dans la couche cachée peut dépendre du nombre de couches ;

- il existe un mode de rétroaction interne commutable et une entrée externe commutable pour communiquer avec d'autres "cristaux" afin de former un "nuage".

L'un des points les plus importants et les plus subtils est la formation du vecteur d'entrée. Jusqu'à présent, juste pour tester et contrôler le fonctionnement du réseau, il est formé de manière conventionnelle : y[] = (x[] - mean(x[])) / sigma(x[]). (Cette partie du problème n'est pas encore complètement résolue).

L'"apprentissage" du réseau se fait a posteriori par la règle heuristique : après que le prix a dépassé le nombre de points spécifié, l'ordre d'ajuster les poids par le vecteur d'entrée décalé, c'est-à-dire "précédent", est donné ; le réseau le "mémorise" en tenant compte des informations accumulées précédemment. On suppose que le réseau ainsi entraîné reconnaîtra les précurseurs et sera donc capable de donner des signaux de négociation en temps réel. Pour l'instant, "le cristal individuel ne volait pas tant qu'il rebondissait..." (voir ibid.).

L'interprétation de la sortie et la formation automatique du "nuage" lui-même, c'est-à-dire le neuro-comité, n'ont pas encore été mises en œuvre. Il n'y a pas encore de photos particulièrement belles non plus.

Personnellement, je trouve cette approche prometteuse. Une fois encore, tout ce qui précède est mon opinion purement personnelle.
 
sayfuji:

J'ai abordé la question de manière responsable, mais le respecté LeoV a maintenu la conversation, mais n'a pas répondu à l'essence de la question. Il vit sur le forum alp...ri depuis un certain temps, je ne doute donc pas de ses connaissances et de ses compétences, j'ai donc attendu sa réponse, mais cela ne s'est pas passé ainsi.

PS Prival, c'est un très bon fil, je l'utilise depuis quelques mois maintenant. klot bien fait.

Et de quoi êtes-vous réellement insatisfait ? Leov a en fait répondu à votre question subgraphique initiale, bien que vous essayiez d'argumenter le contraire. Et le fait qu'il n'ait pas partagé ses sources et affiné d'autres détails, cela ne fait pas partie de ses fonctions.


Posez une question insolente, comme le font certains utilisateurs du forum, par exemple : "Montrez-moi le code source d'un réseau neuronal super-profilé" et vous obtiendrez des réponses tout à fait adéquates.

 
Yuri, malheureusement (ou heureusement ?), je ne suis pas très bon en fiscalité. Mais peu importe. Merci alexjou pour la réponse mâchée. Je n'ai pas d'illusions, mais je m'intéresse à Oya. Je voudrais vous demander où vous pouvez le lire.
 
"Oya net" est juste un raccourci libre pour "Oya-adjusted weights net". La règle d'Oya elle-même est une modification de la règle de Hebb, excluant la croissance infinie des poids par leur autonormalisation dans le processus d'ajustement ; dans ce cas, les extrémités des vecteurs de poids sont situées approximativement dans une hypersphère unitaire. Voir, par exemple, ici : A.A. Ezhov, S.V. Shumsky. "La neuro-informatique et ses applications en économie et en affaires". Moscou, 1998 (vous pouvez trouver les conférences en format pdf sur Internet). Un très bon livre également, bien qu'un peu difficile pour un débutant : Stanislav Osovsky. "Réseaux neuronaux pour le traitement de l'information. Finances et statistiques, 2002 (disponible sur Internet en format djvu). Il existe de nombreux autres ouvrages sur les réseaux sur l'Internet.