Réseaux neuronaux artificiels. - page 3

 
gpwr:

Le réseau est un outil, une sorte de fonction non linéaire universelle qui peut être optimisée (ajustée) pour différentes données (entrée-sortie). Cette fonction ne permet pas d'extraire des régularités.

C'est vrai :)

Le SN est formé sur les données d'entrée-sortie et si les modèles sont universels pour la population générale, alors le SN fonctionnera avec succès en dehors de l'échantillon.

Et l'isolement des régularités est une couche supplémentaire de travail pour analyser les poids formés et les fonctions de transfert de NS, je ne l'ai jamais fait personnellement.

Le cerveau humain est capable d'apprendre des modèles non linéaires avec beaucoup de succès. Prenons, par exemple, le calcul de la trajectoire d'un boomerang lancé par des tribus de bushmen quelque part en Afrique. La nature nous a tout donné. Vous pouvez délibérément apprendre des modèles non linéaires sur le marché. J'aimerais personnellement écrire un programme d'apprentissage VBA du type suivant : je vais afficher une série de petites cotations, disons 100-150 barres sur un graphique et je vais devoir deviner la direction générale du prix à l'avenir, disons pour 50 barres. Je vais appuyer sur les boutons haut/bas et le programme enregistrera ma réponse et indiquera si j'ai deviné ou non. Après cela, le graphique se déplacera de manière aléatoire sur l'axe du temps, etc. En conséquence, soit j'apprendrai (le pourcentage de directions devinées augmentera), soit je n'apprendrai pas (comme, désolé, j'ai échoué). Ce serait un bon exemple de la capacité d'entraînement du cerveau.

 
gpwr:

Le réseau est un outil, une sorte de fonction non linéaire universelle qui peut être optimisée (ajustée) pour différentes données (entrée-sortie). Cette fonction ne permet pas de relever des régularités. Vous pouvez tout aussi bien affirmer qu'un polynôme ajusté à une courbe lisse trouve ses motifs cachés. Sortez de la plage de données à laquelle la fonction a été adaptée et vous savez ce que vous obtiendrez comme exemple de régression polynomiale. D'ailleurs, le nombre de paramètres à optimiser dans le réseau est beaucoup plus important que dans l'arbre de décision, car le réseau contient des sous-connexions qui n'influencent pas les bonnes décisions et dont les poids sont diminués pendant l'optimisation.

C'est une chose d'approximer les données du marché par un réseau, et c'en est une autre de faire de la reconnaissance de formes.

La seconde semble plus correcte - après tout, c'est le cerveau du trader qui reconnaît les images.

 
joo:

C'est une chose de rapprocher les données du marché par un réseau, et c'en est une autre de reconnaître des images.

La seconde semble plus correcte - après tout, c'est le cerveau du trader qui reconnaît les images.

Les ingénieurs de Google ont alimenté le réseau d'auto-apprentissage (de quel type je ne sais pas) avec des captures d'écran de vidéos YouTube et le réseau a appris à distinguer les chats comme une classe distincte. Il est possible d'estimer la quantité d'informations qui circulaient dans la RAM. Théoriquement, il est possible d'envoyer des graphiques au réseau, mais il faut un énorme réseau complexe et un ordinateur adapté. Il est plus facile d'envoyer un modèle de prix normalisé dans la plage de [0;1], par exemple. Et la stationnarité est préservée et c'est facile à mettre en œuvre. Fondamentalement, le trader voit le modèle de prix, tandis qu'il y a des traders qui tradent en utilisant un graphique pur (sans indicateurs). Mais apparemment, le réseau doit être constamment réentraîné. Parce que notre cerveau met aussi constamment à jour les connexions et améliore notre compréhension du processus.
 
alexeymosc:
Les ingénieurs de Google ont alimenté le réseau d'auto-apprentissage (de quel type je ne sais pas) avec des captures d'écran de vidéos YouTube et le réseau a appris à séparer les chats dans une classe distincte. Il est possible d'estimer la quantité d'informations qui tournaient dans la mémoire vive. Théoriquement, il est possible d'envoyer des graphiques au réseau, mais il faut un énorme réseau complexe et un ordinateur adapté. Il est plus facile d'envoyer un modèle de prix normalisé dans la plage de [0;1], par exemple. Et la stationnarité est préservée et c'est facile à mettre en œuvre. Fondamentalement, le trader voit le modèle de prix, tandis qu'il y a des traders qui tradent en utilisant un graphique pur (sans indicateurs). Mais apparemment, le réseau doit être constamment réentraîné. Parce que notre cerveau met aussi constamment à jour les connexions et améliore notre compréhension du processus.
Lorsqu'un trader "voit" un modèle, il n'analyse pas une simple série de prix. Aucun cerveau humain ne dispose d'une telle quantité de mémoire vive (il s'agit, soit dit en passant, d'une mémoire vive de réflexion - quelques centaines d'octets au maximum). Par conséquent, le prétraitement du signal est obligatoire.
 
alsu:
Lorsqu'un trader "voit" un modèle, il n'analyse pas une simple série de prix. Aucun cerveau humain ne dispose d'une telle quantité de mémoire vive (d'ailleurs, il s'agit d'une mémoire vive de réflexion - quelques centaines d'octets au maximum). Par conséquent, le prétraitement du signal est obligatoire.

Je n'avais pas entendu parler de ça. OK. Alors bien sûr, il est difficile de comprendre quels aspects de la CD sont perçus par le cerveau. C'est le problème avec toutes les tentatives de faire quelque chose de similaire sur la base de NS. Les signes importants des informations entrantes ne sont pas définis, nous devons donc deviner.

Mais - personnellement, je comprends surtout les courbes et les pointes :)

 
alexeymosc:

Je n'avais pas entendu parler de ça. OK. Alors bien sûr, il est difficile de comprendre quels aspects de la CD sont perçus par le cerveau. C'est le problème avec toutes les tentatives de faire quelque chose de similaire sur la base de NS. Les signes importants des informations entrantes ne sont pas définis, nous devons donc deviner.

Mais - personnellement, je comprends surtout les courbes et les pics :)

Il me semble très prometteur de débarrasser l'information sur les prix du bruit au moyen de la NS. Fondamentalement, un signal utile est décrit par un petit nombre de paramètres, par exemple, si nous prenons un jour sur M1, ils peuvent être de 10-20 (au lieu de 1440), ce qui est facilement compréhensible par l'esprit humain. La question est de savoir comment dégager correctement le signal sans perdre d'informations importantes. C'est là qu'un réseau peut être utile, à mon avis. Eh bien, et pour traiter (pour classer, cluster, régression, etc) la partie restante, il est possible par toute méthode appropriée, et pas le fait, d'ailleurs, que NS sera le meilleur choix. Quoi qu'il en soit, il existe de nombreux outils développés pour de telles tâches, et la raison, et non des moindres, est qu'ils fonctionnent tous aussi mal))).
 
alsu:
Je pense qu'il est très prometteur de débarrasser les informations sur les prix du bruit avec l'aide de NS. Fondamentalement, un signal utile est décrit par un petit nombre de paramètres, par exemple, si nous prenons un jour sur M1, il peut y avoir 10-20 (au lieu de 1440), ce que le cerveau humain peut facilement comprendre. La question est de savoir comment dégager correctement le signal sans perdre d'informations importantes. C'est là qu'un réseau peut être utile, à mon avis. Eh bien, et pour traiter (pour classer, cluster, régression, etc) la partie restante, il est possible par toute méthode appropriée, et pas le fait, d'ailleurs, que NS sera le meilleur choix. Quoi qu'il en soit, il existe de nombreux outils développés pour de telles tâches, et la raison, et non des moindres, est qu'ils fonctionnent tous aussi mal))).
Alexey, tu parles directement du problème de la sélection des caractéristiques, c'est-à-dire, en langage clair, comment choisir le 1 % de données de l'ensemble disponible qui est le plus informatif pour une prédiction du type : entrer long, entrer short, attendre. Mais même en appliquant des techniques sophistiquées à ce problème, les pièges apparaissent rapidement. Tout d'abord, la sauce à utiliser pour alimenter les points de données sélectionnés n'est pas claire : les valeurs brutes ne conviennent pas, il faut effectuer un prétraitement. Peut-être que cela fonctionnerait si vous preniez la différence entre 457 et 891 barres, et entre 1401 et 1300. Il y a beaucoup d'options, et il n'y a pas assez de temps pour les brutaliser toutes.
 

Une autre chose à propos des informations qui vont réellement au cerveau. Un exemple très instructif est la compression fractale des images. Cela montre simplement que, visuellement, pour une personne, il y a suffisamment d'informations dans des milliers, voire des dizaines de milliers de fois moins que la taille "brute" de l'image.

Je me demande quel rapport on peut obtenir en comprimant un quotient à l'aide de l'algorithme fractal ? 100 ? 500 ? plus ?

 
alexeymosc:
Alexey, tu parles directement du problème de la sélection des caractéristiques, en langage clair : comment sélectionner le 1% des données du tableau qui est le plus informatif pour une prévision du type : entrer long, entrer short, attendre. Mais même en appliquant des techniques sophistiquées à ce problème, les pièges apparaissent rapidement. Tout d'abord, la sauce à utiliser pour alimenter les points de données sélectionnés n'est pas claire : les valeurs brutes ne conviennent pas, il faut effectuer un prétraitement. Peut-être que cela fonctionnerait si vous preniez la différence entre 457 et 891 barres, et entre 1401 et 1300. Il y a beaucoup de variantes, et je n'ai pas le temps de toutes les brutaliser.
Il y a aussi le problème de l'interprétation de la sortie de l'algorithme. Très souvent, nous essayons de construire le même réseau de sorte que sa sortie ait un signal clair de ce qu'il faut faire, ou du moins que les informations relativement compréhensibles (pour un concepteur) soient converties en un tel signal. Mais ce n'est pas le fait qu'il soit commode pour le réseau de donner des informations sous cette forme, peut-être serait-il beaucoup plus facile de nous donner non pas grossièrement un bit et demi (achat-vente-arrêt), mais, par exemple, 10 bits d'information ?
 
alsu:
Il y a aussi le problème de l'interprétation de la sortie de l'algorithme. Nous essayons souvent de construire le même réseau de manière à ce que la sortie ait un signal clair de ce qu'il faut faire, ou du moins des informations relativement compréhensibles (pour le concepteur) pour être converties en un tel signal. Mais il n'est pas certain qu'il soit commode de produire des informations sous cette forme. Peut-être serait-il plus facile de nous donner non pas un bit et demi environ (by-sell-stop), mais, par exemple, 10 bits d'information ?
Bon point, d'ailleurs. Fondamentalement, nous essayons de comprimer les informations d'entrée à un niveau tel que nous pouvons clairement prendre des décisions (achat-vente-arrêt). Il se peut très bien que la meilleure solution soit d'avoir un taux de compression de 1 (c'est-à-dire pas de compression ou presque). L'image d'entrée est compréhensible pour la grille, l'image de sortie est compréhensible pour la personne.