réseau neuronal et entrées - page 7

 
solar:
Eh bien par exemple les banques normales suivent - ce que vous faites avec votre carte, et s'il s'agit d'achats "non caractéristiques", le réseau bloquera la carte. Le réseau fonctionne depuis longtemps dans les aéroports, dans le métro, au cas où il faudrait trouver le bon "visage". Le filet permet d'identifier la cible en cas de détection et de guidage. Dans les grandes entreprises - comme un double d'une personne, en cas d'urgence. En fait, le filet fonctionne dans de nombreux endroits.

Le plus large.

Dans mon esprit, la norme pour la grille est la suivante. On sait ce qu'il faut enseigner. Par exemple, nous enseignons la reconnaissance de la lettre manuscrite "a" en présentant à la grille des milliers de variantes orthographiques. Je soupçonne que les écarts de toutes les variantes de la lettre par rapport à l'idéal forment une série stationnaire. Il y a donc deux conditions de réussite : vous savez ce qu'il faut enseigner et les écarts par rapport à l'idéal forment une série stationnaire. Il semble possible de s'éloigner de cet idéal. Mais c'est là qu'intervient un troisième problème : la complexité informatique.

Mais je discute du marché. Sur le marché, il existe de nombreux algorithmes mathématiques qui permettent une approche plus consciente de la construction de TS. Il est donc plus productif de consacrer du temps aux statistiques matricielles qu'à des NS très complexes.

 
faa1947:

Le plus large.

Dans mon esprit, la norme pour la grille est la suivante. On sait ce qu'il faut enseigner. Par exemple, nous enseignons la reconnaissance de la lettre manuscrite "a" en présentant à la grille des milliers de variantes orthographiques. Je soupçonne que les écarts de toutes les variantes de la lettre par rapport à l'idéal forment une série stationnaire. Il y a donc deux conditions de réussite : vous savez ce qu'il faut enseigner et les écarts par rapport à l'idéal forment une série stationnaire. Il semble possible de s'écarter de cet idéal. Mais un troisième problème apparaît ici : la complexité informatique.

Mais je discute du marché. Sur le marché, il existe de nombreux algorithmes mathématiques qui permettent une approche plus consciente de la construction de TS. Il est donc plus productif de consacrer du temps aux statistiques matricielles qu'à des NS très complexes.

Quant à la reconnaissance des lettres de l'alphabet (par analogie), il faut partir du fait que le marché est un système fermé. Cela le rendra stationnaire (dans votre langue), c'est-à-dire que nous devrions introduire tout ce que nous savons sur le marché. )))))
 
solar:
Comme pour la reconnaissance des lettres de l'alphabet (par analogie), il faut supposer que le marché est un système fermé ... Ce qui le rendra stationnaire (dans votre langue), c'est-à-dire que nous devrions saisir tout ce que nous savons sur le marché. )))))


1. Le marché n'est pas un système fermé, mais un système vivant, car il est formé par les opinions des gens.

2. La "papeterie" n'est pas ma langue.

C'est tout - se retirer.

 
faa1947:


1. Le marché n'est pas un système fermé, mais un système vivant, car il est façonné par les opinions des gens.

2. La "papeterie" n'est pas ma langue.

C'est tout - se retirer.

Je n'ai pas essayé de te prouver quoi que ce soit, ça ne m'intéresse pas ;))).

retour(0) ;

 
faa1947:

Dans mon esprit, la norme pour la grille est la suivante. On sait ce qu'il faut enseigner. Par exemple, nous enseignons la reconnaissance de la lettre manuscrite "a" en présentant à la grille des milliers de variations orthographiques.

Pas vraiment, bien que de nombreux réseaux simples apprennent comme vous le décrivez. Mais il existe des réseaux qui s'auto-apprennent à la volée, comme notre cerveau. D'ailleurs, nier l'utilité des réseaux, c'est comme nier l'utilité de nos cerveaux. Et notre cerveau fonctionne avec succès avec tous les types de données : stationnaires et non stationnaires. Une autre chose est de prétendre que de simples réseaux manuels peuvent faire ce que notre cerveau peut faire, c'est-à-dire trouver des modèles, etc. Je suis donc pessimiste quant à l'utilité de ces réseaux "simples" pour le trading. Et il n'y a pas encore assez de puissance informatique pour des réseaux plus complexes fonctionnant sur des principes biologiques.

Au fait, voici une vidéo intéressante sur une caméra à apprentissage automatique. La caméra apprend à reconnaître les visages à différentes distances et sous différents angles une fois qu'on lui a montré un visage. Créé par un étudiant tchécoslovaque, qui a ensuite fondé sa propre entreprise.

https://www.youtube.com/watch?v=1GhNXHCQGsM

 
grell: Il est possible de ne pas normaliser du tout les signaux d'entrée ou intermédiaires, jusqu'à ce que le signal ait traversé toutes les couches, son niveau aura juste atteint la gamme requise, +/-, et la sortie sera normalisée... C'est comme ça.

Ne pas normaliser est la meilleure façon d'alimenter les données, si cela est possible bien sûr. Toute l'informativité du signal est préservée. Il n'y a pas de distorsion.
 
alsu: Le problème est que des entrées différentes peuvent avoir des échelles différentes.

Il vaut mieux se débattre avec l'échelle - on a plus de chances de retenir l'information que de la déformer par la normalisation.
 
alsu: Je pense que le SN n'aime pas l'instabilité.
Eh bien, qui aime la non-stationnarité ? Tout algorithme, même le plus sophistiqué, échouera lorsque les caractéristiques du signal d'entrée changeront. Tout algorithme. Les miracles n'arrivent pas ))))
 
solar:
Et pour la deuxième fois, je demande : où les réseaux fonctionnent-ils en temps réel ?

Le fait est que la NS elle-même est une certaine séquence de calculs avec des coefficients inconnus qui doivent être déterminés au cours du processus d'apprentissage. Cette tâche en mathématiques s'appelle un problème de régression (ses cas particuliers sont la classification et le regroupement). Elle peut être réalisée par des algorithmes absolument différents, chacun d'entre eux ayant ses propriétés et ses particularités, ses avantages et ses inconvénients. L'avantage de la NS classique est qu'elle peut fonctionner en l'absence de données a priori sur l'objet.

Par exemple, nous apprenons à un réseau à reconnaître des images de chiffres de 0 à 9, lui montrons des images et lui enseignons les bonnes réponses. Si nous n'avons pas spécifié dans la structure du réseau que les chiffres seront de telle taille, de telle couleur, etc., il doit s'adapter aux données d'entrée. Et, en fait, il le fait - mais ! - lentement, et c'est exactement l'inconvénient de NS. Et si les 1000 premières figures montrées à la grille étaient noires sur fond blanc, et qu'ensuite nous avons commencé à les montrer blanches sur noires (en apportant la non-stationnarité dans la ligne d'entrée), alors la grille devrait être entraînée à nouveau.

Mais si nous expliquons au réseau à l'avance qu'une image peut être inversée (c'est-à-dire que nous avons décrit la non-stationnarité et l'avons intégrée dans la structure du SN, par exemple en lui disant qu'un signal inconnu sur la sortie -N doit être interprété comme +N), alors le réseau ne sera pas confus sur ce type de non-stationnarité. Mais il s'effondrera sur un autre. Toutefois, le réseau a déjà un point commun avec tous les autres algorithmes : il fonctionne mieux sur les éléments non stationnaires, qui ont été introduits dans le système par un humain.

Mais il existe aussi des différences : par exemple, de nombreux algorithmes de suivi des paramètres du signal d'entrée décrits dans la théorie du contrôle optimal sont capables de suivre une classe plus large de non-stationnaires que ce qui était prévu a priori, naturellement, avec certaines contraintes. La NS, hélas, ne peut pas le faire. La seule option pour les SN est peut-être celle des systèmes quasi-stationnaires, c'est-à-dire ceux dans lesquels les paramètres flottent avec un temps caractéristique qui n'est pas inférieur au temps d'apprentissage du réseau neuronal.

Donc, pour répondre à la question : les réseaux fonctionnent principalement dans des tâches où il est impossible ou très difficile de définir a priori un modèle de signal d'entrée : tâches de reconnaissance, d'analyse sémantique (texte, son, image, ...), cognitives (résoudre captcha) et leurs combinaisons. Mais les tâches complexes nécessitent un GRAND (littéralement) réseau complexe, tel que celui-ci (et ceci, soit dit en passant, est à la limite de la technologie actuelle, regardez-le).

 
LeoV:
Eh bien, qui aime la non-stationnarité ? Tout algorithme, même le plus sophistiqué, échouera lorsque les caractéristiques du signal d'entrée changeront. Tout algorithme. Les miracles n'arrivent pas ))))


Là encore, si l'on connaît à l'avance la nature de la non-stationnarité, on peut l'intégrer dans l'algorithme et, en détectant cette même non-stationnarité, ajuster rapidement les paramètres du contrôleur.