Réseaux neuronaux artificiels. - page 9

 
tol64:
Mais j'ai aussi apporté un argument contre. L'appareil photo a bien souvent dépassé les capacités de l'œil, s'il est aussi un télescope. ))

Déclaration douteuse, toute l'astronomie a été élaborée avant la découverte du télescope par des personnes ayant des yeux normaux, dans ce domaine, l'essentiel n'est pas la transmission de l'image mais son interprétation, même si je suis d'accord pour dire que l'homme avec des yeux de 10 mètres est une vision effrayante :)

D'ailleurs, l'ordinateur a également surpassé l'être humain à bien des égards, même s'il n'a pas été créé à l'image du cerveau.

 
IgorM:

...

.... Et ce qui est formidable, c'est qu'en filtrant les informations inutiles et en créant un modèle mathématique du marché, vous pouvez construire un TS efficace sans NS.

Et pourquoi c'est triste ? )) Au contraire. Si le TS est trouvé et qu'il est tout à fait efficace sans le NS, alors nous devrions être heureux. ))
 
Urain:

Déclaration douteuse, toute l'astronomie a été élaborée avant la découverte du télescope par l'œil normal, l'essentiel dans ce domaine n'est pas la transmission de l'image mais son interprétation, bien que je sois d'accord que l'homme avec des yeux de 10 mètres est une vision effrayante :)

L'ordinateur, d'ailleurs, a également dépassé l'homme à bien des égards, même s'il n'a pas été créé à l'image du cerveau.

Mais le modèle informatique actuel est déjà "en train de craquer aux coutures". Il est difficile, voire presque impossible, de le développer davantage. C'est pourquoi Kwabena et al tentent de mettre en place un modèle similaire au cerveau.

Et si un homme est agrandi en proportion des yeux d'un télescope de 10 m, il n'aura plus l'air flippant. Ou si vous réduisez les télescopes à la taille actuelle des yeux, bien sûr. )))

 
tol64: Et pourquoi est-ce triste ? )) Au contraire. Si le TS est trouvé et tout à fait efficace sans le NS, alors on devrait être heureux. ))

C'est triste le temps perdu - vous n'auriez pas pu vous engager dans la NS, mais vous auriez pu vous engager directement dans l'analyse et le filtrage des données.

ZS : Ce n'était pas mon intention, mais je vais quand même dire comment je vois ce que tous les débutants recherchent dans les réseauxneuronaux, au moins au sens figuré : si ce n'est pas un beau nom" réseaux neuronaux", mais par exemple " ajustement mathématique de la régression exponentielle ", alors il y aurait moins d'intérêt et d'attentes envers un tel outil mathématique, et grâce au nom sonore, les gens s'attendent à un miracle de la " règle logarithmique intelligente ".

 
tol64:

Mais le modèle informatique actuel est déjà en train de "craquer aux coutures". Il est difficile, voire presque impossible, de le développer davantage. C'est pourquoi le même Kwabena et al tentent de réaliser un modèle semblable au cerveau.

Et si un homme est agrandi en proportion des yeux d'un télescope de 10 m, il n'aura plus l'air flippant. Ou si vous réduisez les télescopes à la taille actuelle des yeux, bien sûr. )))

Les mathématiques de l'ordinateur lui-même ont mis en œuvre des méthodes datant d'il y a 300 ans, c'est pourquoi il s'agit d'une impasse.

Les mathématiques ne développent pratiquement pas de méthodes parallèles, c'est là le nœud du problème.

La principale chose qui mérite d'être empruntée est le parallélisme des méthodes et la NS constitue un progrès à cet égard, mais la copie des travaux de la NS conformément à la NS naturelle constitue un recul.

 
tol64:

C'est formidable que vous connaissiez personnellement ces chercheurs. Connaissez-vous Henry Markram, par hasard ? Sa prédiction en 2009 était de 10 ans. :) Je me demande où il en est maintenant.

Henry Markram construit un cerveau dans un superordinateur

Non, pas personnellement. Mais je suis familier avec son projet de cerveau bleu. Markram pense que nous ne pourrons comprendre et copier le fonctionnement de notre cerveau que si nous modélisons avec précision le fonctionnement d'un neurone (canaux ioniques, équations différentielles décrivant le mouvement des ions et la propagation des impulsions électriques dans tout le corps du neurone, délais, etc.) En 2009, IBM a annoncé au monde entier qu'elle avait modélisé un cerveau de chat. Markram était assez aigri(http://spectrum.ieee.org/tech-talk/semiconductors/devices/blue-brain-project-leader-angry-about-cat-brain), affirmant que les chercheurs d'IBM avaient utilisé des neurones couplés par points, c'est-à-dire des modèles mathématiques simples (comme les neurones des réseaux classiques avec leur somme d'entrées pondérées et leur fonction d'activation non linéaire). Un autre scientifique intéressant dans ce domaine est Penrose. Il affirme donc que même en connaissant tous les détails des échanges d'ions, des réactions chimiques et de la propagation des impulsions dans le corps des neurones, cela ne suffit pas pour comprendre et expliquer le fonctionnement du cerveau. Il affirme que cela n'est possible qu'en raison des réactions quantiques au sein des neurones (théorie de Hameroff-Penrose). Lire ici https://en.wikipedia.org/wiki/Quantum_mind. Penrose affirme également que, grâce à ces réactions quantiques, notre cerveau est capable de "se rendre" dans d'autres dimensions et d'y puiser des connaissances. Recherchez ses conférences (Roger Penrose) sur youtube. Ils sont extrêmement intéressants.

Je ne connais pas les prédictions de Markram. Jusque dans les années 1990, les neurobiologistes pensaient que les informations entre les neurones s'échangeaient sous la forme d'impulsions pouvant être décrites par un nombre, d'où l'origine des réseaux classiques. Au milieu des années 90, les scientifiques ont découvert que le moment où se produisent les impulsions individuelles est plus important que leur nombre sur une période donnée. Markram et d'autres scientifiques ont découvert une nouvelle règle qui modifie les poids synaptiques, à savoir le STDP. Au cours des dix dernières années, de nombreux neurobiologistes ont commencé à construire des réseaux dits "à pointes", dans lesquels les informations sont distribuées sous forme d'impulsions (comme un signal binaire 0/1), et les poids varient en fonction du STDP. Ces neuroscientifiques ont commencé à affirmer que la raison pour laquelle les réseaux classiques ne conduisaient pas à des robots était qu'ils décrivaient incorrectement l'information (des nombres au lieu d'impulsions), le neurone (somme d'entrées pondérées au lieu d'équations de différence) et la modification des poids (règle de Hebb au lieu de STDP). Mais malheureusement, ces nouveaux réseaux à impulsions n'ont pas encore dépassé les réseaux classiques en termes de capacité. En outre, ils nécessitent une puissance informatique beaucoup plus importante. La neurobiologie n'a donc pas beaucoup progressé jusqu'à présent, et nous ne devons pas nous attendre à de nouveaux réseaux capables de révéler des modèles.

Cat Fight Brews Over Cat Brain
  • spectrum.ieee.org
Last week, IBM announced that they had simulated a brain with the number of neurons and synapses present in a cat's brain. In February 2008, the National Academy of Engineering issued a grand challenge to reverse engineer the human brain, sweetening a pot neuroscientists had already been stirring for a long time. There are as many theories of...
 
papaklass:


En d'autres termes, si vous aviez créé un modèle qui décrivait les changements de pondération lors des mouvements du marché, les résultats seraient peut-être différents, moins déprimants. Avez-vous fait ce genre de recherche ?

Faites-le à votre guise.

Cela nécessiterait une deuxième grille, qui rechercherait des modèles de changements dans les pondérations de la première grille en fonction des changements sur le marché. Vous auriez alors besoin d'une troisième grille, qui rechercherait également les dépendances de la deuxième grille avec les changements de la première et du marché. Puis un quatrième ...

Supposons que nous ayons créé un modèle qui décrit les changements de poids sur le marché. Qu'est-ce qu'on en fait ensuite ?

 
Reshetov:

Faites-le à votre guise.

Cela nécessitera une deuxième grille, qui recherchera un modèle de changement dans les poids de la première grille, en fonction des changements sur le marché. Vous avez alors besoin d'une troisième grille, qui recherchera également des dépendances dans la deuxième grille lorsque la première grille et le marché changent. Puis un quatrième ...



Et voilà que je retirais de l'argent du marché pendant 3 ans, sans savoir qu'après la première grille il faudrait la deuxième ....

Pour moi, une personne à l'esprit analytique, il est dangereux de lire de tels fils, j'arrête de gagner, je n'y pense pas.....

 
St.Vitaliy:

Et voilà que je retirais de l'argent du marché pendant 3 ans sans savoir qu'après le premier réseau, j'aurais besoin d'un second...

Avec ton visage, tu n'as pas besoin de prendre de l'argent sur le marché, tu peux juste l'imprimer.
 
papaklass:

En d'autres termes, si vous aviez créé un modèle qui décrivait les changements de pondération lors des mouvements du marché, les résultats seraient peut-être différents, moins déprimants. Avez-vous fait ce genre de recherche ?

Non, je ne l'ai pas fait. Je ne pense pas que quelque chose de bon en ressortira. Voici ce que j'en pense. Supposons que nous utilisions une régression polynomiale au lieu d'un réseau, ce qui est une autre façon d'utiliser la modélisation non linéaire universelle. Notre tâche consiste donc à ajuster le polynôme

y = a0 + a1*x + a2*x^2 + ...

dans nos données y(x) en trouvant les coefficients a0, a1, a2,.... qui réduisent l'erreur de notre modèle polynomial. Nous savons que notre modèle polynomial n'est bon que sur les données sur lesquelles l'ajustement a été effectué. Essentiellement, vous proposez de rendre les coefficients du modèle a0, a1, a2,... (les mêmes poids du réseau) soient rendus dépendants des données d'entrée, pour rendre le modèle plus robuste sur les données non apprises, c'est-à-dire rendre a1(x), a2(x), .... Ok. Nous décrivons chaque coefficient par un polynôme différent :

a1 = b0 + b1*x + b2*x^2 +...

a2 = c0 + c1*x + c2*x^2 +...

...

Substituez ces coefficients dans notre premier modèle et qu'obtenons-nous ? Le même polynôme, mais d'un ordre supérieur, qui peut décrire plus précisément les données d'apprentissage, mais dont les performances sont médiocres sur les nouvelles données. C'est exactement la même chose avec les réseaux. Un réseau en entraîne un autre, qui en entraîne un troisième et ainsi de suite, ce n'est rien d'autre qu'un grand réseau. Nous n'obtiendrons pas un comportement plus précis avec de nouvelles données. Mais si quelqu'un veut tester cette idée, faites-nous part des résultats.