Que mettre à l'entrée du réseau neuronal ? Vos idées... - page 56

 
Ivan Butko #:



Excellente question Si elle est pleinement explorée dans le contexte d'un environnement virtuel (champ d'information), on peut vraisemblablement s'orienter dans la bonne direction, plutôt que de diffuser des connaissances académiques et des manuels.

Chaque fois que j'ai examiné des architectures, je me suis posé la question suivante : "pourquoi comme ça ? Pourquoi ? Pourquoi ont-ils décidé de le faire de cette façon ?"


Non, il suffit de prendre - et de traduire l'architecture, qui a été écrite par des oncles-mathématiciens intelligents. J'ai même demandé dans le chat room, pourquoi le bloc LSTM a la forme qu'il a ?

En réponse, des absurdités tirées des manuels de MO : il s'agit d'une mémoire à long terme, bla bla bla,adaptée à l'apprentissage sur des tâches de classification et bla bla bla. Je demande "alors pourquoi exactement ainsi ?", la réponse est du genre "les mathématiciens l'ont décidé ainsi". Pas de théorie, pas de théorie de l'information, pas de théorie du traitement de l'information, pas de définition de l'apprentissage, pas de théories de l'apprentissage, etc.


A partir de la troisième fois, le chat a commencé à parler de fades et de pics de gradient. La LSTM résout ces problèmes.
Bon, d'accord, mais comment le résout-elle ? Avec desportes! Quelles portes !? Quelles portes ? -

Quelles informations ???? Les chiffres de l'entrée ?

Mais vous convertissez les nombres entrants en un charabia incompréhensible et déformé qui transforme les nombres-couleurs RVB entrants en quelque chose d'illisible, une boîte noire de bouillie. Disons que vous convertissez certains nombres en d'autres, mais apprendre en quoi ? La mémorisation ?






C'est donc de la mémorisation ! Et en quoi cela diffère-t-il de l'apprentissage ? En fin de compte, on ne sait pas très bien ce qu'ils essaient d'appliquer à ce qui n'est pas clair au second degré - le marché non stationnaire. En général, la question est excellente, elle a été posée il y a longtemps. Son déroulement est extrêmement intéressant.

En d'autres termes, il n'y a pas vraiment de systématisation dans la science de l'application des OI ? Juste une alchimie sans garantie de résultat positif ?

Quelle est la différence entre entraîner un réseau neuronal et apprendre des tours à un caniche ? - ou apprendre des tours à un écolier ? Existe-t-il des différences et, dans l'affirmative, qui et où a systématisé ces différences et les a étayées ?

 
Ivan Butko #:

Formation d'un système intelligent à l'exécution de certaines tâches. Par exemple, prédire.

Apprendre, c'est acquérir des connaissances ou de l'expérience.

Une question enfantine à laquelle les "précieux experts" ne peuvent pas répondre. Ils ne peuvent pas faire la distinction entre l'apprentissage et l'optimisation.

L'ensemble du processus de création d'un modèle, y compris la préparation des données et la sélection du modèle, est appelé apprentissage. L'optimisation des poids des NS est appelée ajustement ou optimisation.

Il existe des modèles dans lesquels l'étape d'optimisation n'est pas du tout explicitement présente, comme la forêt aléatoire ou les modèles basés sur des règles, certains types de regroupement. Dans les réseaux neuronaux, elle est explicitement présente.

Ne parlez même pas de portes :)
 
Maxim Dmitrievsky #:

Formation d'un système intelligent à l'exécution de certaines tâches. Par exemple, prédire.

Apprendre, c'est acquérir des connaissances ou de l'expérience.

Une question enfantine à laquelle les "précieux experts" ne peuvent pas répondre. Ils ne peuvent pas faire la distinction entre l'apprentissage et l'optimisation.

L'ensemble du processus de création d'un modèle, y compris la préparation des données et la sélection du modèle, est appelé apprentissage. L'optimisation des poids des NS est appelée ajustement ou optimisation.

Il existe des modèles dans lesquels l'étape d'optimisation n'est pas du tout explicitement présente, comme la forêt aléatoire ou les modèles basés sur des règles, certains types de regroupement. Dans les réseaux neuronaux, elle est explicitement présente.

Ne parlez même pas de portes :)



L'eau a coulé Comme vous l'avez vu dans l'eau.

 
Ivan Butko #:



L'eau coulait comme si j'étais dans l'eau.

Si elle coule dans l'un et sort de l'autre, c'est pathologique.
 
Maxim Dmitrievsky #:
S'il entre dans l'un et sort de l'autre, c'est pathologique.





Vous ne comprenez même pas la question Vous ne faites que diffuser des connaissances générales C'est comme une encyclopédie.

 
Ivan Butko #:





Vous ne comprenez même pas la question Vous ne faites que diffuser des connaissances générales C'est comme une encyclopédie.

La culture générale ne ressemble pas à cette absurdité que l'on se forge personnellement en niant tout et n'importe quoi :)
 
Andrey Dik #:

Il n'y a donc pas de systématisation dans la science de l'application de l'EM ? Juste une sorte d'alchimie sans garantie de résultat positif ?

Quelle est la différence entre entraîner un réseau neuronal et apprendre des tours à un caniche ? - ou apprendre à un écolier à faire des tours ? Y a-t-il des différences et, dans l'affirmative, qui et où a systématisé ces différences et les a étayées ?






Si vous trouvez de tels ouvrages, partagez-les, je suis moi-même curieux. Les adeptes des manuels traduisent exactement une chose : par la formation, ils comprennent la méthode de mise au point/réglage du moteur (modèle).

Mais cela ne reflète pas l'essence de l'apprentissage, qui a un sens plus profond.

 
Mieux vaut ne pas chercher, mais inventer et écrire soi-même, maestro :)
 
Ivan Butko #:



Excellente question Si elle est pleinement explorée dans le contexte d'un environnement virtuel (champ d'information), on peut vraisemblablement s'orienter dans la bonne direction, plutôt que de diffuser des connaissances académiques et des manuels.

Chaque fois que j'ai examiné des architectures, je me suis posé la question suivante : "pourquoi comme ça ? Pourquoi ? Pourquoi ont-ils décidé de le faire de cette façon ?"


Non, il suffit de prendre - et de traduire l'architecture, qui a été écrite par des oncles-mathématiciens intelligents. J'ai même demandé dans le chat room, pourquoi le bloc LSTM a la forme qu'il a ?

En réponse, des absurdités tirées des manuels de MO : il s'agit d'une mémoire à long terme, bla bla bla,adaptée à l'apprentissage sur des tâches de classification et bla bla bla. Je demande "alors pourquoi exactement ainsi ?", la réponse est du genre "les mathématiciens l'ont décidé ainsi". Pas de théorie, pas de théorie de l'information, pas de théorie du traitement de l'information, pas de définition de l'apprentissage, pas de théories de l'apprentissage, etc.


A partir de la troisième fois, le chat a commencé à parler de fades et de pics de gradient. La LSTM résout ces problèmes.
Bon, d'accord, mais comment le résout-elle ? Avec desportes! Quelles portes !? Quelles portes ? -

Quelles informations ???? Les chiffres de l'entrée ?

Mais vous convertissez les nombres entrants en un charabia incompréhensible et déformé qui transforme les nombres-couleurs RVB entrants en quelque chose d'illisible, une boîte noire de bouillie. Disons que vous convertissez certains nombres en d'autres, mais apprendre en quoi ? La mémorisation ?






C'est donc de la mémorisation ! Et en quoi cela diffère-t-il de l'apprentissage ? En fin de compte, on ne sait pas très bien ce qu'ils essaient d'appliquer à ce qui n'est pas clair au second degré - le marché non stationnaire. En général, la question est excellente, elle a été posée il y a longtemps. Son déroulement est extrêmement intéressant.


Il s'agit d'une idée farfelue ))))))

Mieux étudier les mashki .
 
Maxim Dmitrievsky #:
Mieux vaut ne pas le chercher, mais l'inventer et l'écrire soi-même, maestro :)

m ytarmailS #:

C'est du crack ))))))

Mieux étudier le mashki .

Vous êtes si sensibles.

J'ai une approche différente, plus profonde. La vôtre est plus superficielle.

Je veux aller au fond des choses, et vous vous contentez de formules toutes faites.

C'est très bien.