Que mettre à l'entrée du réseau neuronal ? Vos idées... - page 56
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Excellente question Si elle est pleinement explorée dans le contexte d'un environnement virtuel (champ d'information), on peut vraisemblablement s'orienter dans la bonne direction, plutôt que de diffuser des connaissances académiques et des manuels.
Chaque fois que j'ai examiné des architectures, je me suis posé la question suivante : "pourquoi comme ça ? Pourquoi ? Pourquoi ont-ils décidé de le faire de cette façon ?"
Non, il suffit de prendre - et de traduire l'architecture, qui a été écrite par des oncles-mathématiciens intelligents. J'ai même demandé dans le chat room, pourquoi le bloc LSTM a la forme qu'il a ?
En réponse, des absurdités tirées des manuels de MO : il s'agit d'une mémoire à long terme, bla bla bla,adaptée à l'apprentissage sur des tâches de classification et bla bla bla. Je demande "alors pourquoi exactement ainsi ?", la réponse est du genre "les mathématiciens l'ont décidé ainsi". Pas de théorie, pas de théorie de l'information, pas de théorie du traitement de l'information, pas de définition de l'apprentissage, pas de théories de l'apprentissage, etc.
A partir de la troisième fois, le chat a commencé à parler de fades et de pics de gradient. La LSTM résout ces problèmes.
Bon, d'accord, mais comment le résout-elle ? Avec desportes! Quelles portes !? Quelles portes ? -
Quelles informations ???? Les chiffres de l'entrée ?
Mais vous convertissez les nombres entrants en un charabia incompréhensible et déformé qui transforme les nombres-couleurs RVB entrants en quelque chose d'illisible, une boîte noire de bouillie. Disons que vous convertissez certains nombres en d'autres, mais apprendre en quoi ? La mémorisation ?
C'est donc de la mémorisation ! Et en quoi cela diffère-t-il de l'apprentissage ? En fin de compte, on ne sait pas très bien ce qu'ils essaient d'appliquer à ce qui n'est pas clair au second degré - le marché non stationnaire. En général, la question est excellente, elle a été posée il y a longtemps. Son déroulement est extrêmement intéressant.
En d'autres termes, il n'y a pas vraiment de systématisation dans la science de l'application des OI ? Juste une alchimie sans garantie de résultat positif ?
Quelle est la différence entre entraîner un réseau neuronal et apprendre des tours à un caniche ? - ou apprendre des tours à un écolier ? Existe-t-il des différences et, dans l'affirmative, qui et où a systématisé ces différences et les a étayées ?
Formation d'un système intelligent à l'exécution de certaines tâches. Par exemple, prédire.
Apprendre, c'est acquérir des connaissances ou de l'expérience.
Une question enfantine à laquelle les "précieux experts" ne peuvent pas répondre. Ils ne peuvent pas faire la distinction entre l'apprentissage et l'optimisation.
L'ensemble du processus de création d'un modèle, y compris la préparation des données et la sélection du modèle, est appelé apprentissage. L'optimisation des poids des NS est appelée ajustement ou optimisation.
Il existe des modèles dans lesquels l'étape d'optimisation n'est pas du tout explicitement présente, comme la forêt aléatoire ou les modèles basés sur des règles, certains types de regroupement. Dans les réseaux neuronaux, elle est explicitement présente.
Ne parlez même pas de portes :)Formation d'un système intelligent à l'exécution de certaines tâches. Par exemple, prédire.
Apprendre, c'est acquérir des connaissances ou de l'expérience.
Une question enfantine à laquelle les "précieux experts" ne peuvent pas répondre. Ils ne peuvent pas faire la distinction entre l'apprentissage et l'optimisation.
L'ensemble du processus de création d'un modèle, y compris la préparation des données et la sélection du modèle, est appelé apprentissage. L'optimisation des poids des NS est appelée ajustement ou optimisation.
Il existe des modèles dans lesquels l'étape d'optimisation n'est pas du tout explicitement présente, comme la forêt aléatoire ou les modèles basés sur des règles, certains types de regroupement. Dans les réseaux neuronaux, elle est explicitement présente.
Ne parlez même pas de portes :)L'eau a coulé Comme vous l'avez vu dans l'eau.
L'eau coulait comme si j'étais dans l'eau.
S'il entre dans l'un et sort de l'autre, c'est pathologique.
Vous ne comprenez même pas la question Vous ne faites que diffuser des connaissances générales C'est comme une encyclopédie.
Vous ne comprenez même pas la question Vous ne faites que diffuser des connaissances générales C'est comme une encyclopédie.
Il n'y a donc pas de systématisation dans la science de l'application de l'EM ? Juste une sorte d'alchimie sans garantie de résultat positif ?
Quelle est la différence entre entraîner un réseau neuronal et apprendre des tours à un caniche ? - ou apprendre à un écolier à faire des tours ? Y a-t-il des différences et, dans l'affirmative, qui et où a systématisé ces différences et les a étayées ?
Si vous trouvez de tels ouvrages, partagez-les, je suis moi-même curieux. Les adeptes des manuels traduisent exactement une chose : par la formation, ils comprennent la méthode de mise au point/réglage du moteur (modèle).
Mais cela ne reflète pas l'essence de l'apprentissage, qui a un sens plus profond.
Excellente question Si elle est pleinement explorée dans le contexte d'un environnement virtuel (champ d'information), on peut vraisemblablement s'orienter dans la bonne direction, plutôt que de diffuser des connaissances académiques et des manuels.
Chaque fois que j'ai examiné des architectures, je me suis posé la question suivante : "pourquoi comme ça ? Pourquoi ? Pourquoi ont-ils décidé de le faire de cette façon ?"
Non, il suffit de prendre - et de traduire l'architecture, qui a été écrite par des oncles-mathématiciens intelligents. J'ai même demandé dans le chat room, pourquoi le bloc LSTM a la forme qu'il a ?
En réponse, des absurdités tirées des manuels de MO : il s'agit d'une mémoire à long terme, bla bla bla,adaptée à l'apprentissage sur des tâches de classification et bla bla bla. Je demande "alors pourquoi exactement ainsi ?", la réponse est du genre "les mathématiciens l'ont décidé ainsi". Pas de théorie, pas de théorie de l'information, pas de théorie du traitement de l'information, pas de définition de l'apprentissage, pas de théories de l'apprentissage, etc.
A partir de la troisième fois, le chat a commencé à parler de fades et de pics de gradient. La LSTM résout ces problèmes.
Bon, d'accord, mais comment le résout-elle ? Avec desportes! Quelles portes !? Quelles portes ? -
Quelles informations ???? Les chiffres de l'entrée ?
Mais vous convertissez les nombres entrants en un charabia incompréhensible et déformé qui transforme les nombres-couleurs RVB entrants en quelque chose d'illisible, une boîte noire de bouillie. Disons que vous convertissez certains nombres en d'autres, mais apprendre en quoi ? La mémorisation ?
C'est donc de la mémorisation ! Et en quoi cela diffère-t-il de l'apprentissage ? En fin de compte, on ne sait pas très bien ce qu'ils essaient d'appliquer à ce qui n'est pas clair au second degré - le marché non stationnaire. En général, la question est excellente, elle a été posée il y a longtemps. Son déroulement est extrêmement intéressant.
Mieux vaut ne pas le chercher, mais l'inventer et l'écrire soi-même, maestro :)
m ytarmailS #:
Vous êtes si sensibles.
J'ai une approche différente, plus profonde. La vôtre est plus superficielle.
Je veux aller au fond des choses, et vous vous contentez de formules toutes faites.
C'est très bien.