Que mettre à l'entrée du réseau neuronal ? Vos idées... - page 57
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Pourquoi êtes-vous si sensible ?
L'un et l'autre, au lieu de lire de la littérature spécialisée sur le sujet, utilisent le chat gpt et considèrent leur approche de l'étude comme profonde :-O
La putain de génération Pepsi ))))
L'un comme l'autre, au lieu de lire de la littérature spécialisée sur le sujet, utilisez le chat gpt et considérez leur approche pour étudier en profondeur :-O
Pepsi, putain de génération ))))
Amusant. L'intérêt de remplacer la BB par défaut est d'obtenir les valeurs plus tôt ?
Le but du remplacement du BB standard n'était pas de vérifier la qualité du réseau neuronal, et le but = connaître à l'avance le début et la fin de la planéité.
A propos de la formation...
Il y a quelques années, j'ai rencontré cette expression sur un site commun (non technique) : bases de données basées sur des réseaux neuronaux. En général, j'étais d'accord avec ce terme.
Je fais moi-même des arbres - une base de données basée sur des arbres est également applicable. 1 feuille dans un arbre = 1 ligne dans une base de données. Différences :
Avantages des arbres par rapport aux bases de données : généralisation et recherche rapide de la feuille requise - il n'est pas nécessaire de parcourir un million de lignes, la feuille peut être atteinte par plusieurs divisions.
Le regroupement est également généralisé. Kmeans - en fonction de la proximité des exemples par rapport au centre de la grappe, d'autres méthodes diffèrent.
En résumé : l 'apprentissage par arbre = il s'agit de mémoriser/enregistrer des exemples, tout comme une base de données. Si vous arrêtez la division/l'apprentissage avant la mémorisation la plus précise possible, vousmémorisez avec la généralisation.Vous pouvez également diviser par le nombre maximal de grappes = nombre d'exemples et vous obtiendrez un analogue de base de données/feuilles sans généralisation. Les réseaux neuronaux sont plus difficiles à comprendre, mais ils constituent également une base de données, bien qu'ils ne soient pas aussi évidents que les feuilles et les grappes.
Andrew veut bien sûr soulever le fait que l'apprentissage est une optimisation. Non, c'est de la mémorisation. Mais l'optimisation est également présente. Vous pouvez optimiser les variations avec la profondeur d'apprentissage, les méthodes fractionnées, etc. Chaque étape de l'optimisation entraînera un modèle différent. Mais l'apprentissage n'est pas une optimisation. C'est de la mémorisation.
A propos de la formation...
Il y a quelques années, j'ai rencontré cette expression sur un site commun (non technique) : bases de données basées sur des réseaux neuronaux. En général, j'étais d'accord avec ce terme.
Je fais moi-même des arbres - une base de données basée sur des arbres est également applicable. 1 feuille dans un arbre = 1 ligne dans une base de données. Différences :
Avantages des arbres par rapport aux bases de données : généralisation et recherche rapide de la feuille requise - il n'est pas nécessaire de parcourir un million de lignes, la feuille peut être atteinte par plusieurs divisions.
Le regroupement est également généralisé. Kmeans - en fonction de la proximité des exemples par rapport au centre de la grappe, d'autres méthodes diffèrent.
En résumé : l 'apprentissage par arbre = il s'agit de mémoriser/enregistrer des exemples, tout comme une base de données. Si vous arrêtez la division/l'apprentissage avant la mémorisation la plus précise possible, vousmémorisez avec la généralisation.Vous pouvez également diviser par le nombre maximal de grappes = nombre d'exemples et vous obtiendrez un analogue de base de données/feuilles sans généralisation. Les réseaux neuronaux sont plus difficiles à comprendre, mais ils constituent également une base de données, bien qu'ils ne soient pas aussi évidents que les feuilles et les grappes.
Andrew veut bien sûr soulever le fait que l'apprentissage est une optimisation. Non, c'est de la mémorisation. Mais l'optimisation est également présente. Vous pouvez optimiser les variations avec la profondeur d'apprentissage, les méthodes fractionnées, etc. Chaque étape de l'optimisation entraînera un modèle différent. Mais l'apprentissage n'est pas une optimisation. C'est de la mémorisation.
Le sur-apprentissage est la mémorisation. Mémorisation et généralisation - plus proches de l'apprentissage :)
La généralisation est plus proche du sous-apprentissage. C'est-à-dire que vous avez mémorisé, mais pas avec une précision absolue (vous avez aussi impliqué vos voisins...). Presque comme un écolier avec une note de C)))
Mais si nous mémorisons quelque chose défini par une loi (par exemple la loi d'Ohm), il n'y aura pas de sur-apprentissage, il est plus facile d'obtenir un sous-apprentissage s'il y a peu d'exemples et un nombre infini d'entre eux.
Dans le cas du commerce, où les modèles sont pratiquement inexistants et bruyants, une mémorisation absolument précise associée à du bruit entraînera une perte.Pour une raison ou une autre, ce phénomène a été appelé sur-apprentissage. La mémorisation précise n'est pas nuisible en soi, comme dans le cas de l'apprentissage de modèles. En revanche, la mémorisation de bruits et de déchets n'est pas utile.