Que mettre à l'entrée du réseau neuronal ? Vos idées... - page 57

 
😁
 
Ivan Butko #:

Pourquoi êtes-vous si sensible ?



Je dirais que c'est prévisible.
C'est comme verser de l'eau sur quelqu'un qui dort et il va forcément se pisser dessus....
 
bon.
Si l'apprentissage est un processus visant à apprendre un système d'un sujet donné, alors quel devrait être le résultat ? il est nécessaire d'évaluer d'une manière ou d'une autre le résultat, pour savoir s'il est bon.
 

L'un et l'autre, au lieu de lire de la littérature spécialisée sur le sujet, utilisent le chat gpt et considèrent leur approche de l'étude comme profonde :-O

La putain de génération Pepsi ))))

 
mytarmailS #:

L'un comme l'autre, au lieu de lire de la littérature spécialisée sur le sujet, utilisez le chat gpt et considérez leur approche pour étudier en profondeur :-O

Pepsi, putain de génération ))))

Le Pepsi a un meilleur goût que le cola, ça ne me dérange pas.

Bien que lorsque j'ai été testé les yeux fermés, je n'ai pas pu les distinguer l'un de l'autre

Je suis sûr qu'ils m'ont donné deux colas à l'époque.
 
Si nous poursuivons cette conversation fascinante, ceux qui versent de l'eau se chieront encore dessus, c'est déjà une tradition 😁 Après tout, quelqu'un leur a appris cela, sinon comment le sauraient-ils.

C'est ce qu'on appelle la sur-optimisation. Lorsque vous semblez avoir appris quelque chose, mais que cela ne fonctionne toujours pas :)

On apprend par cœur au lieu d'apprendre. Car le processus d'apprentissage inclut la pratique.
 
Andrey Dik #:

Amusant. L'intérêt de remplacer la BB par défaut est d'obtenir les valeurs plus tôt ?

Le but du remplacement du BB standard n'était pas de vérifier la qualité du réseau neuronal, et le but = connaître à l'avance le début et la fin de la planéité.

 

A propos de la formation...


Il y a quelques années, j'ai rencontré cette expression sur un site commun (non technique) : bases de données basées sur des réseaux neuronaux. En général, j'étais d'accord avec ce terme.



Je fais moi-même des arbres - une base de données basée sur des arbres est également applicable. 1 feuille dans un arbre = 1 ligne dans une base de données. Différences :



1 ligne dans la base de données contient seulement 1 exemple des données stockées dans la base de données. 1 feuille contient :



1) 1 exemple et tous les exemples exactement identiques (en divisant l'arbre autant que possible jusqu'à la dernière différence) ou

2) 1 exemple et exactement les mêmes exemples + les exemples les plus similaires si la division s'arrête plus tôt.
Les exemples similaires sont définis différemment par les différents algorithmes lors de la sélection des divisions de l'arbre.

Avantages des arbres par rapport aux bases de données : généralisation et recherche rapide de la feuille requise - il n'est pas nécessaire de parcourir un million de lignes, la feuille peut être atteinte par plusieurs divisions.

Le regroupement est également généralisé. Kmeans - en fonction de la proximité des exemples par rapport au centre de la grappe, d'autres méthodes diffèrent.

Vous pouvez également diviser par le nombre maximal de grappes = nombre d'exemples et vous obtiendrez un analogue de base de données/feuilles sans généralisation. Les réseaux neuronaux sont plus difficiles à comprendre, mais ils constituent également une base de données, bien qu'ils ne soient pas aussi évidents que les feuilles et les grappes.

En résumé : l 'apprentissage par arbre = il s'agit de mémoriser/enregistrer des exemples, tout comme une base de données. Si vous arrêtez la division/l'apprentissage avant la mémorisation la plus précise possible, vousmémorisez avec la généralisation.

Andrew veut bien sûr soulever le fait que l'apprentissage est une optimisation. Non, c'est de la mémorisation. Mais l'optimisation est également présente. Vous pouvez optimiser les variations avec la profondeur d'apprentissage, les méthodes fractionnées, etc. Chaque étape de l'optimisation entraînera un modèle différent. Mais l'apprentissage n'est pas une optimisation. C'est de la mémorisation.
 
Forester #:

A propos de la formation...


Il y a quelques années, j'ai rencontré cette expression sur un site commun (non technique) : bases de données basées sur des réseaux neuronaux. En général, j'étais d'accord avec ce terme.



Je fais moi-même des arbres - une base de données basée sur des arbres est également applicable. 1 feuille dans un arbre = 1 ligne dans une base de données. Différences :



1 ligne dans la base de données contient seulement 1 exemple des données stockées dans la base de données. 1 feuille contient :

1) 1 exemple et tous les exemples exactement identiques (en divisant l'arbre autant que possible jusqu'à la dernière différence)

2) 1 exemple et exactement les mêmes exemples + les exemples les plus similaires si la division s'arrête plus tôt.
Les exemples similaires sont définis différemment par les différents algorithmes lors de la sélection des divisions de l'arbre.

Avantages des arbres par rapport aux bases de données : généralisation et recherche rapide de la feuille requise - il n'est pas nécessaire de parcourir un million de lignes, la feuille peut être atteinte par plusieurs divisions.

Le regroupement est également généralisé. Kmeans - en fonction de la proximité des exemples par rapport au centre de la grappe, d'autres méthodes diffèrent.

Vous pouvez également diviser par le nombre maximal de grappes = nombre d'exemples et vous obtiendrez un analogue de base de données/feuilles sans généralisation. Les réseaux neuronaux sont plus difficiles à comprendre, mais ils constituent également une base de données, bien qu'ils ne soient pas aussi évidents que les feuilles et les grappes.

En résumé : l 'apprentissage par arbre = il s'agit de mémoriser/enregistrer des exemples, tout comme une base de données. Si vous arrêtez la division/l'apprentissage avant la mémorisation la plus précise possible, vousmémorisez avec la généralisation.

Andrew veut bien sûr soulever le fait que l'apprentissage est une optimisation. Non, c'est de la mémorisation. Mais l'optimisation est également présente. Vous pouvez optimiser les variations avec la profondeur d'apprentissage, les méthodes fractionnées, etc. Chaque étape de l'optimisation entraînera un modèle différent. Mais l'apprentissage n'est pas une optimisation. C'est de la mémorisation.
Le recyclage est une mémorisation. La mémorisation et la généralisation sont plus proches de l'apprentissage :)
 
Maxim Dmitrievsky #:
Le sur-apprentissage est la mémorisation. Mémorisation et généralisation - plus proches de l'apprentissage :)

La généralisation est plus proche du sous-apprentissage. C'est-à-dire que vous avez mémorisé, mais pas avec une précision absolue (vous avez aussi impliqué vos voisins...). Presque comme un écolier avec une note de C)))

Mais si nous mémorisons quelque chose défini par une loi (par exemple la loi d'Ohm), il n'y aura pas de sur-apprentissage, il est plus facile d'obtenir un sous-apprentissage s'il y a peu d'exemples et un nombre infini d'entre eux.

Dans le cas du commerce, où les modèles sont pratiquement inexistants et bruyants, une mémorisation absolument précise associée à du bruit entraînera une perte.
Pour une raison ou une autre, ce phénomène a été appelé sur-apprentissage. La mémorisation précise n'est pas nuisible en soi, comme dans le cas de l'apprentissage de modèles. En revanche, la mémorisation de bruits et de déchets n'est pas utile.