- Activation
- Derivative
- Loss
- LossGradient
- RegressionMetric
- ConfusionMatrix
- ConfusionMatrixMultilabel
- ClassificationMetric
- ClassificationScore
- PrecisionRecall
- ReceiverOperatingCharacteristic
LossGradient
Berechnung eines Vektors oder einer Matrix der Gradienten einer Verlustfunktion.
Vektor vector::LossGradient(
|
Parameter
vect_true/matrix_true
[in] Vektor oder Matrix mit den tatsächlichen Werten.
loss
[in] Verlustfunktion aus der Enumeration ENUM_LOSS_FUNCTION.
axis
[in] ENUM_MATRIX_AXIS Wert der Enumeration (AXIS_HORZ — horizontale Achse, AXIS_VERT — vertikale Achse).
...
[in] Der zusätzliche Parameter 'delta' kann nur von der Hubert-Verlustfunktion (LOSS_HUBER) verwendet werden.
Rückgabewert
Vektor oder Matrix der Werte des Gradienten der Verlustfunktion. Der Gradient ist die partielle Ableitung nach dx (x ist der vorhergesagte Wert) der Verlustfunktion an einem bestimmten Punkt.
Hinweis
Gradienten werden in neuronalen Netzen verwendet, um die Gewichte der Gewichtsmatrix während des Backpropagation-Verfahrens beim Training eines Modells anzupassen.
Ein neuronales Netz zielt darauf ab, die Algorithmen zu finden, die den Fehler in der Trainingsstichprobe, für die die Verlustfunktion verwendet wird, minimieren.
Je nach Problemstellung werden unterschiedliche Verlustfunktionen verwendet. So wird beispielsweise der mittlere quadratische Fehler (MSE) für Regressionsprobleme und die binäre Kreuzentropie (BCE) für binäre Klassifikationszwecke verwendet.
Beispiel für die Berechnung der Gradienten der Verlustfunktionen
matrixf y_true={{ 1, 2, 3, 4 },
|