- Activation
- Derivative
- Loss
- LossGradient
- RegressionMetric
- ConfusionMatrix
- ConfusionMatrixMultilabel
- ClassificationMetric
- ClassificationScore
- PrecisionRecall
- ReceiverOperatingCharacteristic
LossGradient
Calcula o vetor ou a matriz de gradiente da função de perda.
vector vector::LossGradient(
|
Parâmetros
vect_true/matrix_true
[in] Vetor ou matriz de valores reais.
loss
[in] Função de perda a partir da enumeração ENUM_LOSS_FUNCTION.
axis
[in] Valor a partir da enumeração ENUM_MATRIX_AXIS (AXIS_HORZ eixo horizontal, AXIS_VERT eixo vertical).
...
[in] Somente a função de perda Huber (LOSS_HUBER) pode ter o parâmetro delta adicional
Valor retornado
Vetor ou matriz de valores de gradiente da função de perda. O gradiente é a derivada parcial sobre dx (x é o valor previsto) da função de perda em um determinado ponto.
Observação
Os gradientes são usados em redes neurais para ajustar os valores da matriz de peso quando o erro se propaga de volta ao treinamento do modelo.
A tarefa de treinamento de rede neural é encontrar coeficientes que minimizem o erro na amostra de treinamento, usando a função de perda.
Diferentes funções de perda são usadas, dependendo do tipo de problema a ser resolvido. Por exemplo: para um problema de regressão, o erro quadrático médio (mean squared error , MSE), para uma classificação binária, a entropia cruzada binária (binary cross-entropy, BCE).
Exemplo de cálculo dos gradientes de uma função de perda
matrixf y_true={{ 1, 2, 3, 4 },
|