Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2450

 
Andrey Dik #:

¿Es el valor medio de los pesos de la red neuronal tomados como módulo un indicador de su calidad de entrenamiento?

Supongamos que hay dos neuronas idénticas entrenadas con los mismos datos, una neurona tiene un valor de 0,87 y la otra de 0,23, ¿cuál está mejor entrenada?

Una equilibrada debería estar más cerca de 0,5, en teoría. Si tomas una red simple como mlp. Para la clasificación binaria.
 
Andrey Dik #:

¿Es el valor medio de los pesos de la red neuronal tomados como módulo un indicador de su calidad de entrenamiento?

Supongamos que hay dos neuronas idénticas entrenadas con los mismos datos, una es de 0,87 y la otra de 0,23, ¿cuál está mejor entrenada?

Eso es lo más molesto...

Bueno, probablemente el que mejor adivine, no debería ser lo primero que se le ocurra????

 
Maxim Dmitrievsky #:
Una equilibrada debería estar más cerca de 0,5, por idea. Si tomas una red simple como mlp. Para la clasificación binaria.

Por favor, aclare su punto de vista.

Por el contrario, creo que cuanto más se acerque el valor a 1,0, más claro será el entrenamiento de la red neuronal. Si está en torno a 0,0, entonces es más "vacilante", si se puede decir así con respecto a la red neuronal.

 
mytarmailS #:

es un cabreo...

Bueno, probablemente el que mejor adivine, no debería ser lo primero que se le ocurra????

todo el mundo es inteligente hacia atrás, las neuronas aún más...

 
Andrey Dik #:

¿Es el valor medio de los pesos de la red neuronal tomados como módulo un indicador de su calidad de entrenamiento?

Supongamos que hay dos neuronas idénticas entrenadas con los mismos datos, una tiene 0,87 y la otra 0,23, ¿cuál está mejor entrenada?

No. Especialmente si alguna regresión, donde baes(ax+b) en el espacio. ¿Para qué sirve tener estas métricas indirectas? Una carrera en puntos fuera de la muestra de entrenamiento y todo está claro.

 
Andrey Dik #:

aclare el pensamiento, por favor.

Por el contrario, creo que cuanto más se acerque el valor a 1,0, más clara será la formación de la red neuronal. y si está en torno a 0,0, entonces es un poco "vacilante", si se puede decir así con respecto a la red neuronal.

La mitad de las activaciones de las neuronas para la primera clase, la mitad para la otra. Basado en una lógica tan primitiva. Si está sesgado, quizá las clases estén mal equilibradas. Y los valores extremos parecen hacer que el gradiente explote o se desvanezca
 
Andrey Dik #:

todo el mundo es inteligente en la parte de atrás, incluso más para las neuronas...

hay un frente, llamado validación, y los pesos no tienen nada que ver con la capacidad de predicción, pueden ser cualquier cosa...

los pesos son más o menos una fórmula, y la predicción es el resultado de calcular una fórmula - enfrentar uno con el otro == esquizofrenia

 
mytarmailS #:

hay un frente, se llama validación, y los pesos no tienen nada que ver con la capacidad de predicción en absoluto, pueden ser cualquier cosa...

los pesos son una fórmula a grandes rasgos y la predicción es el resultado del cálculo de una fórmula - enfrentar uno con el otro == esquizofrenia

Zhi, shi se escriben con i.

 
Alexei Tarabanov #:

Zhi, shi se escribe con i.

Gracias, el ruso no es mi idioma, no lo he aprendido...

 
mytarmailS #:

Gracias, el ruso no es mi idioma, no lo he aprendido...

Todo está por delante de mí.