Encontrar un conjunto de indicadores para alimentar las entradas de la red neuronal. Discusión. Una herramienta para evaluar los resultados. - página 4

 
rip >> :
Kgm ... Olvidas que para lograr la máxima eficacia en el aprendizaje las entradas de la red deben ser estadísticamente independientes, no debe haber correlación entre los datos alimentados a cada entrada. Todas las máquinas están corregidas entre sí, puedes comprobarlo. Hay un software bastante práctico y sencillo - AtteStat, es un complemento de Exel, pero muy práctico.

Todo es brillantemente simple... Podría haberlo resuelto yo mismo... ¡¡¡Gracias!!!

Tome los indicadores disponibles y observe la correlación entre ellos... analice, piense, tal vez obtenga algunas ideas útiles :)

 
IlyaA >> :


El público necesita ver una relación gráfica entre el error de aprendizaje y el tiempo (número de épocas).

debemos estar hablando de cosas diferentes... No enseño con un profesor (hay un error de aprendizaje en esta forma de enseñar)... Enseño al máximo de la función objetivo y no sé cuál es el máximo valor posible de la función objetivo.

 
Urain >>

Vaya aquí, hay una descripción detallada y fórmulas de cálculo para cada indicador.

en dos días tendrás tu propia opinión.

Llevo mucho tiempo mirándolo.

Lo he mirado, lo he leído, quizás no le he dedicado el tiempo suficiente o no le he prestado la suficiente atención, quizás algo más... si no es así, probablemente volveré allí... :))) tomando el camino más largo, ¿eh?

 
iliarr >> :

No. Sólo paso el valor de la función objetivo al algoritmo genético, y éste produce un vector de valores para cada gen, que convierto en una matriz de pesos de la red neuronal.

Correcto, el algoritmo genético no utiliza la función de error para ajustar los pesos.

Por lo que tengo entendido, se podría marcar el m5 por el máximo beneficio que puede haber en el historial y utilizar este margen como función de aptitud.

Sólo me pregunto cómo es la función que utilizas para estimar un individuo.

 
iliarr >> :

¿De qué error estamos hablando? La función objetivo es mayor...

Es una cuestión de error de muestreo de la prueba. Es decir, se toma el siguiente mes después de la muestra de formación. Lo marca según su algoritmo. Se alimentan las salidas a la red entrenada. Compara los resultados. Ese es el gráfico de estos errores que me interesa.


También puede obtener el gráfico de error de la muestra de entrenamiento y así estimar cómo aprende su red (o hay desarrollo generacional en el algoritmo de genes)

 
iliarr >> :

Todo es brillantemente simple... Podría haberlo pensado yo mismo... Gracias.

Tome los indicadores disponibles y observe la correlación entre ellos... analice, piense, tal vez obtenga algunas ideas útiles :)

Muestra el resultado al comparar todos los conjuntos que alimentas con las entradas :) Creo que todos estarán muy correlacionados. Todos los indicadores dados utilizan los mismos datos de entrada para el cálculo.

 
iliarr >> :

debemos estar hablando de cosas diferentes... No enseño con un profesor (hay un error de aprendizaje en esta forma de enseñar)... Enseño al máximo de la función objetivo y no sé cuál es el máximo valor posible de la función objetivo.

¿Cómo se estima la eficacia de la red entrenada? Este es el gráfico que quiero ver.

 
Pregunta estúpida, casi sé la respuesta. encontré un conjunto de indicadores, encontré los coeficientes de ponderación y empecé a obtener beneficios. Si el mercado cambia, el asesor podrá adaptarse a las nuevas condiciones.
 
joo писал(а) >>

El AG es sólo una herramienta de optimización (destornillador para la máquina). Con unas diferencias mínimas puedes utilizarlo o cualquier otro algoritmo de optimización (destornillador).

Sí un destornillador, pero hay algunos destornilladores que pueden aflojar un tornillo pequeño y otros que no...

No, con diferencias mínimas no se puede usar para NS, parece que no se pueden ver esas diferencias.

ORO, cuando una neurona se sobresatura, prácticamente deja de "entrenarla", mientras que GA puede sobresaturar fácilmente una neurona y seguir aumentando los pesos de las neuronas.

 
joo >> :

... al menos esta función: (2/(1-2^(-x))-1

Mi error. Debería ser: (2/(1+2^(-x))-1

StatBars >> :

No, con diferencias mínimas no se puede usar para NS, parece que no se ven estas diferencias.

ORO cuando una neurona se sobresatura prácticamente deja de "entrenarla", mientras que GA puede sobresaturar fácilmente una neurona y seguir aumentando los pesos de las neuronas.

¿Por qué no se pueden ver? Las diferencias son visibles. No hay sobresaturación de neuronas con el rango de búsqueda adecuado. "Es que no sabes cómo cocinarlos"(c) :)

Para tareas de diferente complejidad habrá herramientas de diferente calidad, como usted ha señalado correctamente (destornilladores).