Cómo formar correctamente los valores de entrada para el NS. - página 9

 
sergeev писал (а) >> 3. la cuestión del sobreentrenamiento de la red

La cuestión del sobreentrenamiento no es sencilla y no hay una respuesta clara. Para evitar el sobreentrenamiento, a veces se utiliza el control cruzado, pero no siempre ayuda si el periodo de entrenamiento es demasiado corto. Pero en general, el mejor control contra el sobreentrenamiento es un real o un OOC.

 
TheXpert писал (а) >>

Sí, tendré algo que leer esta noche, muy posiblemente sacaré el código pronto :)

Ehhh. Realmente no entiendo por qué no quieren creer "rápidamente" la idea y luego sentarse a codificar.

Si vuelves al tema, resulta que ya han encontrado las entradas "correctas", están normalizadas y lo único que queda... ... es estar a tiempo para el "campeonato". Todo (en el sentido de herramientas, no de insumos) ya está inventado. En este contexto, Neurosolutions o Neuroshel 2 (y muchos otros programas). Por lo menos asegúrese de que las entradas AND son "erróneas" y la "normalización" las distorsiona aún más, será rápido.

Sí. Hay un argumento: todos los programas están anticuados, los algoritmos están cubiertos de musgo, pero ... tal vez las entradas están equivocadas después de todo :)

'

Aquí estoy yo, desde la obsoleta y "clavada" "red" "Polinominal Net (GMDH)" (de NeuroShell 2) - diez horas de entrenamiento/aprendizaje y la fórmula del mercado está lista :)

 
sergeev писал (а) >> 9 Redes recursivas

Lo bueno de las redes recurrentes es que no hay "maestros". Así, excluimos una variable muy importante: los "profesores" de la red. Como es posible equivocarse con los datos de salida (sobre los que se entrenará la red), al haberlos excluido, podemos centrarnos sólo en encontrar las entradas.

 
LeoV писал (а) >>
La validación cruzada es cuando, por ejemplo, se entrena una red en el intervalo de 2007 y el mejor resultado, obtenido en el intervalo de 2007, se "prueba" en el intervalo de 2008, y si es mejor que el anterior (también "probado" en 2008), se deja esta red. Y así sucesivamente. Del mismo modo, no se obtienen mejores resultados en 2007, pero no hay que preocuparse por ello, porque la red se revisa en 2008. De esta manera evitamos el sobreentrenamiento (para la red) o la sobreoptimización (para el CT).

Es una prueba de futuro, EMMNIP :), creo que deberías leer a Haykin también.

Y en general tus últimos posts no son informativos, ¿puedes por fin empezar a expresar pensamientos realmente útiles?

 
TheXpert писал (а) >>

Es una prueba de avance, EMNIP :), creo que deberías leer a Haykin también.

Y en general, de tus últimos posts no hay ni uno solo informativo, ¿puedes por fin empezar a expresar pensamientos realmente útiles?

Lo siento, lo siento, no otra vez. Me estoy dejando llevar un poco.....)))))

 
LeoV писал (а) >>

Lo bueno de las redes recurrentes es que no hay "maestros". Así, excluimos una variable muy importante: los "profesores" de la red. Por tanto, si excluimos una variable muy importante, los profesores, podemos centrarnos únicamente en la búsqueda de insumos.

¿Qué? Ooh ¿Las redes recurrentes no tienen maestro? Las redes recurrentes se diferencian de los MLP en la presencia de retroalimentación, pero en ningún caso en la ausencia de un maestro. RTFM sobre los modelos Elman y Jordan.

 
TheXpert писал (а) >>

Es una prueba de avance, EMNIP :)

Último punto, lo siento. Las pruebas de avance son diferentes. ¿Pero tal vez no lo he explicado bien? Pero lo he releído y parece que tiene sentido. Simplemente no lo entendiste.....

 
TheXpert писал (а) >>

¿Qué? Ooo ¿Las redes recurrentes no tienen maestro? Las redes recurrentes se diferencian de los MLP en la presencia de retroalimentación, pero no en la ausencia de un maestro. RTFM sobre los modelos de Elman y Jordan.

Pues si lo hay, lo hay. No me importa ))))

 
SergNF писал (а) >>

Eh. Realmente no entiendo por qué no quieren creer "rápidamente" una idea y luego empezar a codificar.

Si volvemos al tema, resulta que ya han encontrado las entradas "correctas", las han normalizado y sólo queda... ... es estar a tiempo para el "campeonato". Todo (en el sentido de herramientas, no de insumos) ya está inventado. En este contexto, Neurosolutions o Neuroshel 2 (y muchos otros programas). Por lo menos asegúrese de que las entradas AND son "erróneas" y la "normalización" las distorsiona aún más, será rápido.

Sí. Hay un argumento: todos los programas están anticuados, los algoritmos están cubiertos de musgo, pero ... tal vez las entradas están equivocadas después de todo :)

'

Aquí estoy yo, desde la obsoleta y "clavada" "red" "Polinominal Net (GMDH)" (de NeuroShell 2) - diez horas de entrenamiento/aprendizaje y la fórmula de mercado está lista :)

Eso es lo que yo hago, pero como tengo mi propio software, lo uso.

Y sobre el código - ¿podrá Neurosolutions o Neuroshell 2 portar el código a MQL4? Voy a escribir un par de funciones, que creo que serán útiles para la gente de la zona, y tal vez para mí también. Sobre todo porque se tarda una hora en escribir cien líneas de código.

 
LeoV писал (а) >>

Un último punto, lo siento. Las pruebas de avance son diferentes. Pero quizás no lo he explicado bien. Pero lo he releído y parece que tiene sentido. Simplemente no lo entendiste.....

No importa, lo siento si me equivoco.