Cómo formar correctamente los valores de entrada para el NS. - página 24
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Y, por último, para los frikis que piensan que las capacidades de interpolación de NS son necesarias para el comercio, puedo aportar un contraargumento concreto. Simplemente tome cualquier indicador u oscilador de redibujo y obtendrá una interpolación sorprendente sobre la historia sin necesidad de redes neuronales y arquitecturas complicadas. Por supuesto, los operadores evitan redibujar los índices porque lo que es adecuado para la interpolación o la aproximación no es adecuado para la extrapolación en condiciones de no estacionariedad.
Esto es una tontería... ¿Qué tiene que ver un indicador de redistribución con la interpolación y la previsión de futuro?
Y, por último, para los frikis que piensan que las capacidades de interpolación de NS son necesarias para el comercio, puedo aportar un contraargumento concreto. Simplemente tome cualquier indicador u oscilador de redibujo y obtendrá una interpolación sorprendente sobre la historia sin necesidad de redes neuronales y arquitecturas complicadas. Por supuesto, los operadores evitan redibujar los índices porque lo que es adecuado para la interpolación o la aproximación no es adecuado para la extrapolación en condiciones de no estacionariedad.
Es que no entiendes bien lo que se aproxima. Hay un vector de entrada X de dimensión N y un vector de salida Y de dimensión M. NS establece la relación entre ellas, es decir, aproxima la dependencia Y = F(X). Y puede ser cualquier cosa, incluso de triple sentido, a NS no le importa, resuelve exactamente el problema de aproximación F(X) sobre la muestra de entrenamiento.
¡¡¡EL REDISEÑO ES EL OPIO DEL PUEBLO!!! ))))
Incluso reforzaría este consejo: dividir por 10. Por alguna razón me viene a la mente el hilo sobre la resonancia estocástica. Entrenar la malla hasta el final puede llevar la función objetivo a un mínimo profundo, es decir, a un estado estacionario. Los estados estables no son en absoluto típicos de los mercados financieros. Son cuasi estables, es decir, que están dispuestos a convertirse en un desastre (tendencia) en cualquier momento bajo la influencia de un mínimo "ruido". Pero esto es sólo un pensamiento filosófico...
En mi opinión, hay un malentendido sobre la naturaleza del estado de la SN, que puede describirse como "sobreentrenada" y "subentrenada". Estos términos se refieren a rasgos que relacionan la longitud de la muestra de entrenamiento, el número de parámetros libres (sinapsis) de un determinado NS y la magnitud del error de generalización en el conjunto de pruebas. Si la longitud de la muestra es comparable al número de pesos ajustables (en el límite menor o igual), entonces en la muestra de entrenamiento obtendremos cualquier coincidencia exacta de la respuesta del NS con los vectores de entrada, pero en la muestra de prueba obtendremos un sinsentido total. Este es un ejemplo de una red sobreentrenada. Si la longitud de la muestra de entrenamiento es demasiado larga (cuán larga es una cuestión aparte), obtendremos una mala coincidencia en la muestra de entrenamiento (en el límite, sólo determinaremos la media de la muestra). En la muestra de prueba, obtendremos lo mismo: la media.
Como puede verse, el número de épocas de entrenamiento está fuera de toda duda. Además, para conseguir un mínimo global (aprendizaje de NS), necesitamos que de todas las posibles soluciones del sistema redefinido de ecuaciones no lineales (lo que hace NS), elegir la que nos dará el menor error acumulado (satisfará al menos TODAS las ecuaciones del sistema). Esta condición se satisface, por supuesto, con la solución (pesos encontrados de las sinapsis) que tiende a los límites - obtenidos cuando el número de épocas de entrenamiento tiende a infinito.
Por lo tanto, no hay que confundir el sobreentrenamiento o el infraentrenamiento de NS con el número de épocas de entrenamiento; este último debe ser siempre razonablemente grande (el número exacto debe determinarse experimentalmente).
He encontrado una discusión sobre el "problema de la parada temprana" en la literatura, pero mi impresión es que los autores no entienden bien la naturaleza de lo que están escribiendo. De hecho, si tomamos una situación en la que la longitud de la muestra de entrenamiento es menor que la óptima, entonces en el proceso de entrenamiento se producirá una situación en la que el error en el conjunto de pruebas primero disminuirá, y luego, con el aumento del número de épocas de entrenamiento, comenzará a crecer de nuevo... ¡Bueno, esa es otra historia, camaradas!
Me retiraré ahora que se han reunido aquí suficientes NN grandes. Mi opinión es insignificante, ya que soy un aficionado a las redes nerviosas.
Ni siquiera he hablado de la relación entre entradas y grados de libertad, suponiendo que sea al menos 10 como recomienda la teoría. Sólo he dicho lo del momento en que la TF en la sección de verificación pasa por el mínimo. Parece que Shumsky lo describe con bastante claridad, si no me equivoco.
Me retiraré ahora que se han reunido aquí suficientes NN grandes. Mi opinión es insignificante, ya que soy un aficionado a las redes nerviosas.
Ni siquiera he hablado de la relación entre entradas y grados de libertad, suponiendo que sea al menos 10 como recomienda la teoría. Sólo he dicho lo del momento en que la TF en la sección de verificación pasa por el mínimo. Si no me equivoco, Shumsky también lo describió con bastante claridad.
Las becas de matemáticas tampoco estarían de más, por favor, no te desanimes :) . Creo que otros se sumarán a la petición.
Yo reforzaría aún más este consejo: dividir por 10. Por alguna razón me viene a la mente una rama sobre la resonancia estocástica. Entrenar la malla hasta el final puede llevar la función objetivo a un mínimo profundo, es decir, a un estado estacionario. Los estados estables no son en absoluto típicos de los mercados financieros. Son cuasi estables, es decir, que están dispuestos a convertirse en un desastre (tendencia) en cualquier momento bajo la influencia de un mínimo "ruido". Pero son sólo reflexiones filosóficas...
Bueno, me refiero a lo mismo. Lo que ocurre es que se ha utilizado el término "estado estable" en lugar del popular "estado estacionario". Con ambos términos se quiere decir que los datos estadísticos (de ajuste) se acercan a los probabilísticos. Pero cualquiera que haya tratado con instrumentos financieros sabe muy bien que las estadísticas no son aplicables a ellos debido a la no estacionariedad.
Sólo empíricamente, encuentro que la red necesita ser reentrenada en un tercio aproximadamente. De nuevo, sin embargo, depende de la idoneidad de las entradas. Es posible que otros sólo necesiten empíricamente un 10% de formación.
Bueno, eso es lo que quiero decir también. Lo que ocurre es que se ha utilizado el término "estado estable" en lugar del término popular "estable". Con ambos términos se quiere decir que los datos estadísticos (de ajuste) se aproximan a los probabilísticos. Pero cualquiera que haya tratado con instrumentos financieros sabe muy bien que las estadísticas no son aplicables a ellos debido a la no estacionariedad.
Sólo empíricamente, encuentro que la red necesita ser reentrenada en un tercio aproximadamente. De nuevo, sin embargo, depende de la idoneidad de las entradas. Es posible que otros sólo necesiten empíricamente entrenar un 10%.
Según Haikin, puede haber una discrepancia entre los resultados del entrenamiento completo en la muestra de entrenamiento y en la de prueba sólo si el número de patrones no es lo suficientemente alto.
Si hay suficientes patrones, el entrenamiento completo produce mejores resultados para la muestra de prueba que para el punto de ruptura temprano, como se mencionó anteriormente.
Por mi experiencia, tiendo a creer en estos resultados.
En cuanto a la red neuronal lineal, si puede obtener resultados positivos con suficiente fiabilidad, sólo puede haber una conclusión: no necesita una red neuronal.
Esto es una tontería... ¿Qué tiene que ver el rediseño del indicador con la interpolación y la previsión de futuro?
Estimado señor, ¿dónde he afirmado que la interpolación esté relacionada con el futuro? Ve a ver a un oculista y lee los post con atención en lugar de lanzar expresiones. He informado y reitero para los especialmente dotados que la extrapolación es necesaria para el futuro.
Mi post era en respuesta al post de rip:
------------------ Cotización ------------------------
rip 14.07.2008 00:01
Sí. La arquitectura, con las entradas adecuadas, ya no es un problema. Se podría decir: las entradas lo son todo, la arquitectura no es nada.
Aquí, los señores recogieron entradas normales y obtuvieron resultados adecuados con MTS "Combo" :
Estoy de acuerdo con usted hasta cierto punto. Pero la arquitectura de la red juega un papel importante... por ejemplo, las redes RBF son mucho mejores para resolver algunas tareas de interpolación.
Según Heikin, sólo puede producirse una divergencia de resultados en el entrenamiento completo en una muestra de entrenamiento y de prueba si el número de patrones no es lo suficientemente grande.
Sr. Nerd, la gente normal tiene su propio cerebro y experiencia, mientras que los nerds citan a otros nerds porque no hay cerebros propios ni puede haberlos.
Lo más probable es que Haykin haya entrenado la red en un entorno estacionario, de ahí sus conclusiones. En un entorno no estacionario, la red puede no aprender en absoluto si se le dan demasiados patrones porque, por ejemplo, en el comercio, hoy un patrón apunta a la compra y la próxima vez apunta a la venta. Porque cualquier entrada tiene cierta probabilidad de señales falsas.