La etiqueta del mercado o los buenos modales en un campo de minas - página 87

 
Neutron писал(а) >>
Pongo esta tarea en manos de NS, decide, sobre la base del análisis, la historia más "corta" posible (todavía la historia, ¿qué más se puede utilizar en el AT?), para abrir en la dirección (H +) o en contra (H-).

Entonces no queda mucho de la disertación, ¿no?

Y el perceptrón, según tú, e. predice SOLO la dirección.

 
M1kha1l >> :

Entonces no queda mucho de la disertación, ¿no?

Y el perceptrón, según usted, e. predecir sólo la dirección.

Así que no nos interesa la tesis sino el beneficio... Por la misma razón, no necesitamos saber nada más que la dirección (el signo del siguiente punto de referencia).

 

¿Los patrones de los pastores no son lo mismo?

¿Qué diferencia hay entre analizarlos con estadísticas o con redes...

 
gpwr писал(а) >>

Mi red recibió 300 ejemplos de entrenamiento y el número de pesos fue de 45. En la literatura existe la opinión de que con 5 veces más ejemplos de entrenamiento que pesos, la red con un 95% de probabilidad será generalizada. Es decir, mi red debe tener una buena generalización según la teoría, pero en realidad no es así. Por eso he puesto ejemplos para confirmarlo. Creo que la cuestión aquí no es tomar más ejemplos de formación. Se trata de la naturaleza del problema que estoy obligando a la red a resolver. Si se intenta que la red prediga el tamaño del siguiente paso del precio, entonces en el entrenamiento tenderá a tales pesos en los que las neuronas operan en la zona lineal de la función de activación para preservar la proporcionalidad entre el paso predicho y los pasos pasados de entrada. Es decir, la tarea en sí es lineal. Dada esta situación, añadir neuronas ocultas no mejorará nada. Y la propia capa oculta se vuelve innecesaria. Experimentando con mi red, llegué a la conclusión de que una sola capa funciona tan bien como una doble. Creo que, leyendo tus mensajes anteriores en este hilo, llegaste a la misma conclusión para el EURUSD también.

Creo que la red debería utilizarse para problemas altamente no lineales (como XOR o problemas de clasificación) en los que la función de activación de las neuronas puede elegirse de forma escalonada.

Si no es difícil, envíeme(.rar) la muestra en la que entrenó a NS, la muestra de unos 10000 ejemplos. O el código que lo formará...

A primera vista, en la muestra que presentó en la red hay una fuerte relación lineal entre la entrada y la salida, por lo que la red funciona como el solucionador lineal...

//----

sobre el muestreo: hay una manera de determinar una muestra suficiente para el entrenamiento, pero la red (10-21-8-1) puede ser reentrenada con una muestra de 50 000 o 100 000 muestras...

por lo que es mejor entrenar con validación cruzada...

 
paralocus писал(а) >>

No es la tesis lo que nos interesa, es el beneficio... Por la misma razón no necesitamos saber nada más que la dirección (el signo de la siguiente cuenta).

¿Y en qué marco temporal crees que tiene sentido la previsión de la dirección de las velas? Estoy indagando en esta misma dirección (no estoy usando una red neuronal), los resultados (probabilidad de pronósticos correctos) son los siguientes m1- 69%, m5- 61%, m15- 58%, m30- 56%, h1- 55%, h4- 51%, d1- 46%, w1- 51%, m1- 58%. El asesor basado en este método drena a la velocidad de propagación. :/

 
lea >> :

¿Y en qué marco temporal crees que tiene sentido la predicción de la dirección de las velas? Ahora estoy investigando en esta dirección (sin usar una red neuronal); los resultados (probabilidades de predicciones correctas) son los siguientes: m1- 69%, m5- 61%, m15- 58%, m30- 56%, h1- 55%, h4- 51%, d1- 46%, w1- 51%, m1- 58%. El asesor basado en este método drena a la velocidad de propagación. :/

Ninguno de ellos, en mi opinión. >>¡Se acabaron los plazos!

 
paralocus >> :

No lo creo. Los plazos, una mierda.

Después de todo, ¡has heredado el temperamento de tu Héroe! Tómate tu tiempo, llegará el momento y escribirás algo así:

¡Fuera tics!

Es que, todo a su tiempo...

>> Buena suerte. :о)

 
grasn писал(а) >>

Es que, todo a su tiempo...

Mientras mi red neuronal recopila estadísticas (se ha estrellado un par de veces debido a una convergencia inestable con un gran número de neuronas en la capa oculta, por lo que he tenido que volver a introducir la normalización de la tasa de recuento a la longitud del vector de pesos), daré mi opinión sobre la aplicabilidad de NS.

Más arriba he sugerido la capacidad de la red entrenada para rellenar las lagunas estadísticas del vector de entrenamiento. Esto, en mi opinión, permite utilizar eficazmente la NS cuando se carece de datos de entrenamiento. Sin embargo, la naturaleza resultó ser aún más interesante... Parece que la principal especialización de NS se encuentra en un área ligeramente diferente. Su trabajo consiste en "emitir" un valor (predicción) basado en aquellos valores de los datos de entrada que no participaron en el entrenamiento. Es comprensible, pero piénsalo... Basta con tener unos cuantos puntos de referencia en el rango de entradas NECESARIO (el rango de valores que toman las entradas) para predecir el valor esperado en los datos de entrada "ligeramente" erróneos con la mayor fiabilidad posible. Esta es la principal propiedad de NS, y el punto clave aquí es el hecho de la continuidad del rango de valores de los datos de entrada. Aquí es donde entra en juego el poder de la NS.

¿Qué ocurrirá si los datos de entrada son discretos? Nada en particular, NS también funcionará. Pero ahora tenemos la oportunidad de reunir estadísticas sobre todas las combinaciones de valores discretos y hacer la misma previsión que en el caso de NS pero sin ella. Pero no debemos olvidar, que NS lo hará mucho más rápido y elegantemente (si hay muchos valores discretos, pero si no...). Y, si la discreción de los valores de entrada es baja, o sólo son dos (+/-1), entonces, como resulta, ¡el NS no es necesario! Basta con reunir estadísticas para cada valor, y nada en la naturaleza dará una predicción más precisa que esto.

Para la predicción de entradas binarias hay métodos mucho más eficientes que NS. Esto no disminuye los méritos de NS, pero es fascinante la forma en que la predicción de BP se reduce a una predicción binaria.

La figura muestra la gama de estados que acepta un NS binario de dos entradas. El número de combinaciones que pueden tomar los valores de entrada es sólo 4. Y en cada una de ellas tenemos que tomar una decisión de compra/venta. La NS no es necesaria aquí. Necesitamos las estadísticas triviales. Para 3 NS de entrada, obtenemos un cubo tridimensional con 8 vértices, en cada uno de los cuales la misma Compra/Venta, etc.

Una vez más, no estoy menospreciando los méritos de NS. Por ejemplo, si pronosticamos la población de Daphnia en el estanque, que depende de uno o dos factores (acidez del agua, temperatura, etc.), no podemos hacer una predicción fiable sin utilizar NS si al menos uno o dos de los parámetros van a cambiar en un 1 % - probablemente entraremos en la zona en la que no hay ninguna estadística o no es adecuada para la interpolación.

 
Neutron >> :
...

Suena como un veredicto.... como un "veredicto", por ejemplo a Minsky, que demostró serias limitaciones de los perceptrones, y que en la búsqueda del dinero simplemente se olvida. Y también olvidan que incluso una red multicapa con inicialización no lineal no da absolutamente ninguna garantía de clasificación correcta, y también olvidan ... (pero esto es como una broma, no el comienzo de otra discusión). Confieso que todavía no entiendo lo que es el poder de NS de su puesto, pero mi experiencia en la construcción tanto de mi propia y el uso de medios especializados de NS da respuesta simple y clara - utilizando perceptrón no da ninguna ventaja en absoluto, sobre todo - en "malas" filas (sus kags son muy malas filas para la predicción).


Pero buena suerte de todos modos. Hasta luego, (voy a desaparecer un par de semanas).

 
Si alguien está interesado, hay una historia completa de los futuros disponible en FORTS. Tiene varios años de profundidad.