Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1881

 
Evgeny Dyuka:
El problema es que el esquema de preparación de datos parece haberse agotado, con no más de un 65-66% de respuestas correctas, y se necesita más. Estoy buscando una manera de romper este muro.

¿Cuál es su objetivo?

 
mytarmailS:

¿cuál es su objetivo?

El 65% de respuestas correctas es el nivel de un buen indicador, esto es lo que muestra actualmente neuro. A partir del 70% se puede intentar abrir posiciones.
 
Evgeny Dyuka:
El 65% de las respuestas correctas es el nivel de un buen indicador, esto es lo que muestra actualmente Neuro. Si la respuesta es del 70% o más, podemos intentar abrir una posición.

entiendo, pero ¿cuál es el objetivo? ¿qué está prediciendo con las redes? ¿un retroceso? ¿una tendencia? si es una tendencia, ¿qué ha descrito como tendencia?

 
mytarmailS:

lo entiendo, pero ¿cuál es el objetivo? ¿qué está prediciendo con las redes? ¿un retroceso? ¿una tendencia? si es una tendencia, ¿qué ha descrito como tendencia?

Estoy prediciendo si el precio subirá o bajará después de un cierto período de tiempo.
 
Por cierto, quizá los entendidos puedan darte una pista. He aquí una pregunta:

La tarea, por ejemplo, consiste en distinguir un gato de un perro mediante una foto. ¿Cuál es la opción de formación adecuada?
1. Mostrar sólo imágenes de gatos y perros, es decir, clasificación binaria.
2. Enseñar por separado sólo gatos y "no gatos" (protos caos) + por separado también perros y "no perros", es decir, dos ciclos de entrenamiento y dos patrones a la salida.
3. Haz una clasificación de tres: gatos, perros y caos. Es decir, habrá un modelo, pero la respuesta es una clasificación de tres opciones.

Ahora mismo tengo la primera opción y está claramente torcida. El problema es que el neuro aprende bien sólo una de las variantes, convencionalmente sólo ve bien a los "gatos" y reconoce mal a los perros. Por ejemplo, en las pruebas retrospectivas los modelos son buenos para detectar un movimiento de precios al alza e ignorar un movimiento a la baja. Si la estimación hacia arriba es tan alta como el 67%, el mismo modelo sólo adivina hacia abajo el 55%. "Arriba" y "abajo" de un modelo a otro pueden cambiar de lugar.
 
mytarmailS:

lo entiendo, pero ¿cuál es el objetivo? ¿qué está prediciendo con las redes? ¿un retroceso? ¿una tendencia? si es una tendencia, ¿qué ha descrito como tendencia?

Hago predicciones en cada vela, sin tener en cuenta tendencias, retrocesos y demás. A la red neuronal le corresponde pensar en todo ello y a mí responder "por arriba o por abajo".
 
Evgeny Dyuka:
Por cierto, quizá los expertos puedan ayudar. He aquí una pregunta:

La tarea, por ejemplo, consiste en distinguir un gato de un perro mediante una foto. ¿Cuál es la forma correcta de aprender?
1. Mostrar sólo imágenes de gatos y perros, es decir, clasificación binaria.
2. Enseñar por separado sólo gatos y "no gatos" (protos caos) + por separado también perros y "no perros", es decir, dos ciclos de entrenamiento y dos patrones a la salida.
3. Haz una clasificación de tres: gatos, perros y caos. Es decir, habrá un modelo, pero la respuesta es una clasificación de tres opciones.

Ahora mismo tengo la primera opción y está claramente torcida. El problema es que el neuro aprende bien sólo una de las variantes, convencionalmente sólo ve bien a los "gatos" y reconoce mal a los perros. Por ejemplo, en las pruebas retrospectivas los modelos son buenos para detectar el movimiento del precio al alza e ignoran el de la baja. Si el modelo adivina hacia arriba un 67%, el mismo modelo sólo adivina hacia abajo un 55%. Los patrones "arriba" y "abajo" pueden cambiar de lugar de un modelo a otro.

El problema aquí no está en las variantes de clasificación, sino en el desequilibrio de los ejemplos para el entrenamiento, desequilibrio ya sea en número o en las propiedades características de los ejemplos.


¿Una red convolucional?

 
Evgeny Dyuka:
Por cierto, quizá los expertos puedan ayudar. He aquí una pregunta:

La tarea, por ejemplo, consiste en distinguir un gato de un perro mediante una foto. ¿Cuál es la forma correcta de aprender?
1. Mostrar sólo imágenes de gatos y perros, es decir, clasificación binaria.
2. Enseñar por separado sólo gatos y "no gatos" (protos caos) + por separado también perros y "no perros", es decir, dos ciclos de entrenamiento y dos patrones a la salida.
3. Haz una clasificación de tres: gatos, perros y caos. Es decir, habrá un modelo, pero la respuesta es una clasificación de tres opciones.

Ahora mismo tengo la primera opción y está claramente torcida. El problema es que el neuro aprende bien sólo una de las variantes, convencionalmente sólo ve bien a los "gatos" y reconoce mal a los perros. Por ejemplo, en las pruebas retrospectivas los modelos son buenos para detectar un movimiento de precios al alza e ignorar un movimiento a la baja. Si la estimación hacia arriba es tan alta como el 67%, el mismo modelo sólo adivina hacia abajo el 55%. "Arriba" y "abajo" de un modelo a otro pueden cambiar de lugar.

Hay dos conjuntos de puntos, no recuerdo como se llaman estos puntos, cualquier reconocimiento a partir de la foto es identificar los puntos de los ojos, nariz, boca, orejas, zona de las mejillas y la distancia y posición entre ellos. Es tan sencillo como eso. Así que si sólo muestras un gato, no es eso. Primero hay que entrenar para reconocer un gato de un gato, un perro de un perro, y sólo entonces distinguir.

Y sí no sólo 2 ciclos, sino más en formación si hay más de 2 clases

 
mytarmailS:

El problema aquí no está en las opciones de clasificación, sino en el desequilibrio de los ejemplos de entrenamiento, desequilibrando el número o las propiedades características de los ejemplos.


¿Una red convolucional?

No, no convolucional, no muestro imágenes reales ))
Los ejemplos de aprendizaje desequilibrados pueden muy bien ser la causa, pero creo que hay que trastear con la función de activación. La respuesta cae en el agujero equivocado, y hay muchos agujeros. Tengo que aprender TensorBoard para la hechicería, pero es un dolor tan grande...
En resumen, no tengo suficientes conocimientos.
 
Evgeny Dyuka:
No, la convolución no, no muestro imágenes reales).
Los ejemplos de aprendizaje desequilibrados pueden muy bien ser la causa, pero creo que hay que trastear con la función de activación. La respuesta cae en el agujero equivocado, y hay muchos agujeros. Tengo que aprender TensorBoard para la hechicería, pero es un dolor tan grande...
No sé lo suficiente.
error tipográfico - no la función de activación, sino la función de optimización