Aprendizaje automático para robots - página 5

 
Ivan Negreshniy:

Por supuesto que lo he probado, y no sólo yo, por ejemplo en el hilo sobre MO, hay quienes lo hicieron, repitiendo el mantra sobre la basura de entrada y aparentemente olvidando que la basura en la salida formal cuando se entrena con un maestro no es mucho mejor, mientras que la selección y el barajado de vectores de características no salva del overfitting.

Estoy tratando de marcar las señales manualmente, pero ¿debería el sistema estar distribuido de forma equitativa, o debería marcar sólo las entradas con la lógica?

¿Cómo hace frente la red a la no estacionariedad? ¿Y lo hace en absoluto, por ejemplo, el tamaño de un mismo patrón puede ser de 15 barras o de 150?

 
mytarmailS:

Estoy tratando de marcar las señales manualmente, pero ¿debería el sistema estar distribuido de forma equitativa, o debería marcar sólo las entradas con la lógica?

¿Cómo afronta la red la no estacionariedad? ¿Y la afronta en absoluto, por ejemplo, el tamaño de un mismo patrón puede ser de 15 barras o de 150?

Algunos modelos son sensibles al número de señales y requieren alineación, otros no, creo que podemos empezar con un andamiaje aleatorio y una rejilla autoescrita que son bastante poco pretenciosos, y en cuanto al tamaño del patrón, podemos tomar el máximo como base.
 
Ivan Negreshniy:

Ahora toca organizar y discutir los experimentos:

  • Cualquier autor dispuesto crea plantillas con señales de trading de su estrategia y las publica en este hilo.
  • Yo proceso las plantillas, creo Asesores Expertos o indicadores, y los publico aquí en forma compilada.
  • Todos los demás pueden descargar libremente las plantillas y los robots, probarlos y dar su opinión experta.

Por qué es tan complicado. Se puede hacer de una manera mucho más sencilla.

Muchas operaciones se generan aleatoriamente en el historial. Muchos de ellos tienen éxito y otros no. En esta muestra, enseñamos el sistema con métodos de MO. MO lo clasificará y encontrará patrones.

Lo hice en una secuencia de ~10 mil operaciones. Incluso un sistema simple con MO está aprendiendo bien y en la prueba muestra 80-85% de operaciones exitosas. Lo que ya es muy extraño para un simple MO, ya que simplemente no puede recordar tantas operaciones - la única explicación para esto es que MO realmente encuentra y generaliza algunos patrones.

Sí, pero todos estos milagros se observan sólo en una secuencia de entrenamiento).

 
Yuriy Asaulenko:

Por qué ser tan complicado. Se puede hacer de forma mucho más sencilla.

Muchos oficios se generan aleatoriamente en la historia. Muchos de ellos tienen éxito, otros no. Sobre esta muestra, entrenamos el sistema con los métodos de MO. MO lo clasificará y encontrará patrones.

Lo hice en una secuencia de ~10 mil operaciones. Incluso un sistema simple con MO está aprendiendo bien y en la prueba muestra 80-85% de operaciones exitosas. Lo que ya es muy extraño para un simple MO, ya que simplemente no puede recordar tantas operaciones - la única explicación para esto es que MO realmente encuentra y generaliza algunos patrones.

Sí, pero todos estos milagros se observan sólo en una secuencia de entrenamiento).

Bueno, sí, con un sobreajuste total la secuencia de entrenamiento puede ser del 100%, pero la tarea no es memorizar, sino generalizar y conseguir resultados hacia adelante.

Por eso, en el experimento se sugiere entrenar no con operaciones aleatorias o con todas las posibles operaciones rentables, sino con operaciones (señales) filtradas de las lecturas de cualquier indicador.

Así, todas las señales ya contarán con una dependencia formalizada con BP, y la red neuronal sólo tendrá que determinarla y establecer un patrón de exclusión de las señales malas que no se incluyan en la muestra.

 
Yuriy Asaulenko:

Por qué ser tan complicado. Se puede hacer de forma mucho más sencilla.

Muchos oficios se generan aleatoriamente en la historia. Muchos de ellos tienen éxito, otros no. Sobre esta muestra, entrenamos el sistema con los métodos de MO. MO lo clasificará y encontrará patrones.

Lo hice en una secuencia de ~10 mil operaciones. Incluso un sistema simple con MO está aprendiendo bien y en la prueba muestra 80-85% de operaciones exitosas. Lo que ya es muy extraño para un simple MO, ya que simplemente no es capaz de recordar tantas operaciones - la única explicación es que MO realmente encuentra y generaliza algunos patrones.

Sí, pero todos estos milagros sólo se observan en una secuencia de aprendizaje).

su conocimiento de MO todavía tiende a cero, por desgracia

por lo que su red neuronal interna aún no puede llegar a un consenso sobre lo que se trata
 
Maxim Dmitrievsky:

su conocimiento del Ministerio de Defensa sigue siendo, por desgracia, nulo.

Por eso tu red neuronal interna no puede llegar a un consenso todavía: ¿qué sentido tiene hacerlo?

No te emociones tanto, Maxim). Todo el mundo sabe ya que lo único más duro que tú son las pelotas.

 
Ivan Negreshniy:

Bueno, sí, en el entrenamiento de uno con overfitting completo puede ser del 100%, pero la tarea no es memorizar, sino generalizar y obtener resultados en un mercado a futuro.

Por eso, en el experimento se sugiere entrenar no con operaciones aleatorias o con todas las posibles operaciones rentables, sino con operaciones (señales) filtradas a partir de las lecturas de cualquier indicador.

Así, todas las señales ya contarán con una dependencia formalizada con BP, y la red neuronal sólo tendrá que determinarla y establecer un patrón de exclusión de las señales malas que no se incluyan en la muestra.

Con una dimensión de la muestra de entrenamiento mucho mayor que la dimensión del NS, el reentrenamiento es casi irreal.

Con muestras pequeñas, el reentrenamiento se consigue en un recuento de veces. Supongamos que te dan 200 operaciones reales.

 
Yuriy Asaulenko:

Con una dimensión de la muestra de entrenamiento mucho mayor que la dimensión del NS, el reentrenamiento es casi irreal.

Con muestras pequeñas, el reentrenamiento se consigue a la cuenta de una vez. Supongamos que le dan 200 operaciones reales.

Depende de los datos, de los parámetros y del tipo de modelo, por ejemplo en los árboles se aumenta dinámicamente el número de niveles, como en mi red el número de neuronas, aunque hay un límite de densidad condicional de información, pero está determinado sólo por la muestra de entrenamiento, se pueden hacer podas, comités, etc.

Y el sobreaprendizaje, no es necesariamente recordar todas las muestras, es simplemente recordarlas sin generalizar, por ejemplo en presencia de información contradictoria que se sustituye y no se puede promediar.

 
Ivan Negreshniy:

Depende de los datos, de los parámetros y del tipo de modelo, por ejemplo en los árboles el número de niveles aumenta dinámicamente, así como en mi red el número de neuronas, aunque hay un límite de densidad de información condicional, pero está determinado sólo por la muestra de entrenamiento, se pueden hacer podas, comités, etc.

Y el sobreaprendizaje, no es necesariamente memorizar todas las muestras, es simplemente memorizarlas sin generalizar, por ejemplo en presencia de información contradictoria que se sustituye y no puede promediarse.

Por qué no nos descargamos alguna estrategia superdotada de Market, la ejecutamos en el probador (confiamos en el probador)), y aplicamos los resultados a NS, RF, SVM o cualquier otra cosa. Y no tenemos que esperar: lo probamos en la demo y vemos los resultados.

 
Yuriy Asaulenko:

Por qué no hacer lo siguiente para experimentar: descargar alguna estrategia superdotada de Market, ejecutarla en el probador (confiamos en el probador)), y presentar los resultados a NS, RF, SVM o algo más. Y no tenemos que esperar: lo probamos en la demo y vemos los resultados.

Así que no se puede, compilado con la protección moderador rechazará porque se necesita la fuente, y la fuente rechazará porque es necesario para proteger los derechos del vendedor - círculo vicioso funciona :))

Pero aquí no hay nada sorprendente, porque el estatus legal de los robots de diferentes profesiones y en el entorno del objeto, hasta ahora, es pobre...