Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1335

 
Aleksey Vyazmikin:
Maxim, intercambié la muestra en lugares - para la formación y la validación, dejé la de prueba - ¿cuál será el resultado basado en el dogma científico? Todavía no lo sé, el proceso no está terminado.

Si sus datos y su modelo son adecuados, en teoría el resultado debería empeorar.

 

Hay algo que no entiendo de su Ministerio de Defensa. Me da la impresión de que simplemente se le da al Ministerio de Defensa una serie de datos-predictores, etc., y se le dice: ahora vete a buscar beneficios para mí, y cuantos más mejor.

Es como - aquí hay un caballo para ti, Iván, aquí hay una espada y un escudo, y ahora ve y tráeme el pájaro de fuego, según los rumores - en algún lugar ahí fuera, más allá del mar, más allá del océano. Si no lo encuentras, te daré un hachazo. Al menos Iván tenía al Caballito Jorobado, que lo sabía todo, pero el MD sólo es capaz de encontrar algo y pregunta: "Bueno, ¿qué es? El Pájaro de Fuego, ¿no? - No. Muy bien, miremos de nuevo.

De todos modos, sería bueno darle a Iván al menos alguna información preliminar, como por ejemplo si está en Bujara o en la India con el Sha de tal o cual cosa. Sólo hay dos lugares para visitar. Y el Ministerio de Defensa tampoco está mal, hay menos opciones que recorrer y la tarea se formula de forma más concreta.

 
Yuriy Asaulenko:

Tienes una caja, dentro de la cual se crea una especie de paisaje muy accidentado. Lanzamos muchas pelotas allí (eso es el sids), y nuestro trabajo consiste en asegurarnos de que la mayoría de las pelotas lleguen a los huecos más profundos. Este será el aprendizaje, y este es el principio por el que se estructura el aprendizaje en ME.

1. Si sacudimos ligeramente la caja, la mayoría de las bolas no podrán salir de los huecos donde cayeron originalmente: el aprendizaje no se producirá.

2. Si agitamos la caja enérgicamente, algunas de las bolas tienen la oportunidad de golpear y se quedan sólo en los huecos más profundos, pero los menos profundos se quedarán sin llenar porque las bolas saldrán de allí. El aprendizaje completo no se producirá.

3. Si agitamos la caja con una fuerza media, sólo se llenarán los huecos más profundos y centrales, pero el resto de las bolas no encontrarán nada y seguirán rebotando aleatoriamente por la caja. El aprendizaje es mejor que en 1 y 2, pero tampoco es un as.

Los métodos de aprendizaje siempre tienen ajustes: exactamente cómo y cuándo agitar la caja para conseguir el aprendizaje más efectivo.

Si los distintos "sids" no cuadran, es que o bien hay algo que falla en el algoritmo de aprendizaje -lo agitas mal- o bien faltan huecos profundos a los que agarrarse en nuestra caja.

Muy bien dicho, pero no estoy seguro de si es lo mismo en boosting que en NS (ajustar aleatoriamente los pesos en las neuronas al inicio del entrenamiento), no he podido encontrar información exacta sobre la implementación. Y, en cualquier caso, lanzar bolas a la fuerza a diferentes puntos puede ser mejor, entre otras cosas porque permite comparar modelos al cambiar otros ajustes. Lo único que no entiendo es el alcance...

 
Maxim Dmitrievsky:

Por ejemplo, hay un gráfico, ¿qué debo decir? Aquí se busca el beneficio, pero no se busca porque no me gusta, tengo malas asociaciones con él.

Exactamente)) Eso es exactamente lo que deberías decir. Y cuanto más, mejor. Seguramente estamos sentados en el mercado durante años por una razón, ya sabemos algo: si vas a la derecha, pierdes un caballo, etc.

Y en general, de dónde saldría alguien que empezara todo desde cero, sin utilizar los conocimientos y la experiencia de las generaciones anteriores. Hacemos que el IG haga exactamente eso.

 
Maxim Dmitrievsky:

y dirá: "Si eres tan inteligente, cógelo tú y véndelo sin mí.

Lo he añadido allí.

 
Yuriy Asaulenko:

Aun así, sería buena idea que Iván diera al menos alguna información preliminar, como en Bujara o en la India con el Sha de tal o cual. Sólo hay dos lugares para visitar. Y el Ministerio de Defensa tampoco está mal, hay menos opciones que recorrer y la tarea está formulada de forma más específica.

Estoy pensando en la implementación, cuando habrá un post-procesamiento del modelo en el resultado de la balanza comercial - el objetivo es deshacerse de las ideas falsas sobre el mercado, si es posible. Pero todas estas ideas deben ser codificadas, se necesita demasiado tiempo por desgracia.

 
Maxim Dmitrievsky:

Sin embargo, alfastar gana a los jugadores profesionales en starcraft, ajedrez y go, con sólo un mes de entrenamiento (o menos, lo olvido), lo que equivale a ~200 años de experiencia como jugador profesional

No conocemos la metodología de formación). Las condiciones iniciales y la configuración del problema siempre están ahí.

 
Yuriy Asaulenko:

Hay algo que no entiendo de su Ministerio de Defensa. Me da la impresión de que simplemente se le da al Ministerio de Defensa una serie de datos-predictores, etc., y se le dice: ahora vete a buscar beneficios para mí, y cuantos más mejor.

Es como - aquí hay un caballo para ti, Iván, aquí hay una espada y un escudo, y ahora ve y tráeme el Pájaro de Fuego, según los rumores - en algún lugar ahí fuera, más allá del mar, más allá del océano. Si no lo encuentras, te daré un hachazo. Al menos Iván tenía al Caballito Jorobado, que lo sabía todo, pero el MdD sólo encuentra algo y pregunta: "Bueno, ¿qué es? El Pájaro de Fuego, ¿no? - No. Muy bien, miremos de nuevo.

De todos modos, sería bueno darle a Iván al menos alguna información preliminar, como por ejemplo si está en Bujara o en la India con el Sha de tal o cual cosa. Sólo hay dos lugares para visitar. Y el Ministerio de Defensa tampoco está mal, hay menos opciones en las que buscar y la tarea está formulada de forma más concreta.

Aunque por el nombre se me puede asociar con el protagonista de su cuento, pero no por la esencia, ya que sólo sugiero tener en cuenta en MO la búsqueda de beneficios máxima información adicional de la experiencia del comerciante, por ejemplo en mi hilo con las plantillas -https://www.mql5.com/ru/forum/270216
Машинное обучение роботов
Машинное обучение роботов
  • 2018.08.02
  • www.mql5.com
Привет всем, я занимаюсь машинным обучением (МО) советников и индикаторов и решил вынести на всеобщее обсуждение свои эксперименты...
 
Maxim Dmitrievsky:

Lo sé, yo enseño a los bots de la misma manera, con éxito variable hasta ahora (no hay mucha experiencia)

Por ejemplo: el bot aprendió a operar por sí mismo por ensayo y error, durante unos 4 minutos. A la derecha está la formación, a la izquierda los nuevos datos

no se le ha dado ningún conocimiento a priori

Se avecinan desarrollos únicos de bots con inteligencia artificial que conquistarán no sólo el mercado, sino el mundo entero

El aprendizaje de la derecha no es del todo lógico. Si buscamos alguna información (argumentos) en una cotización que afecte al precio futuro (función), entonces el aprendizaje debe ser siempre a la izquierda, de lo contrario se resuelve el problema inverso, como encontrar argumentos de una función:)
 
Ivan Negreshniy:

Si sus datos y su modelo son adecuados, en teoría el resultado debería empeorar.

¿Por qué? No sólo es interesante lo que está en juego, sino también la razón de ser.