Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1274

 
Aleksey Vyazmikin:

De nuevo, no entiendo la pregunta sobre "usted personalmente hizo algo como resultado" - amplíe eso, ¿cuál fue el resultado, y qué tuve que hacer personalmente? Si nos referimos a mi aplicación de MdD, entonces sí, estoy trabajando en este tema de varias maneras (creación de modelos, selección, aplicación) - he escrito mucho sobre mis logros aquí.

Es decir, ya estás aplicando lo que has expresado aquí (no he leído todo porque no es realista 1200 pp). Si tienes 100500 señales, puede que una de ellas sea la verdadera.

 
Farkhat Guzairov:

Así que para la próxima partida, este comportamiento no estándar ya será superado por el bot, está claro que de momento el humano puede superar a la IA mediante un comportamiento no estándar, pero en cuanto la IA "diga" "Por qué será....", el humano lo tendrá difícil.

Si este truco se repite constantemente como medio de combate, entonces sí, hará algo, pero si no es así, no es más que una anomalía ordinaria, a la que el modelo no debería responder adecuadamente.

 
Farkhat Guzairov:

Es decir, lo que ya se aplica de lo que se ha expresado aquí (no he leído todo porque no es realista 1200 pp). Me puedes dar un enlace donde esto sea usado por ti, tienes 100500 señales, probablemente una de ellas sea la indicada.

Yo uso CatBoost y el árbol "mágico" de Doc, ahí tengo mi propia metodología. Por el momento sólo se está probando en una cuenta real, lo que ha revelado una serie de problemas con los predictores, como resultado tendré que aprender desde cero, desde el árbol - eso es alrededor de medio año perdido. Catbust hornea los modelos con bastante rapidez, todo está ya bastante automatizado allí, desde la creación del modelo, la selección, hasta la aplicación del modelo en el comercio. Catbust me ha ayudado mucho, especialmente con el intérprete de modelos en MQL. Si no se detectan fallos, utilizaré modelos con dinero real para la primavera - los modelos se utilizarán en packs, para cada modelo 1 lote, habrá dos cuentas - para comprar y vender.

 
Aleksey Vyazmikin:

Estoy utilizando CatBoost y el árbol "mágico" de Doc, tengo mi propia metodología allí. Por el momento sólo se está probando en una cuenta real, lo que ha revelado una serie de problemas con los predictores, como resultado tendré que aprender desde cero, desde el árbol - eso es alrededor de medio año perdido. Catbust hornea los modelos con bastante rapidez, todo está ya bastante automatizado allí, desde la creación del modelo, la selección, hasta la aplicación del modelo en el comercio. Catbust me ha ayudado mucho, especialmente con el intérprete de modelos en MQL. Si no se detectan nuevos bugs antes de la primavera planeo utilizar modelos con dinero real - los modelos se utilizarán en lote, para cada modelo 1 lote, habrá dos cuentas - para comprar y vender.

¿Qué es el árbol "mágico" de Doc? ¿Dónde puedo ver los detalles?
 
elibrarius:
¿Cuál es el árbol "mágico" de Doc? ¿Dónde ver los detalles?

Hay un script en R con un algoritmo genético para crear un árbol, seleccionar generaciones por mejora de entropía. Luego hay una especie de selección final. Tomo todos los árboles para la selección final y extraigo hojas de ellos para realizar otras mediciones por separado en MT5. El guión no se ha hecho público, por lo que tampoco hay descripciones detalladas. Aparentemente es como seleccionar el mejor árbol del bosque, pero hay una limitación de profundidad para evitar el sobreentrenamiento, así el proceso toma alrededor de 2 días en todos los núcleos en la última muestra, donde no todas las barras, pero sólo las señales para entrar, y si todas las barras durante 3 años, entonces el cálculo toma 1,5 meses allí. Después del cálculo hago la división del árbol, es decir, quito la columna con el predictor raíz del mejor árbol de la población y empiezo de nuevo, parecía que incluso en 40 de estos procedimientos se crean algunas hojas muy buenas, por lo que llegué a la conclusión, que la mejor disposición matemática del árbol no es siempre la más eficaz, y una información interfiere con otra, que apareció más tarde utilizada en el mismo CatBoost, cuando eligen al azar los predictores de toda la muestra para construir un árbol.

 
Aleksey Vyazmikin:

Por cierto, nótese que el hombre estaba perdiendo por cometer errores en las acciones (hacer clic torcido/olvidar activar una habilidad), pero pudo ganar utilizando un movimiento táctico no estándar: distraer constantemente al oponente aterrizando en la parte trasera de la base del oponente, lo que le obligó a desplegar sus tropas para atacar la base del hombre, lo que dio al hombre tiempo para desarrollar sus unidades a un nivel superior, como resultado pudo infligir un daño significativo al oponente y ganar la partida.

Así es también como los tachones inesperados y los falsos proboys distraen al comerciante del objetivo.

Tenga en cuenta que esto se debió a una conversión burda a una ventana deslizante, el programa se confundió con las ventanas, es un problema técnico.

antes de que tales gotas fueran repelidas con un zeitgeist.

debería ver los clips con atención

 
Aleksey Vyazmikin:

Hay un script en R con un algoritmo genético para crear un árbol, seleccionar generaciones por mejora de entropía. Luego hay una especie de selección final. Tomo todos los árboles para la selección final y extraigo hojas de ellos para realizar otras mediciones por separado en MT5. El guión no se ha hecho público, por lo que tampoco hay descripciones detalladas. Aparentemente es como seleccionar el mejor árbol del bosque, pero hay una limitación de profundidad para evitar el sobreentrenamiento, así el proceso toma alrededor de 2 días en todos los núcleos en la última muestra, donde no todas las barras, pero sólo las señales para entrar, y si todas las barras durante 3 años, entonces el cálculo toma 1,5 meses allí. Después del cálculo hago una división del árbol, es decir, quito la columna con el predictor raíz del mejor árbol de la población y empiezo de nuevo, parecía que incluso en 40 este procedimiento a veces se crean hojas muy buenas, así que he llegado a la conclusión, de que el mejor árbol matemático no es siempre el más efectivo, y una información interfiere con otra, que apareció más tarde utilizada en el mismo CatBoost, cuando los predictores son elegidos al azar de toda la muestra para construir un árbol.

Por favor, adjunta el código (o envíalo a ls), es interesante verlo. Tal vez se encuentre algo nuevo.

Por cierto, Alglib utiliza un conjunto aleatorio de predictores (50% del número total por defecto) para elegir la partición en cada nodo. Este parece ser un enfoque estándar de los creadores de Random Forest. El resultado es una gran variedad de árboles.
Pero es difícil encontrar los mejores, ya que la diferencia en el error final no es superior al 1%. Es decir, todos los árboles llegan aproximadamente al mismo resultado, pero en un árbol para un predictor hubo una división antes, en otro árbol para el mismo predictor después (porque antes se excluyó de la lista para la división).


En general, estoy teniendo problemas con la selección de predicciones. Estoy pensando en comprobar 100 predictores añadiendo 1 y mejorando los resultados. Si excluyes el predictor de la raíz 40 veces, después de complicados cálculos, puede ser más fácil hacer fuerza bruta completa? ¿O tienes mil predictores ahí?

 
Aleksey Vyazmikin:

Hayun script en R con un algoritmo genético para crear un árbol, seleccionar generaciones por mejora de entropía. Luego hay una especie de selección final. Tomo todos los árboles para la selección final y extraigo hojas de ellos para realizar otras mediciones por separado en MT5. El guión no se ha hecho público, por lo que tampoco hay descripciones detalladas. Aparentemente es como seleccionar el mejor árbol del bosque, pero hay una limitación de profundidad para evitar el sobreentrenamiento, así el proceso toma alrededor de 2 días en todos los núcleos en la última muestra, donde no todas las barras, pero sólo las señales para entrar, y si todas las barras durante 3 años, entonces el cálculo toma 1,5 meses allí. Después del cálculo hago la división del árbol, es decir, quito la columna con el predictor raíz del mejor árbol de la población y empiezo de nuevo, parecía que incluso en 40 de estos procedimientos se crean algunas hojas muy buenas, por lo que llegué a la conclusión, que la mejor disposición matemática del árbol no es siempre la más eficaz, y una información interfiere con otra, que apareció más tarde utilizada en el mismo CatBoost, cuando eligen al azar los predictores de toda la muestra para construir un árbol.

Resulta que estás haciendo una tontería ya que estás imitando el algoritmo del bosque y el boosting en vez de leer la teoría de por qué funciona, otra vez.

 
Maxim Dmitrievsky:

Hay que tener en cuenta que esto se debió a una burda conversión a una ventana deslizante, el programa desordenó las ventanas, es un problema técnico.

antes de que tales gotas fueran repelidas con facilidad.

Observa los clips con atención.

Desgraciadamente no analizas la información que recibes, apagas los comentarios y lo ves con tus propios ojos.

Antes no se daban estas situaciones, mira el vídeo con atención.

 
Aleksey Vyazmikin:

Lamentablemente, no estás analizando la información que recibes, apaga los comentarios y compruébalo por ti mismo.

Antes no se daban estas situaciones, vuelve a ver el vídeo con atención.

el algoritmo de alphastar fue CAMBIADO específicamente para revashn de la vista de mapa completo a la vista de corte, no lo hicieron bien

Se puede ver que el bot es lento cambiando entre ventanas, no puede averiguar dónde está el prisma y corre de un lado a otro

Es un error.

¡No te respeto!