Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 417

 
Mihail Marchukajtes:

esa es realmente la respuesta...blah, blah, blah.... y sin resultado.....

publica tu informe de operaciones, habrá un resultado y será positivo, así que habla en serio...

 
Ivan Negreshniy:

publica tu informe de operaciones, habrá un resultado y si es positivo, entonces tal vez una conversación seria


¡¡¡¡qué tipo de conversación????? no entiendo..... me ofrecí a construir un modelo para una tarea diferente a la de forex pero no menos rentable, y me hablas de trading..... extraño!!!!

 
Mihail Marchukajtes:

qué conversación????? No entiendo..... Me ofrecí a construir un modelo para una tarea diferente de la de forex, pero no menos rentable, y usted me dice sobre el comercio..... extraño!!!!

si me ofrecieras una tarea no menos rentable que el forex, entonces tengo derecho a saber lo rentable que es tu forex, ¿qué tiene de extraño?

 
Ivan Negreshniy:

Si me ofrecen una tarea no menos rentable que el forex, tengo derecho a saber la rentabilidad del forex, ¿qué tiene de extraño?


que tiene que ver el forex con todo???? sobre el forex leer mis anteriores posts o el artículo..... no estoy hablando de forex....

 
Mihail Marchukajtes:

Qué tiene que ver el forex con esto???? lee mis posts anteriores o el artículo..... no estoy hablando de forex....

fue a leer...
 
elibrarius:
sólo selecciona inicialmente el tipo de red por el tipo de salida, sin necesidad de reescribir nada (y todas las capas internas están cableadas como no lineales)
¿Has experimentado con el reentrenamiento de la misma red creada en alglib? Por ejemplo, entrené el MLP y luego lo reentrené... se reentrena, sin errores, pero tal vez esto no es correcto y se debe crear un nuevo objeto de red? O de alguna manera se reentrena allí y no se entrena de nuevo... de nuevo, no hay nada al respecto en la ayuda, y soy un poco perezoso para cavar en el código y buscar allí)
 
Maxim Dmitrievsky:
¿Has experimentado con el reentrenamiento de la misma red creada en alglib? Digamos que entrené el MLP y luego lo volví a entrenar... se vuelve a entrenar, sin errores, pero tal vez esto es incorrecto y se debe crear un nuevo objeto de red? O de alguna manera se vuelve a entrenar allí y no se entrena de nuevo... de nuevo, no hay nada al respecto en la ayuda, pero es un poco perezoso para cavar a través del código y buscar allí)
Si vuelves a entrenar, no habrá ningún error (no es un reentrenamiento, porque los coeficientes se restablecerán) y sólo encontrarás una nueva combinación de ellos.
 
Maxim Dmitrievsky:
Todavía no he experimentado con el reentrenamiento de la misma red creada en alglib... Digamos que entrené un MLP y luego lo reentrené... está reentrenado, sin errores, pero puede ser que no esté bien y necesite crear un nuevo objeto de red... O de alguna manera se reentrena allí y no se entrena de nuevo... De nuevo, no hay nada al respecto en la ayuda, pero es un poco perezoso indagar y buscar el código allí)

Un enfoque muy interesante y tan antiguo como el mundo. Entrenamos unas cuantas veces, obtenemos los resultados y luego volvemos a entrenar la red con los datos de otras redes. Un tipo de aprendizaje profundo de diferente formato.... Por cierto, este enfoque es bueno...

 
Mihail Marchukajtes:

Un enfoque muy interesante y tan antiguo como el mundo. Realiza un entrenamiento, obtén los resultados y vuelve a entrenar la red con los datos de otras redes. Una especie de aprendizaje profundo de diferente formato.... Por cierto, este es un buen enfoque...

No, sólo se trata de volver a entrenar en ciertos intervalos en el probador, por ejemplo, en una reducción determinada y así sucesivamente. Si usas múltiples redes, hay ns conjuntos en alglieb, jugaré con ellos más tarde, es verano, perezoso... mar pollitos de playa mojito, es broma lo que el... el mar en Siberia, sólo hay un río y un pantano

y luego hay todo tipo de boostings, shmustings y otras cosas, y LSTM como un ideal lejano de mis aspiraciones al que aún no he llegado

 
Vladimir Perervenko:
Mihail Marchukajtes:

De acuerdo, ahora que estás en el punto, te diré una idea sobre la recogida de datos para su procesamiento. Es realmente difícil entrenar un modelo con un alto nivel de generalización en un área suficientemente grande, porque el mercado es un organismo vivo y bla, bla, bla. Cuanto más largo sea el periodo de entrenamiento, peor será el rendimiento del modelo, pero más largo. Objetivo: Realizar un modelo de larga duración. Dividir o método dos, sin embargo para aquellos que utilizan un comité de dos redes.

Tenemos tres estados "Sí", "No" y "No sé" cuando las cuadrículas se muestran en diferentes direcciones.

Entrenamos la red en toda la sección, en nuestro caso 452 entradas. La red aprendió este conjunto al 55-60%, asumiendo que las respuestas "No sé" en el conjunto de entrenamiento eran del 50%, por lo que 226 señales la red no podía aprender. Bien, ahora construimos un nuevo modelo SÓLO sobre los estados "No sé", es decir, intentamos construir el modelo sobre dichos cuasi estados que engañaron al primer modelo. El resultado es más o menos el mismo, de 226 sólo la mitad será reconocida, el resto obtendrá el estado "No sé", entonces construye el modelo de nuevo. el resultado es 113, luego 56, luego 28, luego 14. En 14 entradas no conocidas por ninguno de los modelos anteriores, el optimizador de Jprediction suele calcular hasta un 100% de generalizabilidad.

Como resultado tenemos un "Sistema de Patrones" que reconoce todo el mercado en un periodo de tres meses.

Aquí hay otra manera además de "Contexto del Día" Cómo se puede romper el mercado en subespacios y producir la formación por conseguir exactamente un "Sistema de Patrones" Aquí hay un ejemplo....

------------------------------------------------------------

Este método se denomina " boosting".El boosting es un procedimiento de construcción secuencial de una composición de algoritmos de aprendizaje automático en el que cada algoritmo sucesivo intenta compensar las deficiencias de la composición de todos los algoritmos anteriores.El boosting es un algoritmo codicioso para construir una composición de algoritmos.

La aplicación reciente más famosa es XGBoost.

Buena suerte

¿Qué tiene que ver XGBoost con una biblioteca de refuerzo de gradiente distribuida y optimizada y con la construcción de composición de algoritmos de aprendizaje automático?