Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2406

 
La entropía se utiliza desde hace mucho tiempo en todas partes como fi de pérdida o entropía cruzada. Además, todo esto no importa en las filas con la ley de flotación, si lo hace, es de importancia secundaria. La solución está en la superficie y una de las variantes ya se ha sugerido en este hilo, funciona de forma inestable. No diré los detalles todavía, pero algún día escribiré un artículo. Z.I. Probablemente se emocionó un poco con la superficie, pero al menos para mí 😀 .
 
Referencia a las métricas, no conozco algunashttps://russianblogs.com/article/7586220986/
 
Maxim Dmitrievsky:
Referencia para las métricas, yo mismo no conozco algunashttps://russianblogs.com/article/7586220986/

Si los signos están distribuidos uniformemente en un cubo unitario, la métrica de Chebyshev parece intuitivamente la más correcta. Otra cosa es que es poco probable que las características arbitrarias puedan normalizarse tan bien.

 
Aleksey Nikolayev:

Si los rasgos se distribuyen uniformemente en un cubo unitario, la métrica de Chebyshev parece intuitivamente la más correcta. Otra cosa es que es poco probable que normalice los signos arbitrarios tan bien.

Experimenté con la normalización y obtuve pérdidas decentes en los modelos, mejoré sin ella. Por eso los bosques de árboles, no las redes neuronales.
 
Maxim Dmitrievsky:
Experimenté con la normalización, obteniendo pérdidas decentes en los modelos, mejor sin ella. Por tanto, bosques de árboles, no redes neuronales.
Conclusiones similares, sólo que con árboles. Especialmente divertido cuando los máximos se actualizan y todo cambia. Por supuesto, puedes establecer los máximos de forma manual o automática (para cada característica), pero son muletillas.
 
Maxim Dmitrievsky:
Experimenté con la normalización, obteniendo pérdidas decentes en los modelos, mejor sin ella. Por eso los bosques de árboles, no las redes neuronales.

Yo también me inclino(también gracias a tus esfuerzos) por algo como xgboost. Pero la normalización, así como la investigación preparatoria general con características, nunca está de más. También necesito un enfoque flexible para construir una función objetivo personalizada.

 
Maxim Dmitrievsky:
Por tanto, bosques de árboles, no redes neuronales.

Sí, hace unos años alguien en este hilo escribió una idea así: sugirió bosques y comparó las redes neuronales con las armas nucleares. Dijo que sólo deben utilizarse cuando otros métodos no pueden ayudar. Pero algún Maxim lo ha cagado.

Me pregunto... ¿Tenía razón?

 
Aleksey Nikolayev:

También me estoy inclinando(también gracias a tu trabajo) por algo como xgboost. Pero la normalización, así como el trabajo de investigación preparatoria general con características, nunca está de más. También necesitamos un enfoque flexible para la construcción de funciones objetivas personalizadas.

recomiendan LightGBM o CatBoost, XGBoost se queda atrás

Resulta que cualquier preprocesamiento matará a Alfa. Esto es si tomas los incrementos y comienzas a secarlos. Lo ideal sería tomar la serie original (comillas), pero no se puede entrenar debido a su no estacionariedad. Esto se puede ver claramente en el artículo sobre la diferenciación fraccionaria (enterraremos la memoria del mercado). Cuantas más transformaciones se apliquen, menos queda algo allí.

 
Dmytryi Nazarchuk:

Sí, hace unos años alguien en este hilo escribió una idea así: sugirió un andamiaje y comparó las redes neuronales con las armas nucleares. Dijo que sólo deben utilizarse cuando otros métodos no pueden conseguir nada. Pero algún Maxim lo ha cagado.

Me pregunto... ¿Tenía razón?

Será mejor que des alguna prueba, no tengo ni idea de lo que estaba hablando.

 
elibrarius:
Conclusiones similares - sólo árboles. Es especialmente divertido cuando los máximos se actualizan y todo cambia. Por supuesto, puedes establecer los máximos de forma manual o automática (para cada función), pero es una muleta.

Sí, no importa que resulte ser una tontería