Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1255

 
Maxim Dmitrievsky:

Si el mercado es más o menos estable, una tendencia o algo así, entonces esta vez funcionará, al menos para mí... los patrones son los mismos, ¿por qué no?

he simplificado la curva de aprendizaje a la pulsación de un botón y no necesito ningún predictor )) es una máquina de aspecto divertido, puede que la venda como una exposición de la locura humana

Bueno, para empezar no me molesté con los predictores. Sin embargo, ni siquiera lo intenté con un botón. Con un botón no tengo más que la misma optimización, sólo en el perfil. Cómo lo evitas con un botón es un misterio).

 
Yuriy Asaulenko:

Bueno, para empezar no me molesté con los predictores. Pero ni siquiera he probado con un botón. No puedo hacer nada con un botón, excepto la misma optimización, sólo en el perfil. Cómo se consigue evitarlo con un botón es un misterio).

Sólo busco el mejor error en una muestra de prueba, eso es todo

optimizador optimizador aha
 
Maxim Dmitrievsky:

Monte Carlo y buscar el mejor error en la muestra de prueba, eso es todo.

No puedo prescindir de Montecarlo). Pero el mejor error no es tan sencillo. La optimización es una cosa de muchos factores y ambigua, y lo que es el óptimo está lejos de ser obvio.

 
Yuriy Asaulenko:

No se puede prescindir de Montecarlo). Y no es tan sencillo con el mejor error. La optimización es algo multifactorial y ambiguo, y lo que es óptimo no es ni mucho menos evidente.

Ya veo. Tomo cualquier ecuación periódica donde el óptimo es evidente y el sistema ganará dinero con ella al menos para siempre).

No hay óptimo en el mercado, sólo locales

 
 

La teoría de la lectura en los árboles.
Estoy pensando en podar (podar).

Es posible utilizar la siguiente regla sencilla: construir un árbol, cortar o sustituir con un subárbol las ramas que no conduzcan a un aumento del error.

Tal vez sea más fácil y rápido construir un árbol sin podar una hoja, a menos que se encuentre una división que reduzca el error al menos en algún valor, por ejemplo 0,1-0,5%.
El resultado debería ser el mismo, pero más rápido.

¿O es posible que tras un par de ramas con mejora del modelo en un 0,0001% se encuentre una que lo mejore en un 1-5% de golpe?

 
Maxim Dmitrievsky:

¿Cuánto más rápido? Ya es muy rápido.

Y vas a construir tu propio refuerzo, ¿no?

Los métodos bayesianos son lentos y no sirven para grandes muestras, pero funcionan de forma diferente y no se reentrenan de forma inmediata. Cada modelo tiene sus propias características. Le estoy cogiendo el gusto a la bayesiana, gran poder de optimización del CT sin necesidad de recapacitar.

Buena perspectiva: pueden actualizarse en lugar de reciclarse

Si tienes un millón de cadenas con 200-1000 predictores, probablemente sea mucho tiempo...
La poda requiere construir el árbol hasta el final y luego podarlo.
Y con la mejora de la detención de la bifurcación por error mínimo, creo que habrá un ahorro significativo con un resultado similar. En el parámetro xgboost se llama gamma, pero parece que no hay poda. Al parecer, los desarrolladores también decidieron que estas cosas son intercambiables.
 
elibrarius:
Bueno, si un millón de líneas de minutos con 200-1000 predictores, es probablemente mucho tiempo...
Y con la poda: hay que construir el árbol hasta el final y luego podarlo.
Y con la mejora de la detención de la bifurcación por error mínimo, creo que habrá un ahorro significativo con un resultado similar. En xgboost el nombre del parámetro es gamma, pero parece que no hay poda. Al parecer, los desarrolladores también decidieron que estas cosas son intercambiables.

bueno, saben cómo hacerlo, hay equipos de especialistas trabajando en los impulsos, probando

el catbust parece funcionar bien, es rápido, los árboles son poco profundos para empezar

millones de datos en forex... Dudo que sea necesario

 
Por cierto, se me ha ocurrido una situación en la que la primera división apenas mejora el error y la segunda lo mejora en un 100%.

4 sectores con 10 puntos cada uno. 1 división a lo largo del eje x o del eje y. Casi no mejorará el error, se mantendrá alrededor del 50%. Por ejemplo, primero se divide en el centro verticalmente. Una segunda división en el centro horizontalmente dará lugar a una mejora muy fuerte del error (del 50% a cero).
Pero esta es una situación creada artificialmente, no ocurre en la vida.
 
El tamaño de las muestras nunca es grande. Si N es demasiado pequeño para obtener una estimación suficientemente precisa, hay que obtener más datos (o hacer más suposiciones). Pero una vez que N es "suficientemente grande", se puede empezar a subdividir los datos para saber más (por ejemplo, en una encuesta de opinión pública, una vez que se tiene una buena estimación para todo el país, se puede estimar entre hombres y mujeres, norteños y sureños, diferentes grupos de edad, etc.). N nunca es suficiente porque si fuera "suficiente" ya estarías en el siguiente problema para el que necesitas más datos.