¿Hay algún patrón en el caos? ¡Intentemos encontrarlo! Aprendizaje automático a partir de una muestra concreta. - página 22
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Pero tengo este modelo .
No hay que esperar que el mejor modelo del examen sea rentable en el futuro. La media o la mayoría deben ser rentables.
Es igual que en el optimizador de probador - los mejores modelos serán ciruela en el delantero 99% del tiempo.
Las divisiones se realizan sólo hasta el cuanto. Todo lo que está dentro del cuanto se considera del mismo valor y no se divide más.
Usted no ha entendido - el punto es que cada división reduce la muestra para la siguiente división, que se produce de acuerdo con la tabla cuántica, pero la métrica cambiará cada vez.
Pues hay algoritmos que hacen una nueva tabla cuántica después de cada split al entrenar el modelo.
No entiendo por qué buscas algo en quantum, su propósito principal es acelerar los cálculos (el propósito secundario es cargar/generalizar el modelo para que no haya más particiones, pero también puedes limitar la profundidad de los datos flotantes) Yo no lo uso, sólo hago modelos sobre datos flotantes. Hice la cuantificación en 65000 partes - el resultado es absolutamente el mismo que el modelo sin cuantificación.
Aparentemente veo la eficiencia, por eso lo uso. 65000 partes es demasiado, veo el punto de cuantificación es generalizar los datos para crear una característica categórica, por lo que es deseable que el 2%-5% de toda la muestra debe ser cuantificado. Es posible que esto no sea cierto para todos los predictores - los experimentos no se han completado.
Habrá 1 división que divide los datos en 2 sectores - uno tiene todos 0's, el otro tiene todos 1's. No sé a qué se llama cuanta, creo que cuanta es el número de sectores obtenidos tras la cuantificación. Tal vez es el número de divisiones, como usted quiere decir.
Sí, está claro, tienes razón sobre la división, más bien sonreí. En general hay un concepto de tabla cuántica en CatBoost, hay exactamente divisiones, y yo mismo utilizo segmentos - dos coordenadas, y tal vez puedan ser llamados cuantos o segmentos cuánticos. No conozco la terminología real, pero yo los llamo así.
No hay por qué esperar que el mejor modelo del examen sea rentable en el futuro. La media o la mayoría deberían ser rentables.
Es igual que en el optimizador de probadores: los mejores modelos serán ciruela en el delantero el 99% de las veces.
El objetivo ahora es comprender el potencial al que podemos aspirar. No voy a operar con estos modelos.
Y espero que el número de modelos seleccionados aumente debido a la menor variabilidad en la selección de divisiones - lo veremos más tarde hoy.
Y espero que el número de modelos seleccionados aumente debido a la menor variabilidad en la selección de divisiones, lo veremos más adelante.
Resulta que estaba equivocado - el número de modelos es sólo 79, el beneficio medio en el examen -1379
No hay por qué esperar que el mejor modelo del examen sea rentable en el futuro. La media o la mayoría deberían ser rentables.
Es igual que en el optimizador de probadores: los mejores modelos serán ciruela en el delantero el 99% de las veces.
Por cierto, decidí mirar la muestra de otro, que tampoco estaba en el entrenamiento - el que fue cortado antes.
Y aquí está lo que el mismo modelo se ve en estos datos (2014-2018).
Creo que no está mal, al menos no una ciruela de 45 grados. Es decir, ¿podemos seguir esperando que un buen modelo siga siendo bueno?
Por cierto, aquí decidí mirar una muestra de la otra que tampoco estaba en formación - la que fue cortada antes.
Y el mismo modelo se ve así en estos datos (2014-2018).
Creo que no está mal, al menos no una ciruela de 45 grados. Es decir, ¿podemos seguir esperando que un buen modelo siga siendo bueno?
tal vez)
quizás)
Por desgracia, he comprobado en todos los modelos - los que ganó más de 3000 en el tren y el examen de la muestra - 39 piezas fueron, en el nuevo-viejo muestra sólo 18 (46%) mostró resultado rentable. Esto es ciertamente más de 1/3, pero todavía no es suficiente.
Esta es la diferencia en los saldos de los modelos seleccionados entre la muestra de examen regular y la descartada (2014-2018).
Por desgracia, he comprobado en todos los modelos - los que ganaron más de 3000 en el tren y la muestra de examen - 39 piezas fueron, en la nueva muestra de edad sólo 18 (46%) mostraron resultados rentables. Esto es ciertamente más de 1/3, pero todavía no es suficiente.
Esta es la diferencia en los saldos de los modelos seleccionados entre la muestra de examen regular y la descartada (2014-2018).
En general, ni siquiera el 50/50 funciona todavía (en términos de beneficios). Si es difícil inventar nuevas características relacionadas con el objetivo, ¿quizás habría que cambiar el objetivo?
Se pueden inventar nuevos predictores, sigue habiendo ideas, pero no estoy seguro de que el entrenamiento se base en ellos teniendo en cuenta el principio de greed..... Quizá haya que cambiar el enfoque del entrenamiento de modelos, hacer nuestras propias transformaciones de algoritmos conocidos.
Se puede cambiar el objetivo, pero ¿a qué, alguna idea?
Tomé la muestra del sexto paso que describí aquí e intercambié examen y prueba.
De hecho, la formación se llevó a cabo según las mismas reglas, con las mismas semillas, pero otra muestra - posterior en la cronología - se encargó de detener la creación de nuevos árboles.
Como resultado, el valor medio de beneficio en la muestra de prueba ( antiguo examen) es de -730,5 -recordemos que durante el entrenamiento cronológico en la muestra de prueba el valor medio era de 982,5, y en la muestra de examen (antiguo examen) el valor medio de balance era de 922,49 puntos, mientras que en la variante inicial era de -1114,27 puntos.
Figura 1 Histograma de la distribución del saldo de la muestra de ensayo original cuando se utiliza como muestra de examen.
Figura 2 Histograma de la distribución del saldo de la muestra de ensayo cuando se utilizó como muestra de examen.
Cuando las muestras se ordenaron cronológicamente, el valor medio de los árboles del modelo fue de 11,47, cuando se cambió la secuencia de dos muestras, el valor medio de los árboles del modelo fue de 9,11, es decir, puede decirse que los patrones se hicieron menos evidentes después de intercambiar las muestras, por lo que se necesitaron menos árboles para describirlos.
Al mismo tiempo, debido al control de la parada mediante el muestreo real de los patrones, ésta se hizo más cualitativa y, como indiqué anteriormente, en promedio se hizo más rentable.
Por un lado, el experimento confirma que las muestras contienen patrones similares que perduran durante años, pero al mismo tiempo algunos de ellos se vuelven menos pronunciados o incluso desplazan su probabilidad a la zona negativa del resultado del evento. Anteriormente se reveló que no sólo los propios predictores, sino también su uso en el modelo influyen en el resultado del entrenamiento.
Como resultado, lo que tenemos:
1. Una muestra poco representativa.
2. Patrones aleatorios que pueden "eclipsar" a los estables a la hora de construir el modelo, o el propio método de construcción del modelo no es lo suficientemente fiable.
3. 3. Dependencia del resultado del modelo del área de la muestra (el tren de muestras anterior mostró buenos resultados en el papel de examen).