Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3332
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Creo que ya hemos hablado de su cuantificación en su momento desde todos los puntos de vista. Sólo puedo añadir a lo que he dicho antes que me alegro por él de que le haya reportado al menos 200 dólares.
Gracias, es agradable estar feliz por mis ingresos - ¡es raro!
El artículo es introductorio - tienes razón, todo lo que escribí allí - creo, y tan claro.
La segunda parte es con moderación, es un poco más interesante. Sin embargo, por el momento he renunciado a describir mi propio método, y se acercó con una versión simplificada, que dio un pequeño efecto en las pruebas. Se describirá en la segunda parte.
Sin embargo, este es el caso cuando las nuevas ideas no ocupan más del 5% del texto.
Vuelve a leer y comentar si lo deseas.
No sé a qué Diógenes te refieres, pero en el sentido de trollear todos somos niños en comparación con Diógenes de Sínope o Diógenes de Laertes.
Si miras las fechas de mi hilo, mi registro en el recurso y el de hoy, te quedará más claro. Dos años después del registro aún había esperanza de un diálogo constructivo y útil en el foro, y seis años y medio después ya casi no queda esperanza. Sólo por diversión.
Aquí tiene, gracias. Es agradable alegrarse por mis ingresos, ¡algo poco frecuente!
El artículo es introductorio - tienes razón, todo lo que escribí allí - Creo que es lo suficientemente claro.
La segunda parte está bajo moderación, es un poco más interesante. Sin embargo, por el momento he renunciado a describir mi propio método, y se me ocurrió una versión simplificada, que dio un pequeño efecto en las pruebas. Se describirá en la segunda parte.
Sin embargo, este es el caso cuando las nuevas ideas no ocupan más del 5% del texto.
Vuelve a leer y comentar si lo deseas.
¿Por qué aleatoriamente?
Recorre todos los puntos de 1 clase y mide la distancia a todos los puntos de la otra clase, tomando la distancia mínima.
Cuando lo tengas todo, ordena, borra hasta la distancia que necesites, un par cada vez. Si el punto borrado se utilizó en otro par, encuentras un nuevo punto con una nueva distancia mínima, ordenas de nuevo y continúas.
Tal vez se te ocurra una manera mejor. Tal vez sin clasificación - sólo eliminar a la distancia requerida.
Uf, no lo estoy entendiendo bien, supongo:
¿He entendido bien el prototipo del algoritmo?
Vuelvo al tema con tanto retraso, porque me fascina un poco la idea de que las hojas en los modelos CatBoost y en otros conjuntos de árboles pueden estar fuertemente correlacionadas en la activación, lo que distorsiona su confianza durante el entrenamiento, llevando a una sobreestimación del valor de la hoja para el modelo en su conjunto.
Supongo que soy un poco lento:
¿He entendido bien el prototipo del algoritmo?
Vuelvo al tema con tanto retraso, porque me fascina un poco la idea de que las hojas en los modelos CatBoost y en otros conjuntos de árboles pueden estar fuertemente correlacionadas en la activación, lo que distorsiona su confianza durante el entrenamiento, llevando a una sobreestimación del valor de la hoja para el modelo en su conjunto.
1) También puede utilizar una matriz, pero no necesariamente, pero inmediatamente encontrar cada punto de 0 clase el punto más cercano de 1 clase, es decir, obtenemos a la vez el punto 2.
3) no contar nada y no se refieren a los clusters, sólo eliminar los pares de los puntos más cercanos. Con la distancia menor que el umbral, el umbral en ese ejemplo sería 0,6. En otros problemas probablemente tendremos que seleccionarlo.
Si un punto borrado de 1 clase estaba emparejado con otro punto de 0 clase, entonces se queda sin par, tiene que encontrar un nuevo punto más cercano de 1 clase (de nuevo hacer un cálculo o usar una matriz, como sugeriste en el punto 1, si la memoria es suficiente, creo que una matriz de 1millón por 1millón no cabe en ninguna memoria, hasta 100 mil quizás).
4) no hasta que quede, sino hasta la distancia umbral. Si es muy grande, entonces sólo quedarán puntos de 1 de las clases, que inicialmente eran más.
Pero como he escrito antes, no creo que esta eliminación de ruido es una buena idea (ver https://www.mql5.com/ru/forum/86386/page3324#comment_50171043). No es que no se pueda eliminar ese ruido a la hora de hacer predicciones. El propio árbol marcará las hojas ruidosas dándoles una probabilidad de alrededor del 50%, y tomará por ejemplo las hojas no ruidosas con una probabilidad de una de las clases >80% (o las que considere oportunas).
Los clusters no tienen nada que ver. Es sólo eliminar los puntos más cercanos con diferentes clases que se contradicen entre sí, es decir, el ruido. Y entonces usted puede utilizar la agrupación, o árbol - lo que quieras entrenar.
.
1) También puede utilizar una matriz, pero no necesariamente, pero inmediatamente encontrar cada punto de 0 clase el punto más cercano de 1 clase, es decir, obtenemos a la vez el punto 2.
3) no contar nada y no se refieren a los clusters, sólo eliminar los pares de los puntos más cercanos. Con la distancia menor que el umbral, el umbral en ese ejemplo sería 0,6. En otros problemas probablemente tendremos que seleccionarlo.
Si un punto borrado de 1 clase estaba emparejado con otro punto de 0 clase, entonces se queda sin par, tiene que encontrar un nuevo punto más cercano de 1 clase (de nuevo hacer un cálculo o usar una matriz, como sugeriste en el punto 1, si la memoria es suficiente, creo que una matriz de 1millón por 1millón no cabe en ninguna memoria, hasta 100 mil quizás).
4) no hasta que quede, sino hasta la distancia umbral. Si es muy grande, entonces sólo quedarán puntos de 1 de las clases, que inicialmente eran más.
Pero como he escrito antes, no creo que esta eliminación de ruido es una buena idea (ver https://www.mql5.com/ru/forum/86386/page3324#comment_50171043). No es que no se pueda eliminar ese ruido a la hora de hacer predicciones. El propio árbol marcará las hojas ruidosas dándoles una probabilidad de alrededor del 50%, y tomará por ejemplo las hojas no ruidosas con una probabilidad de una de las clases >80% (o las que considere oportunas).
Todavía no me entra en la cabeza. Bueno todo ocurre en un espacio - en la métrica de un predictor, pero ¿cómo tener en cuenta los demás?
En cuanto a qué hacer a la hora de predecir - estaba pensando en usar dos modelos - uno que detecte lo que se ha caído o confirme que los datos están en la región de "aglomeración", y otro que ya trabaje sobre lo que queda.
Todavía no me hago a la idea. Bueno, todo ocurre en un espacio, en la métrica de un predictor, pero ¿cómo tener en cuenta los demás?
En cuanto a lo que hay que hacer a la hora de predecir, estaba pensando en utilizar dos modelos: uno detecta lo que se ha eliminado o confirma que los datos están en la zona de "aglomeración", y el otro ya trabaja sobre lo que queda.
https://www.mql5.com/ru/articles/9138
Nadie se ha preocupado desde hace un año
He escrito una docena o veintena de algoritmos como este, algunos están bien establecidos. El del artículo no es el mejor en cuanto a estabilidad de resultados, el primer pancake.
así que no hay nada que discutir, porque no hay nada mejor todavía.
Todavía no me hago a la idea. Bueno, todo ocurre en un espacio, en la métrica de un predictor, pero ¿cómo tener en cuenta los demás?
En cuanto a lo que hay que hacer a la hora de predecir, estaba pensando en utilizar dos modelos: uno detecta lo que se ha eliminado o confirma que los datos están en la zona de "aglomeración", y el otro ya trabaja sobre lo que queda.
En el ejemplo hay 2 predictores, es decir, cambiamos la distancia en el espacio bidimensional (calculamos la hipotenusa). Si habrá 5000 signos, entonces usted va a medir la distancia en el espacio de 5000 dimensiones (cómo medir - ver el código k-means en Algibe, allí sólo esta es la tarea principal - para medir distancias, tomarlo como base).
Se parece a la raíz de la suma de cuadrados de catetos en todos los espacios https://wiki.loginom.ru/articles/euclid-distance.html.
Si realmente lo vas a hacer - no te olvides de ajustar los predictores, para que por ejemplo volúmenes de 1...100000 no se traguen deltas de precios de 0,00001...0,01000 en los cálculos.
¿Cómo detectarlo? Esa es la cuestión. Sobre todo en datos de mercado, donde no habrá una separación tan clara de la zona ruidosa como en el ejemplo. Todo será ruidoso, entre el 90% y el 99%.
Puede que sea más fácil utilizar paquetes ya preparados para eliminar las líneas con ruido, tal vez tengan un detector....
https://www.mql5.com/ru/articles/9138
Hace un año que nadie se preocupa
He escrito una docena o una veintena de tales algoritmos, algunos de ellos han demostrado ser bien. El artículo no es el mejor en términos de estabilidad de los resultados, el primer panqueque.
así que no hay nada que discutir, porque no hay nada mejor todavía.
Bueno, ¿por qué no hay caso - Creo que python aún no está muy extendida entre los comerciantes, por lo que la gente se mueve a la discusión activa.
Voy a probar su enfoque más adelante en mi muestra.
¿Has probado el método out-of-the-box de CatBoost?