Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2121

 
Elibrarius:

Lo hice, pero no funcionó.

Eso es raro... De acuerdo, voy a echar otro vistazo a este tema - te lo haré saber más tarde.

 
Por cierto, el código CatBoost tiene un método de cuantificación
GreedyMinEntropy

que no figura en la documentación oficial.

 
Maxim, ¿puedes comparar dónde es más rápida la velocidad de aprendizaje, en python o en la versión de consola de CatBoost?
 
Aleksey Vyazmikin:
Maxim, ¿puedes comparar dónde es más rápida la velocidad de aprendizaje, en python o en la versión de consola de CatBoost?
Lo mismo, es el mismo programa
 
Alexander_K:

Extraño... De acuerdo, voy a echar otro vistazo a este hilo, luego informaré.

Primero habló de memoria y resultó estar equivocado.

Acabo de comprobarlo con una validación cruzada. El tiempo sigue dando un 1-2% de aumento en los nuevos datos. Mientras que la prevalencia total de las predicciones exitosas sobre las no exitosas es de alrededor del 5% en TP=SL. En otras palabras, del 10 al 30% de la contribución al éxito proviene del tiempo.

Sin embargo, se trata de una prueba sobre un trozo de historia de 2 meses. En otra parte de la historia, las cosas pueden cambiar.
 

Alimento el tiempo como coseno y seno. Esto se ha discutido aquí https://www.mql5.com/ru/forum/212376#comment_5983502

Al igual que el 0...5(día de la semana) o el 0...23 (hora) o el 0...59 (minuto) también pueden ser alimentados, pero como una variable categórica.
El seno y el coseno ya son numéricos, cualquier algoritmo lo acepta.

Обсуждение статьи "Глубокие нейросети (Часть II). Разработка и выбор предикторов"
Обсуждение статьи "Глубокие нейросети (Часть II). Разработка и выбор предикторов"
  • 2017.07.31
  • www.mql5.com
Опубликована статья Глубокие нейросети (Часть II). Разработка и выбор предикторов: Автор: Vladimir Perervenko...
 

existe una tendencia relativamente nueva llamada aprendizaje activo. Puede auto-muestrear los datos de la mejor manera posible. Parece ser adecuado para mi enfoque (muestreo aleatorio). Todavía no me he puesto a ello.

https://libact.readthedocs.io/en/latest/overview.html

https://medium.com/towards-artificial-intelligence/how-to-use-active-learning-to-iteratively-improve-your-machine-learning-models-1c6164bdab99

Overview — libact 0.1.3 documentation
  • libact.readthedocs.io
libact is a Python package designed to make active learning easier for real-world users. The package not only implements several popular active learning strategies, but also features the active-learning-by-learning meta-algorithm that assists the users to automatically select the best strategy on the fly. Furthermore, the package provides a...
 
mytarmailS:

A medida que avanzamos, las frecuencias y posiblemente las fases están flotando... Las amplitudes se mantienen...

Aquí está la previsión para 500 puntos del modelo ajustado en el historial de 10k de 4 armónicos

Podemos ver que la previsión es precisa para los 500 puntos, pero las frecuencias son fluctuantes y utilizan un algoritmo incomprensible

Y esto es sólo un ejemplo ilustrativo, a veces es incluso peor.

¿Lo has probado en incrementos?

"Una de las propiedades útiles de una serie de incrementos es la mayor estabilidad del espectro en comparación con el proceso original. "... Esto es lo que escribe Goodman.

 
elibrarius:

Alimento el tiempo como coseno y seno. Esto se ha discutido aquí https://www.mql5.com/ru/forum/212376#comment_5983502

Al igual que el 0...5(día de la semana) o el 0...23 (hora) o el 0...59 (minuto) también pueden ser alimentados, pero como una variable categórica.
El seno y el coseno ya son numéricos, cualquier algoritmo lo acepta.

¿Puedes publicar la función que convierte el tiempo en seno/coseno? Yo también probaría este método. En el artículo que publiqué, el número de horas resultó ser un factor de predicción significativo. Me pregunto si este método es adecuado para los modelos de madera o más bien para las redes neuronales.