Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2413

 
Maxim Dmitrievsky:
No veo la imagen completa de por qué esto podría funcionar.

Supongamos que hay predictores aleatorios en la muestra, en realidad ruido, el objetivo es limpiar el ruido.

¿Crees que no mejorará los resultados?

 
Aleksey Vyazmikin:

Supongamos que hay predictores aleatorios en la muestra, de hecho ruido, el objetivo es limpiar el ruido.

¿Cree que no mejorará los resultados?

Es más fácil tomar cualquier combinación chip-objetivo y filtrar las señales por tiempo hasta encontrar una señal estable. Y construir un bot a partir de esos modelos
 
Maxim Dmitrievsky:
Es más fácil tomar cualquier paquete de chips y filtrar las señales por tiempo hasta encontrar una señal estable. Y construir un bot a partir de esos modelos

O no entiendo el punto, entonces escriba más en detalle, o no entiendo en qué se diferencia la acción propuesta de añadir al predictor_1 un predictor_2 adicional, que contenga información sobre el tiempo?

 
Aleksey Vyazmikin:

He estado pensando en cómo mejorar el método de selección de predictores/atributos/características mediante el análisis del modelo resultante.

Tengo algunas ideas para la implementación del algoritmo, pero decidí compartirlas con la respetada comunidad, tal vez habrá algunas críticas constructivas o adiciones/refinamientos al algoritmo antes de comenzar a trabajar en la implementación de este algoritmo. Es interesante pensar que nada funcionará con la justificación.


Selección de predictores por frecuencia de uso (importancia de las características) al crear un modelo CatBoost
.

La idea es que cada algoritmo tiene sus propias peculiaridades de construcción de árboles y seleccionaremos aquellos predictores que sean más utilizados por el algoritmo, en este caso CatBoost.

Sin embargo, para estimar la uniformidad en la escala temporal, utilizaremos múltiples muestras y agregaremos sus datos en una sola tabla. Este enfoque eliminará los eventos aleatorios que tienen una fuerte influencia en la elección del predictor en uno de los modelos. Las regularidades sobre las que se construye el modelo deben darse en toda la muestra, lo que puede facilitar la clasificación correcta en los nuevos datos. Esta característica es aplicable a los datos del mercado, es decir, a los datos sin integridad, incluida la ciclicidad oculta, es decir, no temporal, sino basada en eventos. Al hacerlo, es conveniente penalizar los predictores que no se encuentren en el 30%-50% superior en uno de los gráficos, lo que permitirá seleccionar los predictores que se demandan con mayor frecuencia en los modelos de los distintos horizontes temporales.

Además, para reducir el factor de aleatoriedad deberíamos utilizar modelos con diferentes valores de Seed, creo que debería haber de 25 a 100 modelos de este tipo. Si el coeficiente debe añadirse en función de la calidad del modelo obtenido o simplemente para promediar todos los resultados por predictores, aún no lo sé, pero creo que deberíamos empezar con la simple, es decir, sólo para promediar.

La cuestión de la utilización de una tabla de cuantificación es importante, puede ser crucial en la selección de predictores. Si la tabla no es fija, cada modelo creará su propia tabla para la submuestra, lo que imposibilita la comparación de los resultados, por lo que la tabla debe ser común a todas las muestras.

Es posible obtener una tabla de cuantificación:

  1. Estableciendo hiperparámetros para CatBoost sobre el tipo y el número de particiones en cuantos de la muestra de entrenamiento completa, y guardando los resultados en csv.
  2. Establezca los hiperparámetros para CatBoost por tipo y número de particiones en quanta seleccionando una de las áreas de muestra, digamos la mejor, y guarde los resultados en csv.
  3. Obtenga una tabla utilizando un script independiente que seleccione las mejores opciones de un conjunto de tablas.
Las tablas obtenidas previamente se utilizan para cada muestra mediante la carga forzada de la tabla durante el entrenamiento.

La cuantificación puede ser realizada por usted mismo antes de alimentar el amplificador - todo estará bajo su control.
De 0 a 0,00005 = 0,00005 de 0,00005 a 0,00010 = 0,00010, etc.

 
elibrarius:

Puedes cuantificarte antes de alimentar el impulso: todo estará bajo tu control.
0 a 0,00005 = 0,00005 0,00005 a 0,00010 = 0,00010 etc.

La tercera opción de obtener una tabla de cuantización también incluye la evaluación de tablas de cuantización personalizadas, que yo pregero. Los experimentos demuestran que no siempre es la mejor opción. Por cierto, ya que estamos hablando de secuencias numéricas, ¿qué otros pasos se pueden utilizar además de los lineales, Fibonacci, exponenciales?

 
Aleksey Vyazmikin:

La tercera opción para obtener una tabla de cuantificación también incluye la evaluación de tablas de cuantificación personalizadas, que yo pregero. Los experimentos demuestran que no siempre es la mejor opción. Por cierto, ya que hablamos de secuencias numéricas, ¿qué otros pasos excepto el lineal, el de Fibonacci y el exponencial?

¿No son suficientes 3 para ti? Ya he triplicado el número de experimentos)) ¿dónde más?
 
Aleksey Vyazmikin:

O no entiendo el punto, entonces escriba con más detalle, o no entiendo en qué se diferencian las acciones sugeridas de añadir un predictor_2 adicional que contenga información de tiempo al predictor_1?

Hay razones para no escribir los detalles, pero ya aparecerán en algún momento. Algunas partes del esquema ya se han descrito aquí. Lo veo como la única opción sensata, no ligada a una selección de atributos. Idealmente, los atributos pueden ser cualquier cosa, así como las etiquetas. La tarea del algoritmo es calibrar para ellos, teniendo en cuenta el componente temporal (filtrando los lugares donde estos atributos no funcionan). Pruebas - Etiquetado meta de Prado con algunos ajustes de este enfoque. Usted está en una estepa completamente diferente, por lo que la comprensión puede no surgir.
 
elibrarius:
¿Tres no son suficientes para ti? El número de experimentos ya se ha triplicado)) ¿qué más hay que hacer?

Por supuesto, no es suficiente :) De hecho, estoy seleccionando la tabla óptima para cada predictor, y cuanto más sin muestreo, mejor. La última versión del script selecciona los mejores intervalos de todas las tablas y los combina en una tabla para cada predictor.

 
Maxim Dmitrievsky:
Hay razones para no escribir detalles todavía, pero llegarán algún día. Algunas partes del sistema ya se han descrito aquí. Lo veo como la única opción sensata, no atada a una cáscara de selección de atributos. Idealmente, los atributos pueden ser cualquier cosa, así como las etiquetas. La tarea del algoritmo es calibrar para ellos, teniendo en cuenta el componente temporal (filtrando los lugares donde estos atributos no funcionan). Pruffs - El meta-etiquetado de Prado con algunos ajustes de este enfoque. Usted está en una estepa completamente diferente, por lo que la comprensión puede no surgir.

Sí, sobre la calibración del algoritmo, realmente no está claro. Aunque se hayan filtrado las plazas en formación, no está claro cómo reconocer estas plazas a la hora de solicitarlas.

 

¿Eres fan de la película Matrix?

¿Qué tiene esto que ver con la matriz?
Leo a gente inteligente, se puede obtener más información en una hora de lectura que en 10 años de lectura de todo tipo de hinchadas de infradotados de ultramar...
y no tanto...