Regresión Bayesiana - ¿Alguien ha hecho un EA utilizando este algoritmo? - página 51
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
¿Y cómo se determina la "mejor" combinación?
El problema básico es el de la lista de predictores. Una vez justificada la lista de predictores, podemos pasar al resto.
Gracias. Yo también me inclino por añadir más predictores.
¿Cree que el número de predictores que utiliza es insuficiente?
No lo sé con seguridad.
No lo sé con seguridad.
Ya lo he escrito, lo diré de nuevo.
Realicé el trabajo de selección de predictores varias veces, incluso a demanda. Los resultados son los siguientes
Así que.
Tomemos un conjunto de predictores, no menos de 50, y mejor de cien.
Todos los conjuntos de predictores que he tratado (es decir, no pretendo generalizar) pueden dividirse en dos partes:
Escribo "relación" con mucho cuidado y deliberadamente no utilizo ningún término.
Ejemplo de predictores:
Tenga en cuenta que estoy especificando la variable de destino. Para la otra variable de destino, puede ser al revés
El problema de tener estos dos grupos de predictores en el conjunto original de predictores es que las herramientas estándar para determinar la IMPORTANCIA no funcionan. Por lo tanto, se necesitan algunas herramientas, que he desarrollado y utilizo, que permiten la criba gruesa de los predictores de ruido. Hay que señalar que aquí no hay ninguna ambigüedad. El algoritmo cuantifica por separado los predictores válidos y los nominales. Menos de 2 (algún valor relativo) es ruido seguro. Entre 2 y 3: se puede utilizar, pero mejor no....
El problema con el ruido es que los predictores relevantes para el ruido empalagan a los predictores no relevantes para ellos. Por ejemplo, los algoritmos randomforest, ada y svm por alguna razón construyen el modelo más en estos predictores de ruido.
Una vez filtrados los predictores ruidosos, y en mis conjuntos había alrededor del 80%(!), tomamos el resto de la lista de predictores y a ella empezamos a aplicar las herramientas de R para determinar la importancia de las variables. El número real de predictores utilizados para entrenar el modelo es aproximadamente la mitad de los predictores de ruido NO, es decir, alrededor del 10% del conjunto original.
Determino la importancia de los predictores en la ventana. A medida que la ventana se mueve, la lista de predictores del 20% básico cambia todo el tiempo. Es decir, se utilizan entre 12 y 15 predictores para construir el modelo, pero son diferentes a medida que la ventana se desplaza tras la cotización.
¿Cuál es la razón?
Bueno, la cuestión es que limpiar el conjunto de predictores de los de ruido lleva a la creación de modelos que NO se reentrenan.
En números.
Con un conjunto completo de predictores es posible construir modelos con un error de predicción del 3% al 5%. Y los algoritmos que dividen la muestra en partes, los llamados "fuera de muestra" - OOV, confirman este resultado. Esto se ve muy bien en raatle, que siempre divide la muestra original en partes y está muy contento con los resultados.
Pero.
Si la muestra inicial contiene predictores de ruido, entonces si tomamos una "muestra fuera de la muestra" real, es decir, por ejemplo, la muestra para el entrenamiento del 01.06.2015 al 01.01.2016, y luego calculamos sobre la muestra después del 1 de enero, ¡podemos obtener fácilmente un error del 50% y del 70% en lugar del 3%-5%! Además, cuanto más lejos esté el 1 de enero, peor será el resultado.
EL MODELO SE VUELVE A ENTRENAR
Si limpio el conjunto original de predictores de ruido, los resultados son los siguientes y lo mismo para randomforest, ada SVM así como varios otros modelos - es decir, el modelo no resolvió nada en mis casos, los resultados son: el error de predicción es de alrededor del 30% en cualquier conjunto. Aplicando las herramientas de importancia de los predictores de R, podemos reducir aún más el error a alrededor del 25%. No fue posible mejorar este resultado para la variable objetivo ZZ.
Ya lo he escrito, lo diré de nuevo.
He realizado el trabajo de selección de predictores varias veces, incluso por encargo. Los resultados son los siguientes
Así que.
Tomemos un conjunto de predictores, no menos de 50, y preferiblemente más de cien.
Todos los conjuntos de predictores que he tratado (es decir, no pretendo generalizar) pueden dividirse en dos partes:
Escribo "relación" con mucho cuidado y deliberadamente no utilizo ningún término.
Ejemplo de predictores:
Tenga en cuenta que estoy especificando la variable de destino. Para la otra variable de destino, puede ser al revés
El problema de tener estos dos grupos de predictores en el conjunto original de predictores es que las herramientas estándar para determinar la IMPORTANCIA no funcionan. Por lo tanto, se necesitan algunas herramientas, que he desarrollado y utilizo, que permiten la criba gruesa de los predictores de ruido. Hay que señalar que aquí no hay ninguna ambigüedad. El algoritmo cuantifica por separado los predictores válidos y los nominales. Menos de 2 (algún valor relativo) es ruido seguro. Entre 2 y 3: se puede utilizar, pero mejor no....
El problema con el ruido es que los predictores relevantes para el ruido empalagan a los predictores no relevantes para ellos. Por ejemplo, los algoritmos randomforest, ada y svm por alguna razón construyen el modelo más en estos predictores de ruido.
Una vez filtrados los predictores ruidosos, y en mis conjuntos había cerca del 80%(!), tomamos el resto de la lista de predictores y a ella empezamos a aplicar las herramientas de R para determinar la importancia de las variables. El número real de predictores utilizados para entrenar el modelo es aproximadamente la mitad de los predictores de ruido NO, es decir, alrededor del 10% del conjunto original.
Determino la importancia de los predictores en la ventana. A medida que la ventana se mueve, la lista de predictores del 20% básico cambia todo el tiempo. Es decir, se utilizan entre 12 y 15 predictores para construir el modelo, pero son diferentes a medida que la ventana se desplaza tras la cotización.
¿Cuál es la razón?
Bien, la cuestión es que limpiar el conjunto de predictores de los de ruido lleva a la creación de modelos que NO se reentrenan.
En números.
Con un conjunto completo de predictores es posible construir modelos con un error de predicción del 3% al 5%. Y los algoritmos que dividen la muestra en partes, los llamados "fuera de muestra" - OOV, confirman este resultado. Esto se ve muy bien en raatle, que siempre divide la muestra original en partes y está muy contento con los resultados.
Pero.
Si la muestra inicial contiene predictores de ruido, entonces si tomamos una "muestra fuera de la muestra" real, es decir, por ejemplo, la muestra para el entrenamiento del 01.06.2015 al 01.01.2016, y luego calculamos sobre la muestra después del 1 de enero, ¡podemos obtener fácilmente un error del 50% y del 70% en lugar del 3%-5%! Además, cuanto más lejos esté el 1 de enero, peor será el resultado.
EL MODELO SE VUELVE A ENTRENAR
Si limpio el conjunto original de predictores de ruido, los resultados son los siguientes y lo mismo para randomforest, ada SVM así como varios otros modelos - es decir, el modelo no resolvió nada en mis casos, los resultados son los siguientes: el error de predicción es de alrededor del 30% en cualquier conjunto. Aplicando las herramientas de importancia de los predictores de R, podemos reducir aún más el error a alrededor del 25%. No fue posible mejorar este resultado para la variable objetivo ZZ.
Gracias.
Ya veo lo que estás pensando. De todo lo anterior vi la posibilidad de calcular la importancia de los predictores en varias partes de la muestra de entrenamiento, para luego comparar las listas y seleccionar los duplicados.
No puedo decir nada sobre la selección manual, prefiero usar la máquina de inmediato.
SZZ: Intentaré aplicar mi método casero, basado en la función de información mutua, además de la importancia de las variables del bosque de decisión. Te mostraré los resultados más tarde.
El problema con el ruido es que los predictores relacionados con el ruido obstruyen los predictores no relacionados con él. Por ejemplo, los algoritmos randomforest, ada y svm por alguna razón construyen el modelo más en estos predictores de ruido.