Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1609
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
se llama apilamiento de modelos. No será lo mismo, pero no necesariamente más eficiente. Lo hice de esta manera, no vi ninguna mejora.
Hay otra forma, se llama meta-aprendizaje. Se entrena el primer modelo para predecir las clases, luego se obtienen los resultados y se introducen en el segundo modelo, sobre los mismos u otros predictores, que permite/niega el comercio del primer modelo. 1 - negociar, 0 - no negociar, en función de la calidad de las predicciones del primer modelo, es decir, una especie de filtro. Reduce fuertemente los errores en los datos de entrenamiento, pero no tanto en los nuevos datos (si el modelo tiene una baja generalizabilidad). Pero la metaformación en sí misma está bien.
Se puede entrenar el primer modelo en algunos datos y el metamodelo en otros datos, sobre los errores del primer modelo. Puede haber diferentes variantes. Yo lo hice de las dos formas, en general hay una mejora, pero es más un retoque, que una forma de conseguir un buen modelo que funcione en la retroalimentación.
Puede buscar en Google "meta learning" de Marcos López De Prado, justo sobre el comercio
Gracias por la información, pero consideré la posibilidad de dividir los predictores en partes como una forma de ahorrar recursos informáticos durante el entrenamiento, simplemente no tengo suficiente tiempo para entrenar, por ejemplo, 10 predictores en el modelo a la vez...
No quiero hacer los predictores más pequeños con PCA u otra cosa, porque necesito elegir primero los predictores importantes, así que estoy pensando en cómo dividir el modelo general en modelos PDP con la mínima pérdida de información
Gracias por la información, pero estaba considerando dividir los predictores en partes como una forma de ahorrar recursos informáticos durante el entrenamiento, simplemente no puedo permitirme entrenar por ejemplo 10 predictores en un modelo a la vez...
No quiero reducir el tamaño de los predictores con PCA u otra cosa, ya que necesito seleccionar primero los predictores significativos, así que estoy pensando en cómo dividir el modelo general en modelos PDP con la mínima pérdida de información
¿Qué 10 predictores? Elimine los correlativos, vea la importancia de los restantes a través del bosque o de la potenciación y habrá 3-10
De todas formas no se puede acertar al 100%, se ha probado, habrá predicciones incorrectas en cualquier caso. Esto se debe a que los modelos de entrenamiento pueden repetirse, pero el resultado no es necesariamente el mismo.
Por ejemplo, esto es lo que parece. Por supuesto, puede que no tenga un enfoque muy bueno para la selección de modelos (datos formalizados), pero me cuesta creer que sea posible hacer predicciones 100% correctas.
¿Qué 10 predictores? Elimina los correlativos, mira la importancia de los restantes a través del bosque o de la potenciación y te quedas con 3-10
¿y si los predictores son reglas lógicas? :)
¿Y si los predictores son reglas lógicas? :)
A quién le importa, no existen tantos predictores, no es un modelo, es una basura
tal vez en algún lugar del motor de búsqueda o análisis de imágenes, pero no para las citas con seguridad
¿De qué forma se alimentan los niveles de la red neuronal?
A quién le importa, no existen tantos predictores, no es un modelo, es una basura
¿Por qué?
¿Cuanto más "rico" es el modelo, peor es?
Especialmente si no se sabe qué combinación de predictores es la mejor, ¿no sería correcto introducir todas las opciones posibles en el modelo y luego observar la importancia de los predictores en términos del modelo¿De qué forma se alimentan los niveles de la red neuronal?
No, no, no, intenté usar uno de dos niveles, pero no obtuve el resultado esperado, como escribí arriba, tal vez la selección no óptima de los datos (en algunos casos contradictorios) no permitió ver ningún indicio de un resultado lógicamente correcto. Hasta ahora, sólo las neuronas habituales en capas. Antes de construir una red multicapa, hay que saber si cada capa dará la solución adecuada de forma aislada.
No, no, no, intenté usar el binivel, pero no obtuve el resultado esperado, como escribí arriba, tal vez la selección no óptima de los datos (en algunos casos contradictorios) no permitió ver ningún indicio de resultado lógicamente correcto. Hasta ahora sólo las habituales neuronas en capas. Antes de construir redes multicapa, hay que saber si cada capa ofrece la solución adecuada por sí misma.
Lo siento, me refería a los niveles de soporte y resistencia