Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2427
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Bueno, como estoy haciendo un script para preparar los datos, todavía tengo que hacer un archivo con la lista de las columnas excluidas, que incluyen:
1. Columnas con predictores correlacionados (por cierto, ¿cómo se elige qué columna dejar, digamos 5 predictores correlacionados?)
2. Columnas descartadas de la primera tabla de archivos, excepto la columna con el objetivo.
Además, la columna con la etiqueta de destino debe escribirse en el archivo, preferiblemente buscada por el nombre de la columna.
La estructura del archivo es la siguiente
Necesito seleccionar los predictores adecuados en menos tiempo. Volver a pasar por los predictores es multiplicar por cien el tiempo de procesamiento. Mi método se basa en la lógica de que un buen predictor (incluido uno adecuado para un método de aprendizaje concreto) será exigido por el modelo en todos los intervalos de la muestra, lo que elimina el ajuste al área de la muestra.
Para tenerlo en todos, necesitamos una validación cruzada. Y sólo se comprueba mediante pruebas o exámenes.
Si se hace una validación cruzada con el 10% de una muestra, hay que entrenar 10 veces, no cientos. Y si haces el 20%, tienes que enseñarlo 5 veces.
Hay que cruzar con la validación para poder hacerlo todo. Y sólo se comprueba con una prueba o un examen.
Si se hace una validación cruzada con el 10% de la muestra, hay que entrenar 10 veces, no cientos. Y si el 20%, entonces 5 veces.
Divido la muestra en 8 secciones y construyo 100 modelos diferentes para cada sección, luego analizo los modelos y veo qué predictores estaban en demanda -lo que significa que se utilizaron para encontrar un patrón-, hago un promedio del valor estimado y luego utilizo los predictores restantes para el entrenamiento de toda la muestra. La lógica detrás de esto es que una vez que los patrones de estos predictores se han encontrado en un área particular, entonces el modelo será capaz de generalizar a estos predictores de manera uniforme en toda la muestra, en lugar de ajustar por áreas de la muestra como suele ser el caso.
Su método construye el modelo sobre una pequeña parte de la muestra, los modelos se construirán de forma diferente en cada parte de la muestra, porque se seleccionarán los mejores predictores que se ajusten a un área de entrenamiento particular, y teniendo en cuenta el hecho de que la muestra no es perfecta (representativa), podemos decir que esta forma investiga sólo una parte de la información disponible que puede o no repetirse en el futuro, mi método permitirá aprender más información sobre el mercado y el sobreentrenamiento será menor. Además si en CatBoost no se fija la tabla cuántica, entonces cada vez en general el entrenamiento será sobre diferentes predictores debido a diferentes construcciones de tablas cuánticas para el sitio concreto de la muestra.
ahora la respuesta a la primera pregunta
No sé qué es lo que pasa: jura.
No sé qué es lo que pasa: jura.
Ejecuta el código de creación de la función y luego la función misma
Ha funcionado, gracias.
Que sea su tarea)...
Sólo podría usar ejemplos concretos para averiguarlo, de lo contrario, mejor resolver el tema en MQL.
El hilo más místico del foro ahora con comunicación telepática.
Nadie ha admitido qué tipo de máquina se enseña aquí y qué
También me pregunto por qué cada espantapájaros que vende su miserable máquina de promedios cree que es su deber promocionarse en este hilo, ¿es dedicación o qué? ))