Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 394

Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Si empiezas algo durante un mes - utiliza una fuente de alimentación ininterrumpida para tu ordenador, una vez tuve 2 semanas de cálculos, se fue la luz))
Y de la versión GPU no esperes mucho, reescribir el código me parece más largo y si el autor no lo ha hecho, es poco probable que otra persona termine esta tarea hasta el final.
Bueno, el autor lo ha puesto todo en paralelo, ahora sólo tengo que ejecutarlo. De todos modos, he maximizado la carrera durante 3 días y he conseguido un modelo con 9 entradas, lo que es un récord para mí ahora para ser honesto. Realmente no quiero optimizarlo durante tanto tiempo. Pero como dicen. El mercado lo exige. Por lo tanto, buscando capacidades, si alguien tiene la oportunidad de optimizar el conjunto de datos en el optimizador, e incluso en 20-30 núcleos, estaría muy agradecido.
Mihail Marchukajtes:
días de aprendizaje, semanas.
Aparentemente tu algoritmo no es óptimo, en conjuntos de datos tan pequeños, puedes utilizar algoritmos de fuerza bruta como Knn, que son cuasi-óptimos, si el algoritmo es más lento que Knn, probablemente sea un mal algoritmo de ML o esté mal configurado. En este conjunto de datos, el ciclo de entrenamiento y la ejecución de todo el conjunto no debería durar más de un segundo.
Ya lo he explicado antes. 100 divisiones, cada división se entrena 1000 épocas, etc. La esencia del optimizador es calcular el conjunto de datos para que no haya dudas sobre su idoneidad. Es decir, él da vueltas a este archivo de forma figurada, y tú sigues comparándolo con un entrenamiento de una sola neurona. EN MI OPINIÓN. Se trata esencialmente de un sistema de IA en el que todo tipo de optimización y preprocesamiento tiene lugar junto con el entrenamiento de las neuronas, y el propio entrenamiento se ejecuta cientos de veces. Si algo....
Ya lo he explicado antes. 100 divisiones, cada división se entrena durante 1000 épocas, etc. Sólo te fijas en un único entrenamiento de una neurona, mientras que la esencia del optimizador es calcular el conjunto de datos para que no haya dudas sobre su idoneidad. Es decir, él hace girar este archivo de arriba a abajo de forma figurada, y tú sigues comparándolo con un solo entrenamiento de una neurona. EN MI OPINIÓN. Se trata esencialmente de un sistema de IA en el que todo tipo de optimización y preprocesamiento tiene lugar junto con el entrenamiento de las neuronas, y el propio entrenamiento se ejecuta cientos de veces. Si algo....
MLP está adivinando el 95% del tiempo... No creo que estés haciendo la moto correcta) Sin ánimo de ofender.
Tienes un error.
La primera columna de la tabla es el número de fila, y esta columna no se puede utilizar en la predicción, pero sólo es necesaria para jPrediction por alguna razón.
El objetivo se distribuye de manera que la primera mitad de las líneas es de clase 0, y la segunda mitad de las líneas es de clase 1. Así que la neurona simplemente recuerda que si el número de línea es menor que 228 es la clase 0, de lo contrario es la clase 1.
Tienes un error.
La primera columna de la tabla es un número de fila y no se puede utilizar esta columna en la predicción, pero es obligatoria sólo para jPrediction por alguna razón.
El objetivo se distribuye de manera que la primera mitad de las líneas es de clase 0, y la segunda mitad de las líneas es de clase 1. Así, la neurona simplemente recuerda que si el número de línea es menor que 228, es de clase 0, de lo contrario es de clase 1.
Por cierto, sí. No me di cuenta de que es sólo un número.
Sin ella Entradas a guardar: 4,50,53,59,61,64,92,98,101,104,
Error medio en el entrenamiento (60,0%) =0,269 (26,9%) nLearns=2 NGrad=7376 NHess=0 NCholesky=0 codResp=2
Error medio en la validación (20,0%) parcela =0,864 (86,4%) nLearns=2 NGrad=7376 NHess=0 NCholesky=0 codResp=2
Error medio en la prueba (20,0%) plot =0,885 (88,5%) nLearns=2 NGrad=7376 NHess=0 NCholesky=0 codResp=2
Claramente el sobreentrenamiento. Así que tengo que cribar las entradas de una manera diferente.
¿Tal vez tamizar por peso de los insumos? Como hiciste para el problema en el primer post del hilo...
Estoy intentando reescribir tu script de R adjunto, para que pueda determinar los nombres y el número de columnas... pero no sé lo suficiente R.
Estoy intentando reescribir el script de R que has adjuntado, para que determine los nombres y el número de columnas... pero no sé lo suficiente R.
Por aquel entonces todavía estaba empezando a aprender R, el script está generado casi en su totalidad en rattle (entorno visual para el datamining en R), por eso es tan complejo y personalizado para todas las ocasiones.
Esto...
debería cambiarse por...
Y debería estar bien.
En general, es un mal enfoque, no se debería definir la importancia de las entradas de esa manera. Por alguna razón, esa vez funcionó, pero nunca más me ayudó.
Es mejor definir la importancia de los predictores de la siguiente manera
Los resultados de la evaluación de la importancia son los siguientes. Cuanto más alto sea el predictor en la tabla, mejor. SóloVVolum6, VDel1, VVolum9, VQST10 pasaron la prueba.
En rattle podemos construir 6 modelos a la vez sobre estos 4 predictores, y SVM muestra una precisión de alrededor del 55% en los datos de validación y prueba. No está mal.
MLP acierta el 95% de las veces... No creo que estés haciendo la moto correcta) Sin ánimo de ofender.
Yo también me fabrico mi propia moto, pero basándome en décadas de probada eficacia de la MLP (que se dice obsoleta y necesita algo más fresco para funcionar).
Y prueba también los árboles de decisión de alglib, cuentan más rápido y tienen mejor rendimiento que mlp. Diplerning también es más rápido, pero no en alglib.
Lo principal es la relación velocidad/calidad, de qué sirve esperar una semana o incluso un día o hasta una hora, así nunca encontrarás la combinación óptima) El modelo tarda unos segundos en aprender, entonces se puede utilizar la genética para la autosimulación de parámetros o predictores, entonces es pura IA, de lo contrario es una basura)