Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 487
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Se supone que los bosques aleatorios tienen un error pequeño, porque todas las variables se utilizan en los árboles de decisión y no hay ninguna restricción de uso de memoria como en las redes neuronales: el número de neuronas. Allí sólo se pueden utilizar operaciones separadas para "difuminar" el resultado, como la restricción de nivel, el recorte de árboles o el backgammon. No sé si la implementación de MQ de alglib tiene poda, el bagging sí
Si esta variable es menor que 1, el error debería aumentar.
lo es, pero el error seguía mostrando la media, como se describe arriba... ahora es normal
Por cierto, incluso disminuyendo r en o,1 el error aumenta mucho. Por encima de r 0,9 por debajo de 0,8
Con r = 0,66 (como en la versión clásica de RF)
Y los resultados muestran que la tabla de multiplicar ya resuelve mal
Se supone que los bosques aleatorios tienen un error pequeño, porque todas las variables se utilizan en los árboles de decisión y no hay ninguna restricción de uso de memoria como en las redes neuronales: el número de neuronas. Allí sólo se pueden utilizar operaciones separadas para "difuminar" el resultado, como la restricción de nivel, el recorte de árboles o el backgammon. No sé si hay poda en la implementación MQ de alglib, hay etiquetado
Si esta variable se ajusta a un valor inferior a 1, el error debería aumentar.
hay que hacer 1 operación errónea por cada 5000000000000000000.es imposible en cualquier instrumento.
mi respeto.
para que el error sea tan pequeño como el de @Maxim Dmitrievsky
necesito 1 trato erróneo por cada 5000000000000000000 . es imposible hacerlo en cualquier instrumento.
Sinceramente.
¿Qué tienen que ver las operaciones con esto? Te estoy diciendo que cada árbol de decisión prácticamente recuerda todos los patrones y puede no haber ningún error en un conjunto de entrenamiento con un muestreo del 100%, es decir, R=1.
Sí, es un sobreajuste, pero así es como funciona el algoritmo, por eso utilizan todo tipo de trucos en los bosques aleatorios.
Que sobre tratos, te digo que todo árbol de decisión prácticamente recuerda todos los patrones y no puede haber ningún error en el muestreo del 100% es decir R=1.
para esto hay que mirar fuera de la bolsa, para estimar el modelo, pero entonces hay que poner r=0,66 como máximo.
Que de tratos, te digo que todo árbol de decisión prácticamente recuerda todos los patrones y no puede haber ningún error en el 100% del muestreo es decir R=1.
con respeto.
para esto hay que mirar fuera de la bolsa, para evaluar el modelo, pero entonces r=0.66 máximo puesto sí
Probablemente, hay que mejorar, pero el etiquetado por sí solo no es una tecnología muy sólida para la predicción, en mi opinión.
Bueno, eso es todo por ahora... :) entonces si engancho un lib decente con diplinking, lo veré
¡pero la velocidad!
lo es, pero el error seguía mostrando la media, como se ha descrito anteriormente... ahora es normal
Por cierto, incluso cuando r se reduce en o,1 el error aumenta mucho. Por encima de r 0,9 por debajo de 0,8
Con r = 0,66 (como en la versión clásica de RF)
Y por los resultados veo que la tabla de multiplicar ya se resuelve muy mal.
Sinceramente.
No he entrado en cómo funciona el bosque. pero por tus palabras entiendo que cada árbol memoriza un patrón, que posteriormente puede no repetirse. en este caso (al no haber repetición), no podemos decir qué probabilidad tenía en el plus y tomarlo como un axioma de probabilidad de 1, en lugar de llevarlo a 0,5 porque es esencialmente desconocido.
con todo respeto.
Cuando aumenté el umbral de la señal NS lo compensé aumentando el número de entradas necesarias, como consecuencia, el error disminuyó, pero también hubo menos opciones de entradas.
Sinceramente.
Bueno es cuestión de acertar con las fichas y el objetivo, aunque parecería que lo que puede ser más sencillo que una tabla de multiplicar, pero ahí tampoco hay un pequeño error