Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1239
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Tengo una clase más pequeña. Tengo un error de 0,14\0,4.
¿Del 14% al 40% en el examen?
¿Del 14% al 40% en el examen?
bien, traine 14 prueba 40
La exactitud y el error de clasificación son cosas diferentes. exactitud y % de muestra (prueba-tren).
está claro en principio - sobrepasa el rastro... 0,6 de precisión en este conjunto de datos en la prueba (20% de la muestra)...
error de clasificación hasta ahora... mucho tiempo para rehacer allí ))
Tengo un 20% de formación en alglib, un 80% en OOB, y he hecho lo mismo aquí
Lo hice en python y funciona así
score(X,y,sample_weight=None)[source]Devuelve la precisión media en los datos de prueba y las etiquetas dadas.
No lo entiendo en absoluto, hoy mismo le he cogido el tranquillo a python, mañana lo volveré a intentar. Si la prueba y el rastreo es del 50%, entonces es así
Mi conjunto de datos (precisión) en este caso es
tendencia (80% de la muestra) = 0,619
test(20% de la muestra) = 0,612 OOS
Un poco de excavación, de cabeza menos. Así es como se hace, no el 20% de la prueba))))
El 50% no es suficiente, 300 de observación no es nada.
Aprender en un 20% es algo nuevo))
Creo que el error allí no cambió mucho, por eso lo hice así, una fuerte regularización en definitiva
Creo que el error no cambiaba mucho ahí, por eso lo hacía así, regularización fuerte en definitiva
¿Cómo es posible que no haya cambiado? El 14 y el 40% es una gran diferencia.
Por ejemplo, 60x60 como en Wizard - ¡es cierto!
Lo mismo que hice con Doc y Toxic, Python y R no tienen eso... no te digo...
¿Cómo podría no hacerlo? 14 y 40% es una gran diferencia.
60 sobre 60 como mago - ¡eso es!
Bueno, vamos a revisar todos los modelos que están en python... me refiero a los que están en circulación... no hasta mañana... no hasta mañana...
Tal vez necesitemos un poco más de preprocesamiento.¿No entiendes que no puedes ganar dinero con el forex?)
Es más fácil hacerse programador y conseguir un trabajo bien pagado que dedicarse a este masoquismo.
en resumen en alglib error de clasificación y logloss... El logloss no tiene ningún sentido, el error de clasificación en el bosque cae a cero en una muestra de aprendices>0,8 y oob 0,2
rmse no es bueno para la clasificación
Por eso tomé una pequeña muestra de entrenamiento, para tener algún tipo de error, pero sigue siendo pequeña. No sé cómo comparar con el de Python