Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1239

 
Maxim Dmitrievsky:

Tengo una clase más pequeña. Tengo un error de 0,14\0,4.

¿Del 14% al 40% en el examen?

 
Grial:

¿Del 14% al 40% en el examen?

bien, traine 14 prueba 40

 
Vizard_:

La exactitud y el error de clasificación son cosas diferentes. exactitud y % de muestra (prueba-tren).

está claro en principio - sobrepasa el rastro... 0,6 de precisión en este conjunto de datos en la prueba (20% de la muestra)...

error de clasificación hasta ahora... mucho tiempo para rehacer allí ))

Tengo un 20% de formación en alglib, un 80% en OOB, y he hecho lo mismo aquí

Lo hice en python y funciona así

score(X,y,sample_weight=None)[source]

Devuelve la precisión media en los datos de prueba y las etiquetas dadas.


No lo entiendo en absoluto, hoy mismo le he cogido el tranquillo a python, mañana lo volveré a intentar. Si la prueba y el rastreo es del 50%, entonces es así


 
Vizard_:

Mi conjunto de datos (precisión) en este caso es
tendencia (80% de la muestra) = 0,619
test(20% de la muestra) = 0,612 OOS

Un poco de excavación, de cabeza menos. Así es como se hace, no el 20% de la prueba))))

El 50% no es suficiente, 300 de observación no es nada.

¿Cuál fue la formación?
 
elibrarius:
Aprender en un 20% es algo nuevo))

Creo que el error allí no cambió mucho, por eso lo hice así, una fuerte regularización en definitiva

 
Maxim Dmitrievsky:

Creo que el error no cambiaba mucho ahí, por eso lo hacía así, regularización fuerte en definitiva

¿Cómo es posible que no haya cambiado? El 14 y el 40% es una gran diferencia.
Por ejemplo, 60x60 como en Wizard - ¡es cierto!

 
Vizard_:

Lo mismo que hice con Doc y Toxic, Python y R no tienen eso... no te digo...

¿Al menos los andamios o las redes?
 
Elibrarius:

¿Cómo podría no hacerlo? 14 y 40% es una gran diferencia.
60 sobre 60 como mago - ¡eso es!

Bueno, vamos a revisar todos los modelos que están en python... me refiero a los que están en circulación... no hasta mañana... no hasta mañana...

Tal vez necesitemos un poco más de preprocesamiento.
 

¿No entiendes que no puedes ganar dinero con el forex?)

Es más fácil hacerse programador y conseguir un trabajo bien pagado que dedicarse a este masoquismo.

 

en resumen en alglib error de clasificación y logloss... El logloss no tiene ningún sentido, el error de clasificación en el bosque cae a cero en una muestra de aprendices>0,8 y oob 0,2

rmse no es bueno para la clasificación

Por eso tomé una pequeña muestra de entrenamiento, para tener algún tipo de error, pero sigue siendo pequeña. No sé cómo comparar con el de Python