Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3082

 
СанСаныч Фоменко #:

No está en el artículo.

Se describe el ajuste habitual con diferentes divisiones de los predictores originales, incluida la validación cruzada. Una rutina que se ha camuflado con palabras.

Tengo una pregunta para los entendidos en aprendizaje automático. Si utilizo los datos de un personaje para el entrenamiento, los datos de otro personaje para la validación y los datos de un tercer personaje para las pruebas, ¿es una buena práctica?

Además, estoy obteniendo los siguientes resultados de los datos de prueba: las celdas verdes son muy buenas, las amarillas son buenas, las rojas son promedio.


Y también una pregunta sobre la modificación de los datos para entrenar el modelo. Me he dado cuenta de que al modelo le cuesta encontrar los extremos, en mi caso valores por encima de 60 y valores por debajo de 40.
Así que encuentro valores por encima de 60 y por debajo de 40 en los datos de entrenamiento, que además vuelvo a añadir a los datos de entrenamiento antes de introducirlos en el modelo, así que la pregunta es: ¿puedo mejorar la precisión del modelo aumentando los datos de entrenamiento que contienen información sobre los extremos?

inputs_unique, indices = np.unique(inputs, axis=0, return_index=True)
outputs_unique = outputs[indices]

#  Find indices where outputs_unique values are greater than 60
indices_greater_than_60 = np.where(outputs_unique > 0.6)

#  Get the corresponding inputs_unique and outputs_unique values
filtered_inputs_greater = inputs_unique[indices_greater_than_60]
filtered_outputs_greater = outputs_unique[indices_greater_than_60]

#  Add filtered_inputs values to inputs_unique
inputs_unique = np.concatenate((inputs_unique, filtered_inputs_greater), axis=0)
#  Add filtered_outputs values to outputs_unique
outputs_unique = np.concatenate((outputs_unique, filtered_outputs_greater), axis=0)

#  Find indices where outputs_unique values are smaller than 40
indices_smaller_than_40 = np.where(outputs_unique < 0.4)

#  Get the corresponding inputs_unique and outputs_unique values
filtered_inputs_smaller = inputs_unique[indices_smaller_than_40]
filtered_outputs_smaller = outputs_unique[indices_smaller_than_40]

#  Add filtered_inputs values to inputs_unique
inputs_unique = np.concatenate((inputs_unique, filtered_inputs_smaller), axis=0)
#  Add filtered_outputs values to outputs_unique
outputs_unique = np.concatenate((outputs_unique, filtered_outputs_smaller), axis=0)
 
Chapter 1 Introduction | An R Companion for Introduction to Data Mining
  • Michael Hahsler
  • mhahsler.github.io
1.1 Used Software This companion book assumes that you have R and RStudio Desktop installed and that you are familiar with the basics of R, how to run R code and install packages. If you are new...
 

 
Lilita Bogachkova #:

Tengo una pregunta para los expertos en aprendizaje automático. Si utilizo los datos de un personaje para el entrenamiento, los datos de otro personaje para la validación y los datos de un tercer personaje para las pruebas, ¿es una buena práctica?

brevemente NO.

entrenas el modelo para reconocer sandías, pruebas con manzanas, validas con...

 
Lilita Bogachkova #:

Tengo una pregunta para los expertos en aprendizaje automático. Si utilizo los datos de un personaje para el entrenamiento, los datos de otro personaje para la validación y los datos de un tercer personaje para las pruebas, ¿es una buena práctica?

Prueba a utilizar el mismo símbolo con ruido añadido.

 
Rorschach #:

Prueba a usar el mismo personaje con ruido añadido.

Creo que es mejor desplazar el tiempo si no son ticks,

el ruido distorsiona los datos, y el ruido tiene parámetros y no está claro cuáles elegir, y en general, ¿por qué no hacer comillas a partir del ruido como hice hace poco?

 
Maxim Dmitrievsky #:

Para convertir los parámetros molestos en funciones, puede utilizar los valores de salida de RF o de cualquier algoritmo básico, como en el artículo. Para los completamente desinformados: sustituya los valores de los parámetros seleccionados por valores de funciones. Entonces la regresión lineal (o cualquier otro algoritmo) será el meta lerner a través del cual se evalúa el efecto tritment. Por qué y cómo funciona todo esto: aprenda matemáticas.

Para entenderlo, es suficiente para empezar a pensar con la cabeza. Pero Sanych empezara a hacer tonterias otra vez, porque solo quiere decir algo sin pensar. Sanych, tu falta de comprensión es tan grande que citas los parámetros de RF como una especie de prueba, lo cual es absolutamente increíble. Te he escrito 3 veces: olvídate de RF. Por última vez: estudia el tema y luego despotrica. De lo contrario, la misma gente inculta te creerá ciegamente.

Y no respondas a mis posts con el aplomo de un sabelotodo (que molesta), porque no sabes nada, y parece el desvarío de un ptuschnik.

Todas las referencias a las fuentes se dan en el artículo. ¿Necesitáis que os pinchen cada palabra como a gatitos ciegos? ¿O al fin y al cabo sois adultos?

Eres tú el que cita otra cosa....

Entrenamos bien el modelo, tomamos predictores espontáneos y los sustituimos por los valores predichos por el modelo, luego volvemos a entrenar el modelo. Comparamos el resultado mediante RMSE para modelos/datos de regresión. Si el resultado mejoró, entonces los predictores sustituidos cambiaron sus propiedades durante el periodo de entrenamiento, ¿o qué?

 
Lilita Bogachkova #:

Tengo una pregunta para los expertos en aprendizaje automático. Si utilizo los datos de un personaje para el entrenamiento, los datos de otro personaje para la validación y los datos de un tercer personaje para las pruebas, ¿es una buena práctica?

Además, obtengo los siguientes resultados de los datos de prueba: las celdas verdes son muy buenas, las amarillas son buenas y las rojas son medias.

No soy un experto, pero compartiré mis ideas.

Pocas personas consiguen que un modelo funcione correctamente con distintos personajes. Así que se puede considerar un buen logro si ese es realmente el caso. Supongo que el modelo ve patrones que probabilísticamente se realizan por igual.

Lilita Bogachkova

Y también una pregunta sobre la modificación de los datos para entrenar el modelo. Me he dado cuenta de que al modelo le cuesta encontrar los extremos, en mi caso valores por encima de 60 y valores por debajo de 40.
Así que encuentro valores por encima de 60 y por debajo de 40 en los datos de entrenamiento, que además vuelvo a añadir a los datos de entrenamiento antes de introducirlos en el modelo, así que la pregunta es: ¿es posible mejorar la precisión del modelo aumentando los datos de entrenamiento que contienen información sobre los extremos?

Si añades más muestras - el modelo puede encontrar un patrón unificador en ellas, si está ahí en el prisma de predictores utilizados.

 
Maxim Dmitrievsky #:

Para convertir los parámetros molestos en funciones, puede utilizar los valores de salida de RF o de cualquier algoritmo básico, como en el artículo. Para los completamente desinformados: sustituya los valores de los parámetros seleccionados por valores de funciones. Entonces la regresión lineal (o cualquier otro algoritmo) será el meta lerner a través del cual se evalúa el efecto tritment. Por qué y cómo funciona todo esto: aprenda matemáticas.

Para entenderlo, es suficiente para empezar a pensar con la cabeza. Pero Sanych empezara a hacer tonterias otra vez, porque solo quiere decir algo sin pensar. Sanych, tu falta de comprensión es tan grande que citas los parámetros de RF como una especie de prueba, lo cual es absolutamente increíble. Te he escrito 3 veces: olvídate de RF. Por última vez: estudia el tema y luego despotrica. De lo contrario, la misma gente inculta te creerá ciegamente.

Y no respondas a mis posts con el aplomo de un sabelotodo (que molesta), porque no sabes nada, y parece el desvarío de un ptuschnik.

Todas las referencias a las fuentes se dan en el artículo. ¿Necesitáis que os pinchen cada palabra como a gatitos ciegos? ¿O al fin y al cabo sois adultos?

Estaba discutiendo el artículo, no tu cifra en el bolsillo, que, creo, hay mucha según la lista de bibliografía a la que haces referencia.

Si tienes tan ardiente deseo de continuar la discusión del artículo que publicaste, entonces estoy dispuesto a continuar, pero: sólo el artículo y sólo mis argumentos, y en una forma que excluya groserías prohibitivas de tu parte.


En el artículo se hablaba de RF. No vi ninguna otra función que calculara el error de ajuste además del propio ajuste. Así que, por favor, tenga la amabilidad de tomar el texto del artículo y proporcionar una cita específica que refute esta idea.

 
Lilita Bogachkova #:

Tengo una pregunta para los expertos en aprendizaje automático. Si utilizo los datos de un personaje para el entrenamiento, los datos de otro personaje para la validación y los datos de un tercer personaje para las pruebas, ¿es una buena práctica?

Además, obtengo los siguientes resultados de los datos de prueba: las celdas verdes son muy buenas, las amarillas son buenas y las rojas son medias.


Y también una pregunta sobre la modificación de los datos para entrenar el modelo. Me he dado cuenta de que al modelo le cuesta encontrar los extremos, en mi caso valores por encima de 60 y valores por debajo de 40.
Así que encuentro valores por encima de 60 y por debajo de 40 en los datos de entrenamiento, que además vuelvo a añadir a los datos de entrenamiento antes de introducirlos en el modelo, así que la pregunta es: ¿puedo mejorar la precisión del modelo aumentando los datos de entrenamiento que contienen información sobre los extremos?

Si no se puede diferenciar entre los instrumentos, se puede. O llevarlos a la fuerza a ese estado restando la diferencia.

En cuanto a la segunda pregunta, probablemente no puedas. Se equivocará más en otros sitios, porque tirará del gradiente hacia sí mismo. Pero todo es individual.