Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3008

 
mytarmailS #:

serás demasiado viejo para esperar.

Yo no espero tanto, solo me asomo de vez en cuando. Después de todo gpt auguro estancamiento y paralización en este tema. No se ven avances. Es solo un hype flash, como con las criptomonedas. Ahora ganarán dinero y se calmarán.
 
Maxim Dmitrievsky #:
No tengo muchas esperanzas, solo me asomo de vez en cuando. Después de todo gpt auguro estancamiento y paralización en este tema. No se ven avances. Puro hype flash, como con las criptomonedas.

Yo tengo la opinión contraria.

En general creo que hace tiempo que se ha creado una IA fuerte (sólo que no para nosotros), y toda la criptoindustria (el mundo entero) ha estado trabajando en su entrenamiento, sin saberlo.

 
mytarmailS #:

Yo opino lo contrario.

En general, creo que hace tiempo que se ha creado una IA fuerte (sólo que no para nosotros), y toda la criptoindustria (el mundo entero) ha estado trabajando en su entrenamiento, sin saberlo.

Entonces la pregunta lógica es: en qué tecnología. Si en Transformers, entonces no es IA en absoluto y nunca será capaz de hacerlo.
 
Maxim Dmitrievsky #:

No es prudente, no necesito ayuda. El foro es incluso más una distracción que una pista. Sólo expongo mi experiencia en términos generales. A veces la vendo :) quien la escuche ahorrará tiempo heredándola.


Sobrepasar las señales es una táctica errónea muy poco efectiva, esto ya es como un axioma para mi. Me gustaría decir IMHO, pero es más como un axioma.

Y necesito ayuda - se me ocurren más cosas y más rápido de lo que puedo comprobarlo en el código.

No necesitas buscar características - necesitas seleccionarlas y configurarlas correctamente.

 
Aleksey Vyazmikin #:

Y necesito ayuda: se me ocurren más cosas y más rápido de lo que puedo probarlas en código.

No se necesita una sobreabundancia de funciones: hay que seleccionarlas y configurarlas correctamente.

Pues en la ficción pasa exactamente lo mismo. Se les ocurren muchas cosas, no tienen tiempo de escribirlas :) y luego el consejo editorial representado por Aleksey Nikolayev lo recorta todo.
 
Maxim Dmitrievsky #:
Entonces la pregunta lógica es: en qué tecnología. Si es en Transformers, no es IA en absoluto y nunca lo será.

¿Quién puede decirlo?

Pero la tecnogolia debe ser tan mala si se necesita la potencia de cálculo de todo el mundo, desde teléfonos móviles hasta una granja de criptomonedas conectada a una central eléctrica...

Pero no hay mejor tecnología en este momento.

 

A mí me parece sencillo y trivial.

1. Yo mismo he trabajado y trabajo: hay un maestro y a él hay que recoger/procesar las señales.

2. Como afirma mytarmailS, se puede plantear la tarea contraria: hay signos y a ellos hay que corresponder/crear un profesor. Hay algo en esto que no me gusta. No intento seguir este camino.


En realidad, ambas formas son iguales: el error de clasificación en el par profesor-rasgo disponible no debe superar el 20% fuera de la muestra. Pero lo más importante es que debe haber una prueba teórica de que el poder predictivo de los rasgos disponibles no cambia, o cambia débilmente en el futuro. En todo apisonamiento, esto es lo más importante.


Observaré que mi razonamiento no incluye la selección del modelo. Creo que el modelo desempeña un papel extremadamente secundario, ya que no tiene nada que ver con la estabilidad de la capacidad predictiva de los rasgos: la estabilidad de la capacidad predictiva es una propiedad del par profesor-rasgo.

1. ¿Alguien más tiene un par profesor-rasgo con un error de clasificación inferior al 20%?

2. ¿Alguien más tiene pruebas reales de que la variabilidad de la capacidad predictiva de las características utilizadas es inferior al 20%?


¿La tiene alguien? Entonces hay algo que discutir


¿No? Todo lo demás es bla, bla, bla.

 
СанСаныч Фоменко #:

A mí me parece sencillo y trivial.

1. Yo mismo he trabajado y trabajo: hay un maestro y es necesario recoger/procesar los signos.

2. Como dice mytarmailS, se puede plantear la tarea contraria: hay atributos y hay que coger/crear un profesor para ellos. Hay algo en esto que no me gusta. No intento ir por ese camino.


En realidad, ambas formas son iguales: el error de clasificación en el par profesor-rasgo disponible no debe superar el 20% fuera de la muestra. Pero lo más importante es que debe haber una prueba teórica de que el poder predictivo de los rasgos disponibles no cambia, o cambia débilmente en el futuro. Esto es lo más importante.


Observaré que mi razonamiento no incluye la selección del modelo. Creo que el modelo desempeña un papel extremadamente secundario, ya que no tiene nada que ver con la estabilidad de la capacidad predictiva de los rasgos: la estabilidad de la capacidad predictiva es una propiedad del par profesor-rasgo.

1. ¿Alguien más tiene un par profesor-rasgo con un error de clasificación inferior al 20%?

2. ¿Alguien tiene pruebas reales de una variabilidad en la capacidad de predicción de las características utilizadas inferior al 20%?


¿Alguien la tiene? Entonces hay algo que discutir


¿No? Todo lo demás es bla bla bla bla.

Un profesor es un conjunto de rasgos y etiquetas, no lo que has escrito :) o mejor dicho, es una persona en absoluto, o un algoritmo que genera esos datos 😀

La elección del modelo influye, tienes que elegir un modelo fuerte. Pero como todos los modelos fuertes son sobre las mismas cualidades fuertes, la elección entre ellos ya es sin principios.

A veces conocer las definiciones correctas ayuda a pensar correctamente.
 
СанСаныч Фоменко #:
Pero lo más importante es que exista una prueba teórica de que el poder predictivo de las características disponibles no cambia, o cambia débilmente en el futuro. En toda la apisonadora, esto es lo más importante.

Por desgracia, nadie ha encontrado esto, de lo contrario no estaría aquí, pero en las islas tropicales))))

SanSanych Fomenko #: En mi opinión, el modelo juega un papel extremadamente pequeño, porque no tiene ninguna relación con la estabilidad de la capacidad predictiva de los rasgos: la estabilidad de la capacidad predictiva es una propiedad del par "maestro-rasgo".

Sí. Incluso 1 árbol o regresión puede encontrar un patrón si está ahí y no cambia.

SanSanych Fomenko #:

1. ¿Alguien más tiene un par profesor-rasgo con menos del 20% de error de clasificación?

Fácil. Puedo desgenerar docenas de conjuntos de datos. Ahora estoy investigando TP=50 y SL=500. Hay una media del 10% de error en la calificación del profesor. Si es del 20%, será un modelo de ciruela.
Así que el punto no está en el error de clasificación, sino en el resultado de sumar todas las ganancias y pérdidas.

Como se puede ver, el modelo superior tiene un error del 9,1%, y se puede ganar algo con un error del 8,3%.
Los gráficos muestran sólo OOS, obtenidos por Walking Forward con reentrenamiento una vez a la semana, un total de 264 reentrenamientos en 5 años.
Es interesante que el modelo funcionara a 0 con un error de clasificación del 9,1%, y 50/500 = 0,1, es decir, el 10% debería ser. Resulta que el 1% se comió el diferencial (mínimo por barra, el real será mayor).

 

Primero hay que darse cuenta de que el modelo está lleno de basura por dentro...

Si descompones un modelo de madera entrenado en las reglas que hay dentro y las estadísticas de esas reglas.

como :

     len  freq   err                                                                                 condition pred
315    3 0.002 0.417    X[,1]>7.49999999999362e-05 & X[,2]<=-0.00026499999999996 & X[,4]<=0.000495000000000023    1
483    3 0.000 0.000     X[,1]<=0.000329999999999941 & X[,8]>0.000724999999999976 & X[,9]>0.000685000000000047    1
484    3 0.002 0.273      X[,1]>0.000329999999999941 & X[,8]>0.000724999999999976 & X[,9]>0.000685000000000047   -1
555    3 0.001 0.333   X[,5]<=0.000329999999999941 & X[,7]>0.000309999999999921 & X[,8]<=-0.000144999999999951   -1
687    3 0.001 0.250 X[,2]<=-0.00348499999999996 & X[,7]<=-0.000854999999999939 & X[,9]<=-4.99999999999945e-05    1
734    3 0.003 0.000    X[,7]>-0.000854999999999939 & X[,8]>0.000724999999999865 & X[,9]<=0.000214999999999965    1
1045   3 0.003 0.231   X[,1]<=-0.000310000000000032 & X[,4]>0.000105000000000022 & X[,4]<=0.000164999999999971   -1
1708   3 0.000 0.000    X[,3]>0.00102499999999994 & X[,6]<=0.000105000000000022 & X[,7]<=-0.000650000000000039    1
1709   3 0.002 0.250     X[,3]>0.00102499999999994 & X[,6]<=0.000105000000000022 & X[,7]>-0.000650000000000039   -1
1984   3 0.001 0.000     X[,1]<=0.000329999999999941 & X[,8]>0.000724999999999976 & X[,9]>0.000674999999999981    1
2654   3 0.003 0.000        X[,4]<=0.00205000000000011 & X[,5]>0.0014550000000001 & X[,9]<=0.00132999999999994    1
2655   3 0.000 0.000         X[,4]<=0.00205000000000011 & X[,5]>0.0014550000000001 & X[,9]>0.00132999999999994   -1
2656   3 0.001 0.200         X[,3]<=0.00245499999999998 & X[,4]>0.00205000000000011 & X[,5]>0.0014550000000001   -1
2657   3 0.000 0.000          X[,3]>0.00245499999999998 & X[,4]>0.00205000000000011 & X[,5]>0.0014550000000001    1
2852   3 0.000 0.000                X[,2]<=-0.001135 & X[,8]>-0.000130000000000075 & X[,8]>0.00128499999999998   -1
2979   3 0.001 0.200     X[,1]>0.000930000000000097 & X[,1]>0.00129000000000012 & X[,8]<=-0.000275000000000025   -1


y analizamos la dependencia del error de la regla err con la frecuencia de su ocurrencia en la muestra.


obtenemos


Entonces nos interesa esta zona


Donde las reglas funcionan muy bien, pero son tan raras que tiene sentido dudar de la autenticidad de las estadísticas sobre ellas, porque 10-30 observaciones no es estadística