Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3164

 
Dmytryi Nazarchuk #:

No te está troleando.

Escribiste "russki", que en serbio significa "ruso".

Por eso te escribe en serbio.

Ahh))))

 
mytarmailS #:

Interesante artículo sobre los árboles y el aprendizaje por refuerzo en ellos.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/

He probado el algoritmo con datos de mercado...

El algoritmo funciona estable en los nuevos datos en comparación con Forest....

el algoritmo no se reentrena, en todas las muestras de validación el resultado es mejor que en la muestra de prueba o mucho mejor, no he visto peor....

Akurasi es en promedio 2-4% mejor que Forrest. Si Forrest tiene 0,58, RLT tiene ~ 0,62.


De todos modos, de acuerdo con las primeras pruebas, el algoritmo vale la pena, pero se necesita mucho tiempo para aprender....

 
Forester #:
Hecho en casa. Las posibilidades de experimentación son ilimitadas....

Sí. no tiene sentido discutir sobre las caseras.

¿Por qué perder el tiempo con las caseras? Hay decenas de no caseros con algoritmos que son prácticamente utilizados por millones de usuarios.....

 
mytarmailS #:

probó el algoritmo con datos de mercado.

El algoritmo funciona de forma estable con datos nuevos en comparación con Forest.....

el algoritmo no se reentrena, en todas las muestras de validación el resultado es mejor que en la muestra de prueba o mucho mejor, no he visto nada peor....

Akurasi es en promedio 2-4% mejor que Forrest, así que si Forrest tiene 0,58, RLT tiene ~ 0,62.


De todos modos, de acuerdo con las primeras pruebas, el algoritmo vale la pena, pero se necesita mucho tiempo para aprender....

Según su teoría, se supone que hay algunos rasgos "fuertes" que funcionan bien y el problema es separarlos del resto de los "débiles". En su campo, la genética, probablemente sea así. Pero nuestra situación es obviamente diferente: los rasgos son aproximadamente iguales en fuerza, a menudo colineales, y su índice de fuerza puede cambiar con el tiempo.

En general, si sólo fuera cuestión de seleccionar rasgos informativos, San Sanych, con su método secreto, se habría hecho trillonario hace mucho tiempo).

 
Aleksey Nikolayev #:

Su teoría parte de la base de que hay algunos rasgos "fuertes" que funcionan bien y el único problema es separarlos del resto de los "débiles". En su campo, la genética, probablemente sea así. Pero nuestra situación es claramente diferente: los rasgos son aproximadamente iguales en fuerza, a menudo colineales, y su índice de fuerza puede cambiar con el tiempo.

En general, si sólo fuera cuestión de seleccionar rasgos informativos, San Sanych, con su método secreto, se habría hecho trillonario hace mucho tiempo).

Bueno, el algoritmo realmente funciona y es más estable y akurasi mejor y kappa mejor ... en otras palabras, funciona mejor ...

y funciona tanto después de 1000 nuevas observaciones como después de 20 000 ... y el error es el mismo o mejor.

Aleksey Nikolayev #:

los signos son casi iguales en fuerza

Bueno, y aquí no puedo estar de acuerdo.

la importancia de este algoritmo


 
СанСаныч Фоменко #:

Sí... no tiene sentido hablar de las caseras.

¿Por qué perder el tiempo con las caseras? Hay docenas de algoritmos no caseros que son prácticamente utilizados por millones de usuarios.....

Porque puedo experimentar y hacer cosas que no están incluidas en estos algoritmos - cajas negras.
No discuto paquetes, sólo ofrezco discutir ideas.
 
Forester #:
Porque puedo experimentar y hacer cosas que no están incluidas en estos algoritmos - cajas negras.
No discuto paquetes, sugiero discutir sólo ideas.
¿Y cuántos de ustedes han implementado las ideas discutidas aquí?
¿Y cuántos de ustedes obtuvieron mejores resultados que con la biblioteca ya hecha?

La cifra es casi cero, ¿no?

Y la librería es código reproducible, todo el mundo puede ejecutarlo y todo el mundo obtendrá el resultado, resultado reproducible, resultado real, en forma de respuesta sí-no + experiencia y conocimientos añadidos.

Y las discusiones no son más que una pérdida de tiempo, discutimos, discutimos y olvidamos, nadie escribió ni una línea de código, igual que las abuelas en el banco, y el tiempo se fue y la vida con él... Y no se añadió ni conocimiento ni experiencia.

 
Da la sensación de que el conocimiento disminuye, culpa del pensamiento por lotes.
 
СанСаныч Фоменко #:

Sí... no tiene sentido hablar de las caseras.

¿Por qué perder el tiempo con las caseras? Hay docenas de algoritmos no caseros que son prácticamente utilizados por millones de usuarios.....

Últimamente veo bastantes artículos con árboles "caseros". Por regla general, no escriben árboles desde cero, sino que utilizan el paquete rpart de R. Así una cosa no interfiere con la otra (paquetes hechos por uno mismo).

No hay análogo del paquete en python, creo. Así que guardar un árbol hecho en casa en ONNX seguramente será problemático.

 
Aleksey Nikolayev #:

Últimamente veo bastantes artículos con árboles "caseros". Por regla general, no escriben árboles desde cero, sino que utilizan el paquete rpart de R. Así una cosa no interfiere con la otra (paquetes hechos por ellos mismos).

No hay un análogo del paquete en python, creo. Así que guardar un árbol hecho en casa en ONNX seguramente será problemático.

¿necesitas ONNX para los árboles ?