Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3018

 
mytarmailS #:
No tengo tiempo para meterme con eso...

No sé.
Estoy seguro de que si lo piensas, este paralelismo es probablemente innecesario.

¿Por qué no? Sería conveniente para mí...

 
Aleksey Vyazmikin #:

Por qué no - sería conveniente para mí....

Es mejor aprender a trabajar con datos en lugar de meter gigabytes de basura correlacionada en los servidores.
 
Vladimir Perervenko #:

La sabiduría popular dice que los árboles no dejan ver el bosque. Me pregunto si se puede ver un árbol cogiendo hojas. No pregunto por el bosque.

¿Es este el único algoritmo que conoces? ¿O es el más eficiente? ¿Por qué estás obsesionado con él?

Es un pensamiento pasajero.

Buena suerte.

¿No sois tú y Sanych de la misma tienda?
La frecuencia de comentarios sin sentido ha alcanzado un nivel crítico, ¿es posible que R se haya quedado sin paquetes?
 
Aleksey Vyazmikin #:

Se diferencia por intentar utilizar no la mejor división del predictor, sino diferentes variantes de la mejor. De este modo, las divisiones se realizan secuencialmente, y el éxito dela estimación se realiza enla hoja, si he entendido bien el algoritmo. A partir de la generación exitosa, se cortan los predictores más cercanos a la hoja y se vuelve a intentar la construcción. No puedo analizar el algoritmo en detalle, no soy el autor. Pero, en idea, este enfoque es mejor que la aleatorización en teoría.

No es un algoritmo de división codicioso, sino genético. Bueno, dipminds también se preguntaban sobre esto, estaban sacando reglas de las redes neuronales. Pero no se encontró mucha información. Hay un artículo y un modelo listo, pero no hay inspiración para probarlo todo. Hay otras implementaciones de sacar reglas de redes neuronales. Probablemente puedas sacar algo de ahí.
 
mytarmailS #:
Es mejor aprender a trabajar con datos, que meter gigabytes de basura correlacionada por los servidores

Podrías haber dicho simplemente que no entendías el tema, sacaste conclusiones erróneas, y ahora actúas de tal manera que comprendes la esencia del problema y vas directamente a la retirada.

Esta idea marginal - de que todos son tontos menos tú - repele a la gente - piénsalo.

 
Maxim Dmitrievsky #:
No un algoritmo de división codicioso, sino uno genético. Bueno, los dipminds también estaban investigando esto, sacando reglas de las redes neuronales. Pero no se encontró mucha información. Hay un artículo y un modelo listo, pero no hay inspiración para probarlo todo. Hay otras implementaciones de sacar reglas de redes neuronales. Probablemente puedas aprender algo de allí.

Así es como escribí lo que es la diferencia entre codiciosos y la genética de un árbol - tal vez yo no entendía la pregunta.

No he oído hablar de sacar reglas de redes neuronales. ¿Puedes proporcionar un enlace? Hasta ahora se dibuja algo engorroso en mi imaginación.

Pero creo que aquí las redes neuronales serán obviamente más lentas que los árboles en cuanto a la velocidad de emisión de nuevas reglas.

 
Aleksey Vyazmikin #:

Así escribí cuál es la diferencia entre codicioso y genética para la madera - tal vez yo no entendía la pregunta.

No he oído hablar de sacar reglas de la red neuronal. ¿Puedes darme un enlace? Hasta ahora algo engorroso se dibuja en mi imaginación.

Pero creo que aquí las redes neuronales serán obviamente más lentas que los árboles en cuanto a la velocidad de emisión de nuevas reglas.

Sólo estaba resumiendo sobre el árbol ) Google funciona, yo mismo lo uso. Dipminds suelen hacer muy cerca de cómo yo mismo percibo la realidad.


 
Aleksey Vyazmikin #:

Podrías haberte limitado a decir que no entendías el tema, sacaste conclusiones erróneas y ahora te comportas de tal manera que te acabas de dar cuenta de la esencia del problema y te has ido directamente a la retirada.

Esta idea marginal - que todo el mundo es tonto menos tú - aleja a la gente - piénsalo.

En tus temas debes ser tú quien entienda, no otra persona....
Una vez que se te mete en la cabeza, es un proceso.

Piensa en ello.
 
Aleksey Vyazmikin #:

Así escribí cuál es la diferencia entre codicioso y genética para la madera - tal vez yo no entendía la pregunta.

No he oído hablar de sacar reglas de la red neuronal. ¿Puedes darme un enlace? Hasta ahora algo engorroso se dibuja en mi imaginación.

Pero creo que aquí las redes neuronales serán obviamente más lentas que los árboles en cuanto a la velocidad de emisión de nuevas reglas.

Toda tu idea de separar las "reglas buenas" de las malas es un callejón sin salida, metodológicamente sin salida.

Tú, por alguna razón, crees que las "buenas" reglas (árboles) son realmente "buenas".

Y no es sólo la vaguedad de su futuro, es el hecho de que no hay reglas que puedan tomarse según algún criterio en absoluto. Hay reglas que producen una VARIABILIDAD de "bondad" que cambia a medida que se mueve la ventana. y es muy posible que esta regla pase de "buena" a "mala" a medida que se mueve la ventana. Esta variabilidad está definida por un valor que divide la probabilidad de predicción en clases.

Normalmente, en los algoritmos de MO, la división en clases se hace dividiendo la probabilidad de predicción de la clase por la mitad, pero esto es completamente incorrecto. Considero que el valor de la división en clases nunca es 0,5: este valor varía y depende del predictor concreto.

Ahora volvamos a sus árboles "buenos".

Si ha seleccionado árboles cuya "Bondad" se encuentra cerca del umbral que se mueve. Por eso he argumentado más arriba que los árboles "buenos" que ha seleccionado podrían convertirse fácilmente en árboles malos.


Es un callejón sin salida.

 
Igor Makanu #:

Yandex escribió algo similar https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml

Buen tutorial de Yandex, no está mal escrito. Otra sección de la misma tiene más que ver con lo que mis pensamientos giran en torno. Describe el tipo general de función de pérdida utilizada en la construcción de árboles. La idea es que optimizar el precio medio del error y maximizar el beneficio equivale a optimizar la suma de los precios del error.

Si se traduce en términos de beneficio, es la diferencia entre el beneficio total y el beneficio medio en una operación. Dado que estoy resolviendo el problema de la clasificación binaria (entrar/no entrar), maximizar el beneficio medio en una operación conducirá estúpidamente a entrar en una o dos operaciones y descartar el resto.

Estoy tratando de entender si esto es un límite infranqueable entre la optimización y el MO o no.

Решающие деревья
Решающие деревья
  • academy.yandex.ru
Обучение древесных моделей для классификации и регрессии. Эффективное построение решающих деревьев