Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2644

 
mytarmailS #:

Vamos a publicar algunas investigaciones, algunas ideas.

Estoy pensando en la posibilidad de combinar mi idea con la del algoritmo PRIM. No tengo mucho de lo que presumir.

 
mytarmailS #:

Vamos a publicar algunas investigaciones, ideas...

Ya hay un artículo sobre clustering :) aunque es inútil.

Tengo algunas ideas sobre cómo hacer uno sensato, pero aún no lo he hecho. Y he perdido todas las fuentes

Los pros ya han expresado - estable en los nuevos datos. En el lado negativo - las marcas son mediocres. Pero es posible exprimir algún compromiso.
 
secret grial ya hecho, como respuesta empezarán a explicarle al autor lo tonto que es).
Ahahahaha... Es verdad.
 
Aleksey Nikolayev #:

Estoy pensando en la posibilidad de combinar mi idea con la del algoritmo PRIM. No tengo mucho de lo que presumir.

¿Cuál es la frescura de Prim en comparación con otros que aún no he entendido
 
Maxim Dmitrievsky #:
Ya existe un artículo sobre clustering :) aunque es inútil.

Hay algunas ideas sobre cómo hacer uno sensato, pero aún no lo he hecho. Y he perdido todas las fuentes.

Los pros ya han expresado - estable en los nuevos datos. En el lado negativo - las marcas son mediocres. Pero usted puede exprimir algún compromiso.
Si encuentra clusters en los que una etiqueta de clase domina fuertemente sobre el otro, entonces tal cluster conserva estadísticas sobre nuevos datos en contraste con cualquier formación. Con un profesor.
Intente encontrar un conglomerado así, se llevará una grata sorpresa.
 
mytarmailS #:
Cuál es la frescura de Prim en comparación con otros, todavía no entiendo

Me pareció adecuado como base para un algoritmo de selección de una región de trabajo en un conjunto de predictores. A grandes rasgos, construyo aproximaciones iniciales para regiones cúbicas basadas en mi idea, y luego intento ajustarlas más finamente.

En fin, optimizar sólo para obtener beneficios, lo que lleva a intentar mejorar el sistema aumentando artificialmente los falsos negativos.

No existe una teoría rigurosa y apenas es posible.

 
Aleksey Nikolayev #:

Me pareció adecuado como base de un algoritmo para seleccionar una región de trabajo en un conjunto de predictores. A grandes rasgos, basándome en mi idea, construyo aproximaciones iniciales para regiones cúbicas y luego intento ajustarlas más finamente.

Pues bien, sólo optimizo en función del beneficio, lo que lleva a intentar mejorar el sistema aumentando artificialmente los casos de falsos negativos.

No existe una teoría rigurosa y es poco probable que sea posible.

No entiendo...
Si te limitas a entrenar el Random Forest y elegir de él las mejores reglas según el criterio necesario, ¿cuál es la diferencia?
La regla ya es un caso especial de alguna situación y estos cubos ya son tenidos en cuenta por la regla.
 
mytarmailS #:
No lo entiendo...
Si simplemente entrenas un Bosque Aleatorio y seleccionas de él las mejores reglas según el criterio requerido, ¿cuál es la diferencia?
La regla ya es un caso especial de alguna situación y estos cubos ya son tenidos en cuenta por la regla.

Puede que sea así. Pero parece un enfoque más interpretable para la comparación/selección de características y la optimización de metaparámetros.

 
Aleksey Nikolayev #:

Puede que así sea. Pero parece un enfoque más interpretable para la comparación/selección de características y la optimización de metaparámetros.

¿Qué ha pasado con las reglas asociativas?
 
mytarmailS #:
¿Qué pasa con las normas asociativas que no funcionaron?

En general, la idea está clara. En cualquier caso, primero tenemos que pensar en un algoritmo para particionar un conjunto continuo de predictores en elementos discretos a partir de los cuales se formen las reglas. Si esos buenos predictores y su buena partición existen realmente y se encuentran, el resto es cuestión de técnica.