Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1615

 
Aleksey Vyazmikin:

No se trata de la contracción, sino de las estadísticas del comportamiento del predictor en una muestra fuera de una división - esto debería reducir la aleatoriedad de la selección de un valor de predictor.

Por cierto, ¿AlgLib hace la cuadrícula en cada división o una vez y luego utiliza esa cuadrícula? Según tengo entendido, los desarrolladores de CatBoost afirman, que la rejilla se hace sólo una vez por ellos.

No existe el azar. Se selecciona la mejor partición disponible de cada predictor. Hay aleatoriedad en el bosque, cuando cada árbol se alimenta no de todos los predictores, sino por ejemplo de la mitad de los seleccionados al azar.

Aprende una vez. No hay reciclaje. En el caso de los árboles/bosques, parece que no hay ningún tipo de reaprendizaje, probablemente porque es bastante rápido reaprender.
¿Y por qué la red? Los árboles tienen nodos y hojas.

 
elibrarius:
Por cierto, lo que no me gusta de los boostings es que la profundidad del árbol recomendada es de 7 a 10.
Es decir, si tenemos 100 predictores y la división allí también comienza en la mitad de cada predictor. Es muy probable que tengamos 7 predictores diferentes divididos por la mitad. Tal vez 1 o 2 se dividan a un cuarto, difícilmente más pequeño.
¿O en los algoritmos de refuerzo el algoritmo no funciona por medio de la división, sino en trozos más pequeños? ¿Alguien lo sabe?
¿Y quién utiliza qué profundidad de árbol?


 
Maxim Dmitrievsky:


47 minutos es una pena... para escuchar lo básico, que en su mayoría es conocido. Sólo hay una cuestión concreta que interesa. Si lo sabes, dímelo)

 
elibrarius:

47 minutos es una pena... para escuchar lo básico, que en su mayoría es conocido. Sólo hay una cuestión concreta que interesa. Si lo sabes, dímelo.

Todos están construidos de forma diferente, hay que leer el manual de cada uno.

no importa si tienes características informativas que son relevantes para el objetivo, entonces cualquier método funciona

Estaba comparando el bosque con la potenciación en características similares. El refuerzo tiene menos sobreajuste, en general +-

 
Maxim Dmitrievsky:

todos están construidos de manera diferente, usted tiene que leer la ayuda para cada

no importa si hay características informativas que son relevantes para el objetivo, entonces cualquier método funciona

Estaba comparando el bosque con la potenciación en características similares. El refuerzo tiene menos sobreajuste, en general +-

¿A qué profundidad has ajustado el refuerzo?
 
Maxim Dmitrievsky:

todos están construidos de manera diferente, usted tiene que leer la ayuda para cada

no importa si hay características informativas que son relevantes para el objetivo, entonces cualquier método funciona

Estaba comparando el bosque con la potenciación en características similares. El refuerzo tiene menos sobreajuste, en general +-

Eso es lo que quiero decir. Si los insumos son adecuados, cualquier método funcionará. Eso es lo que quería comprobar porque mis entradas son realmente buenas. Pero sólo el optimizador de Reshetov lo demuestra, y como comprenderás un experto no es suficiente para hacer una valoración subjetiva. No se trata del método, cada uno de los métodos sólo requiere un cierto número de características (Max, es la primera vez que utilizo esta palabra por ti) alguien necesita muchas, otro pocas, pero en general, si los datos de entrada explican la variable de salida, entonces cualquier método funcionará. Y creo que los resultados serán similares. Me gustaría poder utilizar mis entradas en otros sistemas que no sean Reshetov. Hay que ir al foro de programadores, no sé dónde ir :-(.
 
elibrarius:
¿Qué profundidad has establecido para el refuerzo?

2 a 10, cuanto mayor sea la profundidad, mayor será el ajuste

óptimamente 3-7

También se puede cambiar el paso del gradiente. En general, no importa, los resultados son menos dispersión, menos desplazamiento, menos señales, etc. y se conserva la imagen media. Es una cuestión de optimización, no tiene nada que ver con la calidad.


 
Max, sinceramente, gracias por el vídeo sobre la neurona natural, pero este vídeo no es muy bueno. El caso es que tengo una teoría de la reconversión que llevo mucho tiempo pensando y que he construido de forma bastante adecuada para mí. Estoy seguro de que el personal de Yandex estará interesado en escucharlo. Eh... Me gustaría encontrar la fuerza para grabar un vídeo. Siempre estoy borracho o divertido. No lo sé :-(
 
Mihail Marchukajtes:
Max, quiero agradecerte el video sobre la neurona natural, pero este video no es tan bueno. La cuestión es que tengo una teoría de la reconversión a la que le he dado vueltas durante mucho tiempo y la he construido de forma bastante adecuada para mí. Estoy seguro de que el personal de Yandex estará interesado en escucharlo. Eh... Me gustaría encontrar la fuerza para grabar un vídeo. Siempre estoy borracho o divertido. No lo sé :-(

))) las regularidades deben buscarse a través del análisis estadístico en lugar de torturar a las neuronas

Por ejemplo, en mi penúltimo artículo di las fluctuaciones estacionales del EURUSD durante 10 años, por meses. Este año todo se repite. Abril-mayo será lo más interesante (a corto plazo)
 
Maxim Dmitrievsky:

)) las regularidades deben buscarse a través del análisis estadístico, no torturando a las neuronas

Eso es lo que quiero decir. Antes de molestar a JPrediction dejo sólo 150 piezas de 6000 mil columnas, que son estadísticamente significativas, y sólo entonces busco esa notoria ley que describe la salida. El número de columnas debe ser el doble del número de filas de la tabla, en teoría, para que el algoritmo tenga suficientes datos entre los que elegir. Como resultado, el optimizador deja entre 5 y 10 piezas de las 150 sugeridas por mí para formar el modelo final.