Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3317

 
Andrey Dik #:

¿Entiendo correctamente que usted piensa en el aprendizaje como encontrar la respuesta de una función sin algunos de sus miembros?

Por ejemplo, tenemos observaciones A+B+C=Y, A y B - como predictores, y C es desconocida, familiarizándonos con las respuestas (markup) en la muestra a través de la optimización seleccionamos la compensación del valor de C, que puede expresarse a través de manipulaciones, incluyendo la multiplicación por coeficientes en caso de NS, o a través de reglas mutuas. Es decir, hay una investigación activa de la función para sustituir las variables que faltan y acercarse a la respuesta correcta. Se supone que los resultados del cálculo de la función en la muestra son lo suficientemente representativos como para que el resultado pueda utilizarse en nuevos datos.

Sin embargo, en el caso de la optimización en el probador, podemos cambiar los valores de las variables (representándolas esencialmente como funciones), suponiendo que no las conocemos, o incluso saber cuáles darán más peso a nuestra función compensatoria en forma de reglas que aproximen los valores de Y.

 

Más preguntas del chatGPT.


Max, [26 Oct 2023, 18:59:31]:

¿Cómo se relaciona el Dilema Desplazamiento-Dispersión con la búsqueda de un mínimo global?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 18:59:38]:

El dilema sesgo-dispersión se refiere al problema de selección de modelos en el aprendizaje automático. Indica que a medida que aumenta la complejidad del modelo (por ejemplo, añadiendo nuevas características o aumentando el número de parámetros), se produce un aumento de la varianza (dispersión) de las predicciones del modelo, pero puede haber un sesgo (error) hacia los modelos más simples.


Por otro lado, encontrar el mínimo global se refiere a optimizar los parámetros del modelo. El objetivo es seleccionar los valores de los parámetros con los que se alcanza el valor mínimo de la función de error. Sin embargo, con un gran número de parámetros y complejidad del modelo, encontrar el mínimo global puede ser difícil o incluso imposible.


Así, el dilema sesgo-dispersión y la búsqueda de un mínimo global están relacionados en el sentido de que seleccionar un modelo demasiado complejo para un problema de aprendizaje automático puede causar un problema de sobreentrenamiento (alta varianza), mientras que utilizar un modelo demasiado simple puede causar un problema de infraentrenamiento (alto sesgo). Esto puede dificultar la búsqueda del mínimo global y conducir a resultados subóptimos. Por lo tanto, es importante encontrar un equilibrio entre la complejidad del modelo y su capacidad de generalizar los datos para lograr resultados óptimos.

 

Max, [26 Oct 2023, 19:03:50]:

El modelo óptimo debería corresponder al mínimo global en este caso, ¿o no?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 19:03:54]:

No, el modelo óptimo no se corresponde necesariamente con el mínimo global. En algunos casos, especialmente en presencia de ruido en los datos, el mínimo global puede alcanzarse reentrenando el modelo. Un modelo de este tipo puede mostrar una gran precisión en los datos de entrenamiento, pero generalizar mal los datos a nuevos ejemplos.


En cambio, el modelo óptimo debería estar cerca del mínimo global, pero con una varianza y un sesgo bajos. Un modelo así producirá predicciones estables y precisas sobre nuevos datos. Por lo tanto, a la hora de seleccionar el modelo óptimo, es importante tener en cuenta no sólo la precisión del modelo en los datos de entrenamiento, sino también su capacidad de generalización a nuevos ejemplos.

 
Aleksey Vyazmikin #:

¿He entendido bien que representas el aprendizaje como encontrar la respuesta de una función sin algunos de sus miembros?

Por ejemplo, tenemos observaciones A+B+C=Y, A y B - como predictores, y C es desconocida, familiarizándonos con las respuestas (markup) en la muestra a través de la optimización seleccionamos la compensación del valor de C, que puede expresarse a través de manipulaciones, incluyendo la multiplicación por coeficientes en caso de NS, o a través de reglas mutuas. Es decir, hay una investigación activa de la función para sustituir las variables que faltan y acercarse a la respuesta correcta. También se supone que los resultados del cálculo de la función en la muestra son suficientemente representativos, lo que permitirá utilizar el resultado en nuevos datos.

Sin embargo, en el caso de la optimización en el probador, podemos cambiar los valores de las variables (representándolas esencialmente como funciones), suponiendo que no las conocemos, o incluso saber cuáles darán más peso a nuestra función compensatoria en forma de reglas que aproximen los valores de Y.

No entiendo bien la pregunta. Por favor, aclárela.

 
Maxim Dmitrievsky chatGPT.


Max, [26 Oct 2023, 18:59:31]:

¿Cómo se relaciona el Dilema Desplazamiento-Dispersión con la búsqueda de un mínimo global?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 18:59:38]:

El dilema sesgo-dispersión se refiere al problema de selección de modelos en el aprendizaje automático. Indica que a medida que aumenta la complejidad del modelo (por ejemplo, añadiendo nuevas características o aumentando el número de parámetros), se produce un aumento de la varianza (dispersión) de las predicciones del modelo, pero puede haber un sesgo (error) hacia los modelos más simples.

¿Cómo se propone considerar la varianza (dispersión) del error en la clasificación en lugar de la regresión?

 
Maxim Dmitrievsky #:

Max, [26 Oct 2023, 19:03:50]:

El modelo óptimo debería corresponder al mínimo global en este caso, ¿o no?


ChatGPT & Midjourney | AI bot, [26 Oct 2023, 19:03:54]:

No, el modelo óptimo no se corresponde necesariamente con el mínimo global. En algunos casos, especialmente en presencia de ruido en los datos, el mínimo global puede alcanzarse reentrenando el modelo. Un modelo de este tipo puede mostrar una gran precisión en los datos de entrenamiento, pero generalizar mal los datos a nuevos ejemplos.


En cambio, el modelo óptimo debería estar cerca del mínimo global, pero con una varianza y un sesgo bajos. Un modelo así producirá predicciones estables y precisas sobre nuevos datos. Por lo tanto, a la hora de seleccionar el modelo óptimo, es importante tener en cuenta no sólo la precisión del modelo en los datos de entrenamiento, sino también su capacidad de generalización a nuevos ejemplos.

Pregúntale a GPT, ¿cuándo debes dejar de entrenar? Aún no ha respondido a esa pregunta.

 
Andrey Dik #:

No entiendo bien la pregunta. Por favor, aclárela.

Así que mis cálculos no son correctos y la respuesta es "no" - usted tiene una idea diferente del proceso.

 
Andrew, [26.10.2023 13:19]
¿qué es un criterio de parada en el entrenamiento de redes neuronales en particular y en el aprendizaje automático en general?

GPT Chat bot, [26.10.2023 13:19]
Los criterios de parada en el entrenamiento de redes neuronales y en el aprendizaje automático en general dependen de la tarea y del algoritmo de aprendizaje. Algunos criterios de parada comunes son:

1. Se puede definir un valor umbral de error por debajo del cual se considera que el modelo ha alcanzado una precisión suficiente. El entrenamiento se detiene cuando el error en el conjunto de datos de validación o en el conjunto de datos de prueba alcanza este valor.

2. Convergencia. Convergencia: Es posible detener el entrenamiento cuando el modelo deja de mejorar significativamente después de cada época de entrenamiento o después de un cierto número de iteraciones. Aquí se pueden utilizar varios criterios, como el cambio en el error entre épocas, el cambio en las ponderaciones del modelo o el cambio en los valores predichos.

3. Límite de tiempo superado: El entrenamiento se puede detener si el tiempo de entrenamiento supera un umbral determinado.

4. Detención anticipada: Una estrategia de detención anticipada permite detener el entrenamiento cuando el modelo deja de mejorar significativamente después de cada época de entrenamiento o después de un determinado número de iteraciones. 4. Detención anticipada: Se puede utilizar una estrategia de detención anticipada en la que el entrenamiento se detiene cuando el rendimiento del modelo en el conjunto de datos de validación o en el conjunto de datos de prueba comienza a deteriorarse después de un cierto número de épocas de entrenamiento.

5. Alcanzar un número máximo de épocas: El entrenamiento se puede limitar a un cierto número de épocas, después de lo cual se detiene el proceso de entrenamiento.

6. Número específico de iteraciones: En algunos casos, es posible especificar un número determinado de iteraciones tras las cuales se detendrá el entrenamiento.

7. Control de pérdidas en el conjunto de datos de entrenamiento: La ejecución del entrenamiento puede detenerse si la función de pérdida en el conjunto de datos de entrenamiento alcanza un valor determinado o deja de disminuir.

La elección del criterio de detención depende de la tarea específica, los datos disponibles y el algoritmo de entrenamiento. A menudo se recomienda utilizar una combinación de diferentes criterios para lograr los mejores resultados.

Andrei, [26.10.2023 13:23]
¿podemos decir que el aprendizaje es la esencia de la optimización, cuyo objetivo es alcanzar un extremo global?

GPT Chat bot, [26.10.2023 13:23]
Sí, podemos decir que el aprendizaje en el aprendizaje automático puede considerarse como un proceso de optimización, cuyo objetivo es alcanzar un extremo global. Entrenar un modelo se reduce a encontrar una combinación de parámetros (pesos o coeficientes) que minimice la función de pérdida o maximice la función de evaluación.

La función de pérdida es una medida de la discrepancia entre los valores predichos del modelo y los valores reales. El objetivo es encontrar valores de los parámetros del modelo en los que la función de pérdida alcance un mínimo (extremo global) para lograr la mejor capacidad predictiva del modelo.

Para actualizar los parámetros del modelo y encontrar la solución óptima se utilizan algoritmos de optimización como el descenso de gradiente estocástico, los algoritmos genéticos o la búsqueda de sistemas cargados. Estos algoritmos tratan de encontrar un extremo global o un buen extremo local de la función de pérdida para lograr el mejor rendimiento del modelo.

Así pues, el aprendizaje automático puede verse como una optimización, en la que el objetivo es encontrar una combinación de parámetros del modelo que minimice la función de pérdida y logre el mejor rendimiento del modelo.
 
Andrey Dik #:

Pregunta GPT, ¿cuándo hay que dejar de aprender? Aún no has respondido a esa pregunta.

Conozco las respuestas incluso a las preguntas que aún no se te ha ocurrido hacer. Sigue así. Cuando seas constructivo, hablaremos.