Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3298

 
Andrey Dik #:

Sigues confundiendo el concepto de "extremo" con el de "pico agudo" (el punto en el que una función no tiene derivada).

Incluso una superficie plana tiene un extremo.

Otra cosa es que las FFs siempre intentan elegir de forma que la superficie de la FF sea lo más plana posible y el extremum global sea el único. El único extremo global debe ser la única solución inequívoca del problema.

Si el extremo global de la FF no es el único, y más aún si no tiene una derivada, significa una elección incorrecta de la FF (el criterio para la evaluación del modelo). La incomprensión de esto lleva al término "sobreajuste", la incomprensión de esto lleva a buscar algún extremo local ambiguo.

Podemos establecer una analogía: un especialista -un médico- recibe formación, se elaboran exámenes de cualificación (FF) para la certificación, para un médico no puede existir el concepto de "sobreentrenado" o "sobreajustado", si un médico no obtiene la máxima puntuación - significa que está infraentrenado. Y según usted, un buen médico debería ser siempre un no-científico infraformado.

Una vez más, el problema del "sobreentrenamiento" es la elección equivocada de los criterios de evaluación del modelo. Parece que en el foro hay expertos tan chulos, pero repiten los mismos errores una y otra vez. Desarrollar criterios de estimación correctos no es menos importante que seleccionar predictores, de lo contrario es sencillamente imposible estimar adecuadamente el modelo.

Preveo un aluvión de objeciones, no pasa nada, estoy acostumbrado. Si a alguien le va a ser útil - estupendo, y a los que no les va a ser útil - da igual, así que piensan que está bien como está.

El sobreajuste de modelos no tiene NADA que ver con la optimización.

El modelo ideal de sobreajuste de una cita es la propia cita. Como en cualquier otro caso de construcción de modelos: no hay optimización, la estimación de tal modelo es degenerada, etc.

Usted no entiende el significado de la palabra "modelo". Por ejemplo, un modelo de la Ley de Gravitación Universal de Newton. Algo ideal, aplicable en unas condiciones ideales: vacío, ningún otro cuerpo en el universo. Sin embargo, permite hacer muchos cálculos con suficiente precisión para la práctica.

Y todo el problema de construir un modelo es encontrar uno cuyo error con los datos reales nos convenga. Hay que entender que el error que veamos no será necesariamente en el futuro, sino que estará en algún intervalo de confianza. Por lo tanto, buscamos un modelo con un error dentro del intervalo aceptable en la práctica. No necesitamos extremos.

 
Forester #:

150.000 millones de neuronas, no sólo una salida por neurona, sino muchas. La IA no alcanzará este nivel de inteligencia en mucho tiempo o nunca.
NS se compara por el nivel de inteligencia a una cucaracha - corre, muerde - huye.

Si se multiplica por varios miles de millones de individuos de la humanidad, la civilización actual demuestra que a partir de una cantidad superpequeña de datos es posible plantear hipótesis, que pueden predecir con exactitud muchos fenómenos observados e incluso recrear fenómenos no observados.

 
Maxim Dmitrievsky #:
Aprendizaje único. Cuando un gran NS preentrenado (cerebro) se preentrena en datos de la izquierda con sólo unos pocos ejemplos. Si el modelo ha aprendido inicialmente las leyes del mundo, hace clic fácilmente en una nueva tarea con un simple vistazo.

Así es como se preentrenan los grandes modelos lingüísticos, en particular, para nuevas tareas. Pero si le obligas a aprender estos nuevos ejemplos durante mucho tiempo, empezará a olvidar la experiencia previa y se volverá parcial hacia los nuevos datos.
Sería interesante trazar un gráfico: la calidad de One-shot-learning frente a la edad del cachorro.
 

Bueno.... árboles tienen optimización. Para seleccionar la mejor división. Se comprueban todas las columnas/atributos, se realizan diferentes divisiones y se utiliza la que tenga el valor mínimo de impureza de clase para la clasificación o la máxima precisión para la regresión.
En el caso de los bosques aleatorios, aquí termina todo. Entonces nos limitamos a promediar el resultado de un conjunto de árboles que reciben aleatoriamente, por ejemplo, el 50% de las características.
En el bousting, cada árbol subsiguiente aprende el error de la suma de los árboles anteriores y minimiza este error.

Pero todo esto se oculta al usuario bajo el capó y no tiene sentido hablar de ello. No es como la optimización que hacemos en el probador buscando valores de algunos parámetros que cambian los signos o los maestros para el modelo (por ejemplo, seleccionando TP/SL).

 
Maxim Dmitrievsky #:
Los signos no son conocimiento.

¿Qué crees que son los signos? Cálmate.
¿Y qué es el conocimiento?

Hoy has dicho que la optimización no tiene nada que ver con el modus operandi, luego has admitido que sí.
Espera, ahora estamos llegando al punto en que los signos son conocimiento.
 
fxsaber #:
Sería interesante trazar un gráfico: la calidad del aprendizaje One-shot a partir de la edad del cachorro.

Lo más probable es que el cerebro de las SN esté muy influenciado por el entorno (y lo digital), especialmente durante el periodo más rápido de formación de las SN: la primera infancia.

Sería interesante comparar estas NS de la misma edad en diferentes tareas, una NS - gadget desde los 2-3 años, la otra - sin gadget.

Es decir, entender qué tipo de desarrollo de las SN afecta positiva o negativamente a la solución de determinadas tareas.


Tal vez la invención reflexiva de CT tenga menos éxito que el pensamiento superficial de clip.

 
Andrey Dik #:

¿Qué crees que son las señales? Tranquilicémonos.
¿Y qué es el conocimiento?

Hoy has dicho que la optimización no tiene nada que ver con el modus operandi, luego has admitido que sí.
Espera, ahora estamos llegando al punto en que los signos son conocimiento.
¿Dónde dije que la optimización no tiene nada que ver con la OI?

Por favor, ven sin mí.
 
Maxim Dmitrievsky #:
¿Dónde he dicho que la optimización no tenga nada que ver con el Ministerio de Defensa?

Por favor, ven sin mí.

Lo sabía.
Vuelve a leer lo que has dicho.
 
Andrey Dik #:

Lo sabía.
Vuelve a leer lo que has dicho.

Vuelve a buscar dónde he dicho eso si lo vas a decir.

O deja de decir gilipolleces.
 
Maxim Dmitrievsky #:
Hay una sustitución constante de conceptos, es imposible comunicarse.

.