¿Qué alimentar a la entrada de la red neuronal? Tus ideas... - página 62

 
Aleksey Nikolayev #

En el contexto de la negociación, le recuerdo también el planteamiento de fxsaber, en el que se busca una meseta, en lugar de un techo. También resulta que el problema no está claramente formalizado como un problema de optimización.

Se trata de la sección de optimización sobre minimización de una función ruidosa. Optimización de una función ruidosa o algo así, escribo de memoria.
De hecho, todo está ya inventado, si un trader hace algo de know-how, es más bien por analfabetismo.

Y Saber simplemente hizo una parada temprana de una manera banal y primitiva, y no había casi ninguna meseta allí, sino más bien sólo la paz de la mente para el alma.
 

Volviendo a la implementación técnica...

La optimización está presente a la hora de seleccionar una división en el árbol.
Existen diferentes fórmulas para ello. En el caso de la formación del árbol al 100%, esta optimización sólo determina el camino hacia el aprendizaje absoluto de los datos. No afecta a la calidad del aprendizaje, que es del 100%. El verdadero aprendizaje sólo se entiende como un aprendizaje al 100%.

Por lo tanto, aprendizaje (memorización exacta de lo que se enseña) != optimización. Pero si subentrenamos, es decir, dejamos de dividir antes de la memorización completa, podemos detenernos en diferentes variantes de este camino - entonces el modelo y la calidad del aprendizaje (grado de subentrenamiento) serán diferentes con diferentes algoritmos de selección de divisiones, diferente profundidad de aprendizaje, diferente número de ejemplos en la hoja de trabajo.
El subentrenamiento es una mala idea en el caso de enseñar datos inequívocos/exactos (tabla de multiplicar, ley de Ohm, etc.). Cuantos más ejemplos se den para memorizar/aprender, más precisa será la respuesta con nuevos datos.


Pero en la situación de los datos de mercado, para no memorizar el ruido hay que detenerse antes, evaluar y seleccionar uno de esos modelos infraaprendidos. Como resultado, resulta que la optimización y la evaluación son necesarias para los modelos infraaprendidos/no mejorados. Una base de datos perfectamente precisa no necesita evaluación, tiene todo lo que quería para entrenarse.

 

Aprender es un proceso, no un resultado.

No puede haber un 100% o un 50% de aprendizaje. No existen tales categorías.

La calidad del aprendizaje sólo se comprueba validando y comprobando cómo ha aprendido el alumno las lecciones. No se comprueba simplemente repitiendo lo que dice el profesor o leyendo sus apuntes.

La capacidad de aprender y memorizar es diferente para todos los modelos, no lo reduzcas todo a árboles y bosques.

Y aquí es donde se produce la magia, cuando el alumno (modelo) más tonto suele ser mejor predictor que el más listo. Es como en la vida. Y tiene su razón de ser.

Todo esto está escrito en la teoría del aprendizaje automático, de la que aquí nadie ha oído hablar, aunque es la base de los fundamentos.

Hay magia en el mundo del MO, pero no todas estas tonterías tuyas.
 
mytarmailS #:
Esta es una sección de optimización sobre la minimización de una función ruidosa. Optimización de una función ruidosa o algo así, escribo de memoria.
De hecho, todo ya está inventado, si un comerciante hace algunos conocimientos técnicos, es más bien por analfabetismo.

Y Saber simplemente hizo una parada temprana de una manera banal y primitiva, y no había casi ninguna meseta allí, sino más bien sólo la paz de la mente para el alma.
Un ejemplo de optimización ruidosa

Según tengo entendido, la filosofía general del enfoque es la siguiente
1. Existe un modelo que aprende el ruido de la función optimizada (es diferente en las distintas secciones) y lo predice.
2. Se calcula una cierta media del valor + ruido predicho.

3. Obtenemos una supuesta meseta, no un valor absoluto
 
Forester #:

Volviendo a la implementación técnica...

La optimización está presente a la hora de seleccionar una división en el árbol.
Existen diferentes fórmulas para ello. En el caso de la formación del árbol al 100%, esta optimización sólo determina el camino hacia el aprendizaje absoluto de los datos. No afecta a la calidad del aprendizaje, que es del 100%. El verdadero aprendizaje sólo se entiende como un aprendizaje al 100%.

Por lo tanto, aprendizaje (memorización exacta de lo que se enseña) != optimización. Pero si subentrenamos, es decir, dejamos de dividir antes de la memorización completa, podemos detenernos en diferentes variantes de este camino - entonces el modelo y la calidad del aprendizaje (grado de subentrenamiento) serán diferentes con diferentes algoritmos de selección de divisiones, diferente profundidad de aprendizaje, diferente número de ejemplos en la hoja de trabajo.
El subentrenamiento es una mala idea en caso de enseñar datos de un solo valor/exactos (tabla de multiplicar, ley de Ohm, etc.). Cuantos más ejemplos se den para memorizar/aprender, más precisa será la respuesta con datos nuevos.


Pero en la situación de los datos de mercado, para no memorizar el ruido hay que detenerse antes, evaluar y seleccionar uno de esos modelos infraaprendidos. Como resultado, resulta que la optimización y la evaluación son necesarias para los modelos infraaprendidos/no mejorados. Una base de datos perfectamente precisa no necesita evaluación, tiene todo lo que quería para entrenarse.

Amplíe la siguiente reflexión:

Asignación 1:
Existe la aritmética y una de sus operaciones es la multiplicación. Y hay números del 0 al 9. Aprende la regla de la multiplicación, haz una tabla de multiplicar multiplicando dos números entre sí y aprende la tabla de multiplicar.

Tarea 2:
Hay una tabla de multiplicar. Aquí está
...
...
...
Apréndetela.


En la segunda opción, el alumno no conoce la regla de multiplicación, pero sabe las respuestas correctas.


¿Son ambas actividades de aprendizaje?

En caso negativo, ¿cómo clasificaría (describiría) estas actividades?
 
Maxim Dmitrievsky #:

Pues no. La precisión de las respuestas con datos nuevos (y por datos nuevos entendemos datos distintos de los de entrenamiento) dependerá de las propiedades de cada modelo en particular, no del número de ejemplos de entrenamiento.

Si consideramos el caso de datos regularizados. Por ejemplo, una tabla de multiplicar. Cuantos más ejemplos se den, más precisas serán las respuestas sobre los nuevos datos.
Los nuevos datos no deben ser completamente diferentes, sino estar entre los ejemplos de entrenamiento. Es decir, la interpolación irá más o menos bien. 1 árbol dará el ejemplo de entrenamiento más cercano. Si por otros datos se entiende datos fuera de los límites de los datos de entrenamiento, esto ya es extrapolación. El árbol dará un ejemplo extremo, porque es el más cercano.


Si consideramos datos de mercado, entonces con un gran valor de ruido, cualquier pico del patrón verdadero se mezclará con picos de ruido y necesitamos elegir de alguna manera el pico verdadero y no el pico de ruido. Sus afirmaciones son correctas aquí.

 
Forester #:

Si consideramos el caso de datos con patrones. Las tablas de multiplicar, por ejemplo. Cuantos más ejemplos se den, más precisas serán las respuestas sobre los nuevos datos.
Los nuevos datos no deben ser completamente diferentes, sino estar entre los ejemplos de entrenamiento. Es decir, la interpolación irá más o menos bien. 1 árbol dará el ejemplo de entrenamiento más cercano. Si por otros datos se entiende datos fuera de los límites de los datos de entrenamiento, esto ya es extrapolación. El árbol dará el ejemplo más externo, porque es el más cercano.


Si consideramos datos de mercado, entonces con un gran valor de ruido, cualquier pico del patrón verdadero se mezclará con picos de ruido y necesitamos elegir de alguna manera el pico verdadero y no el pico de ruido. Sus afirmaciones son correctas aquí.

No sabemos nada sobre la ausencia o presencia de patrones. Sólo estamos haciendo el entrenamiento y hablando de lo mismo.

Hablamos del enfoque común y de lo que significa(magia). La magia del aprendizaje es contraintuitiva para el común de la gente porque la gente no le pilla el truco :)

Por qué es importante no sobreentrenar, por qué es importante no subentrenar. Por qué es importante reducir el número de rasgos y parámetros. etc. etc. etc.
 
Ivan Butko #:
Amplíe la siguiente reflexión:

Tarea 1:
Existe la aritmética y una de sus operaciones es la multiplicación. Y hay números del 0 al 9. Aprende la regla de la multiplicación, haz una tabla de multiplicar multiplicando dos números entre sí y aprende la tabla de multiplicar.

Tarea 2:
Existe una tabla de multiplicar. Aquí está
...
...
...
Apréndelo.


En la segunda opción, el alumno no conoce la regla de multiplicación, pero conoce las respuestas correctas.


¿Aprenden ambos?

En caso negativo, ¿cómo clasificaría (describiría) estas actividades?

Ambas son formación. En el primer caso, se enseña una norma/ley. En el segundo caso, se aprenden las respuestas del primero.
Naturalmente, enseñar reglas, fórmulas, leyes es más eficaz, porque con una pequeña fórmula se pueden obtener millones de respuestas sin memorizarlas.
Aquí en el foro había hilos sobre las leyes del mercado y los griales. A lo mejor hay una ley, pero el ruido la solapa(

 
Forester #:

Ambos son formación. En el 1er caso, se enseña una norma/ley. En el 2º caso se aprenden las respuestas del 1º caso.
Naturalmente, enseñar reglas, fórmulas, leyes es más efectivo, porque poseyendo una pequeña fórmula puedes obtener millones de respuestas sin memorizarlas.
Aquí en el foro había hilos sobre las leyes del mercado y los griales. A lo mejor hay una ley, pero el ruido la solapa(







Otra vez el ruido. Todo el mundo habla de ruido. Pero, ¿cómo podemos definir el ruido si no conocemos las reglas y las leyes? ¿Y si cada tick es un componente de reglas y leyes y el problema es la incapacidad de las arquitecturas para descifrar el "código" de un gráfico?

Parece un postulado (la idea del ruido en un gráfico de precios)

 

La formación requiere un material de formación correcto. Los MOE modernos son demasiado buenos para quejarse de ellos.

El MOE con un profesor no implica en absoluto buscar patrones dispersos en los datos. Requiere que estén presentes en cantidades significativas en la muestra de entrenamiento.