Uso de la inteligencia artificial en MTS - página 21

 
Mak:
En mi opinión, no vale la pena andar por las redes :)

Aprender NS es, en realidad, optimizar una función con un enorme número de parámetros (cientos y miles).
No sé qué hacer para evitar el sobreentrenamiento en este caso,
La única solución es tomar una muestra de entrenamiento de 1 a 100 millones de muestras.
Pero no hay garantía...
¿Entonces entiendes "sobreentrenamiento" como "subentrenamiento"? me parece que son antónimos =) acláralo por favor.
 
Mejores mallas clasificadoras que mallas interpoladoras.
No he leído nada de eso, por favor explica la diferencia entre ellos, si puedes, pon un ejemplo de cómo funciona cada uno, puedes usar términos comunes =)
 
Mak:
Aleksey24:

Pregunta para los matemáticos:

¿La idea de aplicar una distribución normal multivariante de los parámetros a optimizar es igual al principio de las redes neuronales?

Por favor, explíquelo claramente.

Es una pregunta extraña.
Explica la pregunta.


EXPLICA:

Ahora pienso que no hay que operar con parámetros específicos ajustados, sino con el espectro de cada parámetro en el sistema.
La forma más fácil es poner varios EAs idénticos, pero con diferentes conjuntos de parámetros - en diferentes rangos del espectro de parámetros.
A cada uno de estos Asesores Expertos se le debe asignar un determinado % del depósito, pero todos ellos deben ser iguales al valor del porcentaje del depósito, cuando se opera con un solo Asesor Experto (sin espectro).
Entonces, si en las medias móviles tres Asesores Expertos abren tres posiciones, respectivamente al principio del movimiento en el medio y al final.

Todavía no puedo decidir cómo usar esta idea en un EA para probarlo.

He preguntado a Posh sobre este problema pero todavía no hay respuesta.

La tarea de la distribución normal multivariante (gaussiana) y las redes neuronales de tipo aX+bY+...=Z son las mismas (para el trading), o estoy confundido y con la cabeza en blanco?
 
Aleksey24:
Mak:
Aleksey24:

Pregunta para los matemáticos:

¿La idea de aplicar una distribución normal multivariante de los parámetros a optimizar es igual al principio de las redes neuronales?

Por favor, explíquelo claramente.

Es una pregunta extraña.
Explica la pregunta.


EXPLICA:

Ahora pienso que es necesario operar no con parámetros específicos ajustados, sino con el espectro de cada parámetro en el sistema.
Lo más fácil es poner varios EAs idénticos, pero con diferentes conjuntos de parámetros - en diferentes rangos del espectro de parámetros.
A cada uno de estos Asesores Expertos se le debe asignar un determinado % del depósito, pero todos ellos deben ser iguales al valor del porcentaje del depósito, cuando se opera con un solo Asesor Experto (sin espectro).
Entonces, si en las medias móviles tres Asesores Expertos abren tres posiciones, respectivamente al principio del movimiento en el medio y al final.

Todavía no puedo decidir cómo usar esta idea en un EA para probarlo.

He preguntado a Posh sobre este problema pero todavía no hay respuesta.

La tarea de la distribución normal multivariante (gaussiana) y las redes neuronales de tipo aX+bY+...=Z son las mismas (para el trading), o me he confundido y tengo la cabeza confusa?
¡Estás hablando de algo complicado con los espectros! Aquí están los recursos sobre el tema de la RNA que utilicé para estudiar:
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1%81%D0%B5%D1%82%D0%B8 - hay una wiki que da las líneas generales.
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html - hay un documento sobre la RNA, y en medio del documento hay una discusión de dónde viene y de qué se trata, con diagramas y fórmulas.
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943 - este es un enlace a "Fundamentals of Artificial Neural Networks", un buen sitio, hay todo un "árbol" sobre el tema de las RNAs - no sólo lo que escribí.
 
Gracias por los enlaces, lo investigaré.
Pero sobre los "espectros", te equivocas.
No soy un proFessor, por supuesto - pero hay un punto racional allí.
 
Amigos, nadie me ha contestado, ¿es necesario pensar en el algoritmo del olvido, o es, al fin y al cabo, una propiedad natural de la RNA?
 
lucifuge:
Amigos, nadie me ha contestado, ¿es necesario pensar en el algoritmo del olvido, o es, al fin y al cabo, una propiedad natural de la RNA?

Si se limita el entrenamiento a un número finito de compases (o no compases, lo que sea), el olvido será un proceso natural. El mercado está cambiando, y lo que funcionaba hace cinco años puede no funcionar ahora. Pero ya han surgido nuevas condiciones, y si no se enseñan, pasarán de largo.
Cada uno debe decidir.
 
Mathemat:
Mak, claramente estás exagerando algo. En lugar de superarlo en cientos o miles de veces, como dices, según la teoría de la RNA con 10 es suficiente. Y los criterios de reentrenamiento (ajuste) son conocidos: se trata de un error mínimo global en la zona de pruebas.

Otra cosa es la arquitectura de la red. Mejores mallas clasificadoras que mallas interpoladoras.
Tal vez, soy un escéptico en cuanto a la NS.
Pues sí, en estadística se cree que se pueden sacar algunas conclusiones si el número de muestras es 10 veces el número de parámetros desconocidos. Pero los errores al hacerlo están en el límite de lo razonable.

Pero deberías estar de acuerdo en que el NS es esencialmente una función de algún tipo de vector de entradas y un conjunto de pesos.
Este conjunto de pesos contiene desde cientos (en los casos más sencillos) hasta decenas y cientos de miles de parámetros (pesos).
El aprendizaje de NS no es otra cosa que la optimización de esta función por estos cientos - cientos de miles de parámetros.
Todo el mundo sabe lo que ocurre en estos casos.
Por eso soy un escéptico...
 
lucifuge:
Mak:
En mi opinión, no vale la pena cocinar al vapor con las redes :)

Aprender NS es en realidad optimizar una función con un enorme número de parámetros (cientos y miles).
No sé qué hacer para evitar el sobreentrenamiento en este caso,
La única solución es tomar una muestra de entrenamiento de 1 a 100 millones de muestras.
Pero no hay garantía...
¿Así que entiendes "sobreentrenamiento" como "subentrenamiento"? Creo que son antónimos =) Por favor, acláralo.
Por sobreentrenamiento me refiero a lo que se llama CurveFitting.
Se produce cuando hay muchos parámetros de optimización y pocos datos.
 
Mak:
lucifugo:
Mak:
En mi opinión, no vale la pena andar con redes :)

Aprender NS es en realidad optimizar una función con un enorme número de parámetros (cientos y miles).
No sé qué hacer para evitar el sobreentrenamiento en este caso,
La mejor solución es obtener una muestra de entrenamiento de 1 a 100 millones de muestras.
Pero no hay garantía...
¿Así que quieres decir "sobreentrenado" como "subentrenado"? Son antónimos =) acláralo, por favor.
Por sobreentrenamiento me refiero a lo que se llama CurveFitting.
Se produce cuando hay muchos parámetros de optimización y pocos datos.

Pero esto plantea la cuestión del tamaño de la red. Lo que una red puede almacenar depende de su tamaño y arquitectura. Si se establecen demasiadas muestras a entrenar que la red no puede recordar, se producirá el efecto de sobreaprendizaje: la red dejará de reconocer lo que sabe.