¿Cómo se trabaja con las redes neuronales? - página 6

 
LeoV:


Para ser honesto, no entiendo realmente su punto.

La idea es sencilla:

Supongamos que tenemos dos CTs:

1. En el rebote del canal, es decir, contrendencia. Obtiene beneficios dentro del canal, y pierde en la ruptura.

2. Romper el canal - tendencia. Entra en las tendencias largas, pierde en las laterales.

Si el gráfico está invertido alrededor del eje horizontal, entonces ambos CTs se comportarán de la misma manera, es decir, el de tendencia obtendrá beneficios bajo una tendencia bajista aunque el gráfico normal para el que se ajustó estuviera dominado por una tendencia alcista.

En realidad, la parrilla debería comportarse de forma simétrica, es decir, si se ha entrenado para una tendencia alcista, también debería "ganar" en una tendencia bajista. Si no puede hacerlo y, por ejemplo, "gana" sólo en la tendencia alcista, entonces es peor que la citada TS primitiva, porque empezará a perder tanto en la tendencia bajista como en la lateral.

Es decir, al entrenar la red necesita descargar no sólo una muestra de ejemplos del PA analizado, sino todos los ejemplos en la forma invertida.

Por ejemplo:

Supongamos que hay unos dos ejemplos de formación en la muestra de formación. (entradas y salidas de -1 a +1):

0,35 -0,21 0,8 -0,51 -0,71

0,71 0,1 -0,21 -0,96 0,12


Donde: Del primer al penúltimo valor - entradas, por ejemplo, valores normalizados de (RSI - 50,0) / 50,0 u otro oscilador. El último valor es lo que queremos que sea la salida. En consecuencia, para obtener una formación simétrica, cada uno de estos ejemplos debe invertirse, es decir, la muestra de formación debe duplicarse:


0,71 0,1 -0,21 -0,96 0,12

-0,35 0,21 -0,8 0,51 0,71

-0,71 -0,1 0,21 0,96 -0,12

0,35 -0,21 0,8 -0,51 -0,71

 
Reshetov:
No lo siento. Ver GRNN-GA.

¿Y qué? ¿Se ha sustituido la red neuronal por un algoritmo genético?

¿Qué dice exactamente este enlace? ¿De qué se trata?

¿Puedo obtener un presupuesto... para los que no entienden?

 
http://forecast-man.com/ aquí hay otra biblioteca de NS sobre lógica difusa, me encantaría escuchar comentarios pero probablemente no mucha gente ha oído hablar de ella...
 
LeoV:

La solución de este problema es simple - usted necesita para entrenar la red en un intervalo de tiempo tal, en el que todos los tipos de movimiento están presentes. Tanto a nivel lateral, como al alza y a la baja. Por supuesto, hay que darse cuenta de que si la red sólo se entrena en la parte superior, fallará en la parte inferior ))))


Todo correctamente dicho... ¿Pero qué pasa con el cambio de tendencia? No tuve mucho éxito... uno bueno, luego no tan bueno...

ps.pero si hay entradas normales para el profesor (es decir - hay algo que encontrar en las entradas) - no importa - rejilla (cualquier estructura), mapas koh, ha, k-método, etc..... todo funcionará...

 
Vizard:



ps.pero si hay entradas normales para el profesor (es decir - hay algo que encontrar en las entradas) - entonces no importa - una cuadrícula (cualquier estructura), mapas koh, ha, k-método, etc..... todo funcionará...

Hay que tomar como axioma que no hay entradas normales en la PA. El gato tiene que saber cocinar. Ver Predicción de series temporales financieras
 
Swetten:

¿Y qué? ¿Se ha sustituido la red neuronal por un algoritmo genético?

¿Qué dice exactamente este enlace? ¿De qué se trata?

¿Puedo obtener un presupuesto... para los que no entienden?

La cuestión es que por redes neuronales se entienden varios algoritmos, incluidos los de regresión, genéticos, etc. Se hace referencia a la GRNN-GA como ejemplo, porque en realidad puede llamarse red neuronal sólo porque utiliza coeficientes de ponderación, un motor de búsqueda de ejemplos relevantes por consulta en la base de datos.
 
Reshetov:
La cuestión es que por redes neuronales se entienden varios algoritmos, incluidos los de regresión, genéticos, etc. Se hace referencia a GRNN-GA como ejemplo, porque de hecho puede llamarse incluso red neuronal sólo porque se utilizan coeficientes de ponderación, un motor de búsqueda de ejemplos relevantes por consulta en la base de datos.

Permítanme que les recuerde la afirmación original: NS y GA son cosas completamente diferentes, sin relación alguna entre sí.

Uno no se transforma en el otro de ninguna manera.

¿Vas a discutir?

 

discutir sobre métodos, algoritmos (rejillas, ga, etc...) para buscar señales por condición (profesor) es interminable... así como sobre la preparación de la vr... el punto es diferente... mientras se mantenga la dinámica general, todo está bien... si la dinámica cambia, es un drenaje....

 
Vizard: Lo has dicho bien... ¿Y qué hay de cambiar la dinámica?

No se trata de la dinámica. La dinámica puede ser cualquier cosa, siempre que los patrones que la red encontró durante el periodo de entrenamiento funcionen en el futuro. Ese es el problema -.....))
 
Reshetov:

La idea es sencilla:

Supongamos que tenemos dos CTs:

1. En el rebote del canal, es decir, en la tendencia contraria. Gana en el canal, y pierde en una avería.

2. Romper el canal - tendencia. Obtiene beneficios dentro de las tendencias largas, pierde pérdidas dentro de las laterales.



El único problema es cómo determinar la siguiente fase del mercado y cuánto durará.......