Red neuronal - página 10

 
Mucha gente discute que la red busque y aprenda reglas a partir de una variedad de reglas de entrada que funcionen para obtener beneficios...... Yo tengo otra pregunta....¿Es posible, o mejor dicho, cómo enseñar a la red a trabajar con reglas ya hechas? ......Miremos el sistema de canales......No importa cómo o bajo qué circunstancias se construye el canal. Cómo enseñar a una red a trabajar dentro de un canal o en su paso por ?????? Bueno las mentes de las redes neuronales......¿Qué puede sugerir sobre esto? Por ejemplo, una red sin profesor.....Rekur. ¿Cómo preparar las entradas para que la red entienda lo que se le pide? si originalmente tiene un canal que cambia con el tiempo........
 
nikelodeon >>:
Многие рассуждают о том чтобы сеть искала и учила правила, из многообразия правил входов, которые будут работать на прибыль......У меня другой вопрос....Возможноли, вернее, как научить сеть работать по готовым правилам?......Возмём канальную систему......Неважно как и при каких обстоятельствах строится канал. Как научить сеть работать внутрь канала или на его пробитии?????? Ну нейросетевые умы......что можете предложить по этому поводу?. Взять хотябы сеть без учителя.....Рекур, например. Как подготовить входы так, чтоб сеть поняла что от неё требуеться? если изначально имееться меняющийся со временем канал........

Si tenemos reglas ya hechas, ¿para qué demonios necesitamos una red neuronal?

La pregunta es retórica, no es necesario responder.

 

Añadiendo una entrada, en forma de demoledor, se puede aumentar la rentabilidad del sistema..... La red calculará qué avances son falsos o verdaderos, algo así.......

 
nikelodeon писал(а) >>

Añadiendo una entrada, en forma de demoledor, se puede aumentar la rentabilidad del sistema...... La red calculará qué averías son falsas y cuáles son verdaderas, algo así.......

Parece que sobrestimas las capacidades de las redes neuronales.

A su mensaje del 09.08.2009 21:00.

Una red por sí misma no puede buscar nada. Sólo puede revelar algunas regularidades (vínculos entre entradas y salidas; entonces es posible utilizar el "conocimiento" acumulado para calcular las salidas en una situación en la que la red no ha sido entrenada directamente). Es decir, la búsqueda de patrones sólo es posible si y cuando existen.

Ahora a tu post de 09.08.2009 21:56.

Si conoces las regularidades de la penetración de los canales (tu ejemplo), ¿por qué utilizar una red neuronal cuando puedes implementarlas más fácilmente? Las redes neuronales son un enfoque generalizado; no tiene sentido utilizar uno generalizado cuando un caso particular es increíblemente sencillo. Las AM también pueden introducirse en el reglamento. Tiene que haber una correlación entre el comportamiento de la MA y las rupturas del canal (y tiene que ser capaz de expresar esa correlación). Las redes neuronales no hacen milagros por sí mismas.

p.s. Así que voy a responder a tu pregunta: "¿Es posible, o mejor dicho, cómo enseñar a una red a trabajar con reglas ya hechas?" Sí, es posible, si tienes conocimientos de las matemáticas utilizadas en las redes neuronales. Por cierto, una red neuronal recurrente no es el mejor ejemplo. Tomemos algo más simple (perceptrón multicapa sin retroalimentación) - se hace allí sin problemas.

 
Buenas tardes a todos los presentes en este hilo. Me gustaría hacer una pregunta a la gente que sabe de NS. Soy un perdedor total. Recientemente he creado en MQL-4 una red de retrodifusión con una capa oculta. Lo alimento con cotizaciones delta. Normalizo las entradas y salidas de las capas de la red utilizando sigmoide-0,5. Enseño la dirección del movimiento del precio hasta que un error en una muestra de prueba deja de disminuir. He detectado un par de cosas desagradables: 1. Por alguna razón, la red sólo da 2 variantes de salida. Así, es imposible distinguir las señales débiles de las fuertes. ¿Es una peculiaridad de la red de 3 capas? ¿Tal vez deberíamos aumentar el número de capas? 2. El error RMS es tanto menor cuanto más cerca estén los umbrales de salida superior e inferior. Cuando los umbrales son iguales, la lectura es de al menos 0,22. ¿Es esto normal?
 
¿Qué le estás enseñando? Si le enseñas dos "opciones de salida" - hacia arriba y hacia abajo, según entiendo, entonces las aprenderá. Si se hacen varias neuronas en la salida, es decir, se aumenta el número de clases, por ejemplo, operaciones fuertes, débiles y una plana, se puede obtener una predicción más detallada. Una capa oculta es suficiente. ¿Cuáles son los umbrales? El peso de sesgo no se fija externamente, sino que se entrena de la misma manera que los otros pesos. Si la función de activación es sigmoidal, ¿por qué necesitamos umbrales? ¿Has probado sin umbrales?
 

ver un ejemplo de las entradas que recibe una red neuronal. http://www.nnea.net/research/18-neural-network-forecast-indicator



 

No pude encontrar ninguna entrada allí...

 
Burgunsky писал(а) >>
He descubierto un par de cosas desagradables: 1. La red, por alguna razón, sólo da 2 opciones de salida. Así, parece imposible separar las señales débiles de las fuertes. ¿Es una peculiaridad de la red de 3 capas? ¿Tal vez sea necesario aumentar el número de capas? 2. El error RMS es tanto menor cuanto más cerca estén los umbrales de salida superior e inferior. Cuando los umbrales son iguales, la lectura es de al menos 0,22. ¿Es esto normal?

No, no es una característica de las redes de 3 capas, la señal en la salida de la red es una función continua. Tal vez ya tenga incorporado algún tipo de clasificador a la salida de la rejilla que dé la señal final, por ejemplo, si la salida de la rejilla es mayor que 0,5 entonces 1, menos que 0, o si la salida de la rejilla es mayor que 0,5 entonces 1, menos que -1.

Sobre los umbrales, aún no entiendo, deberías describir detalladamente todo lo que tienes en tu algoritmo y cómo está construido, entonces será posible pensar en las preguntas que haces...

 
Swetten писал(а) >>

No puedo encontrar ninguna entrada allí...

Yo tampoco... Sólo podemos suponer que se trata del número de casillas en las que ha bajado el precio, quizá alguna otra condición adicional...

Quizás MeteQuotes no vio la publicidad del descompilador...