"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 36

 
TheXpert:

EMNIP, el cognitrón representa algo similar.

Esperando la continuación :)

Lo mismo que el cognitrón de Fukishima. El HMAX y el cognitrón describen la funcionalidad de las diferentes capas del córtex visual con bastante precisión.
 
TheXpert:

Necesitamos información sobre

-Descenso por gradiente conjugado

-BFGS

En mi tiempo he estudiado en detalle casi todos los métodos de entrenamiento de redes de propagación directa. Estoy seguro de que el método Levenberg-Marcadt es el mejor(https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm) de los descensos por gradiente. Siempre encuentra mejores mínimos que todo tipo de BACKPROPs y RPROPs e incluso más rápido. Lo que he publicado en BPNN (una especie de RPROP) es un juego de niños comparado con LM. El BFGS requiere más tiempo y el resultado no es mejor que el LM.
Levenberg–Marquardt algorithm - Wikipedia, the free encyclopedia
Levenberg–Marquardt algorithm - Wikipedia, the free encyclopedia
  • en.wikipedia.org
The LMA interpolates between the Gauss–Newton algorithm (GNA) and the method of gradient descent. The LMA is more robust than the GNA, which means that in many cases it finds a solution even if it starts very far off the final minimum. For well-behaved functions and reasonable starting parameters, the LMA tends to be a bit slower than the GNA...
 

A continuación, trataré de presentar mi idea de construir redes neuronales para el análisis de patrones de precios. Los que hayan leído mis conferencias 2 y 3 lo entenderán inmediatamente. La idea es clasificar los patrones de precios en Comprar, Vender o Mantener. El precio en un determinado periodo de tiempo (digamos 100 barras) es filtrado por una capa de neuronas simples S1. Los pesos de entrada de estas neuronas describen las características del impulso de los filtros. En el ejemplo de la corteza visual, estas ponderaciones describían segmentos rectos de diferente pendiente y longitud en el espacio bidimensional de la imagen. En las cotizaciones también tenemos un espacio bidimensional: el tiempo y el precio. Podemos suponer que los pesos del filtro S1 describen dos segmentos rectos en el espacio tiempo-precio: hacia arriba y hacia abajo. El ángulo de inclinación depende de la longitud de cada filtro. Estas longitudes pueden ser preseleccionadas, por ejemplo, 4, 8, 16, 32 barras. Cada filtro es una línea recta, normalizada de manera que la suma de todos los valores sea cero y la suma de los cuadrados sea 1 (u otra normalización). En la siguiente capa, llamémosla S2, se forman patrones más complejos a partir de secciones de la capa S1, y así sucesivamente. La salida de esa transformación multicapa de las cotizaciones, tenemos un código numérico que describe el patrón actual, los códigos de los patrones que son similares entre sí pero que se extienden en el tiempo y el precio de diferentes maneras son los mismos. Estos códigos se introducen en las entradas de la máquina de vectores de apoyo (SVM) que se entrena para identificar las condiciones de compra, venta o mantenimiento de los patrones históricos. El problema aquí es determinar la forma de los filtros en las capas S1, S2, etc. He elegido tramos rectos y combinaciones de los mismos para simplificar. Por cierto, en el modelo de corteza visual HMAX, todas las formas de los filtros espaciales se preseleccionan basándose en experimentos biológicos. Tenemos que encontrar un algoritmo para detectar automáticamente estos filtros. Estos algoritmos ya se han desarrollado para la capa visual V1 (von der Malsburg, Linsker, Miller, LISSOM, Olshausen). Podemos tomarlos prestados para nuestra tarea de clasificar los patrones de precios.

 
gpwr:
En mi tiempo he estudiado en detalle casi todos los métodos de entrenamiento de redes de propagación directa. Estoy seguro de que, de entre el descenso de gradiente, el método Levenberg-Marcadt es el mejor(https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm). Siempre encuentra mejores mínimos que todo tipo de BACKPROPs y RPROPs e incluso más rápido. Lo que he publicado en BPNN (una especie de RPROP) es un juego de niños comparado con LM. El BFGS requiere más tiempo y el resultado no es mejor que el LM.

Estoy de acuerdo. En NeuroSolutions, por ejemplo, el método Levenberg-Marcadt converge donde los otros métodos se quedan en mínimos locales,

Sin embargo, LM requiere importantes recursos informáticos. El tiempo por pase es mayor

 
gpwr:

...

Cada filtro es una línea recta normalizada de manera que la suma de todos los valores sea cero y la suma de los cuadrados sea 1 (u otra normalización).

...

Ahora no tengo pruebas, pero mi intuición me dice que esta doble condición es inconsistente,

la suma es 0 y la suma de los cuadrados es 1

se cumplirá para un número muy reducido de opciones. Si me equivoco, por favor, dame una patada.

 
Urain:

Ahora mismo no tengo pruebas, pero mi intuición me dice que esta doble condición es contradictoria,

la suma es 0 y la suma de cuadrados es 1

se ejecutará para un número muy reducido de opciones. Si me equivoco, por favor, dame una patada.

No, no es contradictorio. Por ejemplo, un filtro de 2 barras con valores de -0,707 y +0,707 satisface las condiciones de normalización. La ventaja de la primera condición (suma de cuadrados igual a cero) es que no necesitamos eliminar la media de las cotizaciones. La segunda condición (suma de cuadrados igual a cero) permite limitar la suma de precio1*filtro1+precio2*filtro2 (esta es la salida de nuestro filtro) dentro de algún rango. El problema ahora es definir valores de filtro (filtro1,filtro2,...,filtroN) de longitud arbitraria N. Es posible elegir una línea recta estirada entre -filtroMAX y +filtroMAX, pero esto sería una simplificación. Con más precisión, el filtro será similar al componente principal de las cotizaciones (PCA). Pero esto no sería eficiente. Es más perspectivo si se busca la forma del filtro como componentes independientes de las citas (ICA) imponiendo una condición de número mínimo de tales componentes (condición de escasez). Más adelante expondré la conferencia 4 donde lo explicaré todo.
 
TheXpert:

Entendido. Pero vinculado específicamente a NN. Estará vinculado a NN.

Me temo que será algo así como "AWVREMGVTWNN" :) Me temo que será como "AWVREMGVTWNN" :), lo principal es captar lo esencial, los matices no son tan importantes.

Solución Meta Neuro ?
 
Meta Neuro Engine (MNE)
 
gpwr:
Meta Neuro Engine (MNE)

Meta EngiNeuro (MEN) (c)

eso nos convierte en ingenieros :)

 
Genial. Me gusta.