"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 75

 
su.humano:

La cuestión no es cuál. Sólo me pregunto si el GA, con un hardware tan débil, lo conseguirá.

Una versión ligera del algoritmo joo.

Bueno, se puede estimar aproximadamente. Sólo hay que pasarla una vez por el historial de FF y medir el tiempo y luego multiplicarlo por 10000. Obtendrás un resultado bastante realista, que es el que obtendrás si realizas el entrenamiento.


Y eso es... ¿Qué hay que aligerar? :)

 
joo:

Bueno, se puede estimar aproximadamente. Para ello, recorre una vez el historial de FF, midiendo el tiempo y luego multiplícalo por 10000. Es bastante realista lo que conseguirás si lo ejecutas en el entrenamiento.


Y eso es... ¿Qué hay que aligerar? :)

No es del todo adecuado, todavía hay que medir por separado y restar el tiempo total del FF para obtener el valor neto de la ejecución del algoritmo.

entonces se puede multiplicar por el número de parámetros.

Las chuletas están separadas de las moscas.

 
Urain:
Alguna vez pensé en escribir un probador para entrenar una pequeña cuadrícula con Tester GA, como la que dibujé arriba, 6 escalas 3 neuronas, tarea XOR, pero todavía no puedo llegar a ella :)
Hablo de:
Red 100x1000x1 - malla completa
 
2)¿cuántos ejemplos?
Estoy hablando:
su.humano:

1) Qué enseñar,

2) cuántos ejemplos,

3) un error, etc.?

1) Para experimentar, intenta aproximar una función, por ejemplo, la del artículo.

2) Bueno, al menos 1000, creo.

3) ZFF es el menor error con la superficie de la función de prueba.

 
joo:

Y eso es... ¿Qué hay que aligerar? :)

La UGA es universal, adecuada para muchas tareas. Se puede afilar, aligerar, especialmente para la formación en red.
 
joo:

3) ZFF es el menor error con la superficie de la función de prueba.

ZFF - no se entiende. ?
 
su.humano:
ZFF - No lo entiendo. ?
El significado de FF, o - VFF, si se sigue la terminología del artículo.
 
joo:
Valor de FF, o - VFF, para seguir la terminología del artículo.

el más mínimo error es un concepto escurridizo...

Me voy, ya hay demasiado de mí aquí. Si tengo más preguntas, las haré en privado, para no entorpecer. Te mostraré los resultados.

Esperemos que Urain y yu-sha presenten una arquitectura y una descripción de la red.

 

Un problema XOR resuelto por un GA probador estándar, para 100 ejemplos de 14 errores discretos.

hay dos mallas en el código para dos neuronas en cascada, y para tres neuronas como en el MLP clásico.

paso en la parte superior de los comentarios, para 7 parámetros paso 0,005, para 9 pesos 0,2-03 con 0,2 de entrada, independiente 03.

así que el juego pero bonito.

ZZZ soy un tonto, he dado en los ejemplos de las esquinas de 1, por ejemplo, y el medio 0. Y no importa cómo los giros de la cuadrícula de los dos ceros en la entrada no puede dar 1.

Compruebo que el error de las salidas de la red debe ser igual a cero en forma discreta, y tiende a cero en real.

Así que es extraño, invertí las salidas pero el error se mantuvo, incluso subió un bit a 16, todo bien, lo anotaré en GA :) Tal vez tenga sueño ahora.

Archivos adjuntos:
NN_GA.mq5  9 kb
NN_GA.mq5  9 kb
 

Hoy es el Día del Anciano :)

Silencio total, todo el mundo se está fumando la entrevista.