La etiqueta del mercado o los buenos modales en un campo de minas - página 30

 
FION >> :

En tu código - if(NormalizeDouble(SquarHid[i,j],4) != 0.0), la comparación no funciona.

Gracias, pero tampoco hay ningún error de "división por cero" en mi código.

 
Neutron >> :

¡Hola, Sergei!

Pero Grasn dijo que la 14ª versión está corrompida y que el motor está muerto y tiene errores en los diphires. Lo principal es que no se puede usar por primera vez en la vida. El kit de distribución de Matkad cuesta 100 rublos.

No es exactamente "rasposo". Lo que decía es que en 14 el motor es más barato y todo se reduce a la vieja discusión, qué motor es mejor Waterloo Maple vs SciFace Software. En realidad, algunos son mejores y otros peores: hay que ver lo que se necesita. Aquí hay un ejemplo, hay un problema tan clásico sobre el movimiento de 3 planetas. En determinadas condiciones iniciales, un planeta capta la trayectoria del otro.


Aquí está la solución en 13 Mathcadet (capturas)


Aquí está la solución en 14 matcadet (joder).



Pero la versión 14 tiene muchas ventajas, muchas. Probablemente tendré que cambiar a él, porque el 13 sólo se bloquea en Vista. Pero el 13 tiene bastantes fallos incluso, así que qué decir de las versiones anteriores.

 

¡Hola, Sergei!

Son buenas preguntas las que has planteado. Son hermosos. Quizá se trate de la precisión del método numérico. Consigue una mayor precisión y las soluciones convergerán...

 
Neutrón, si introduzco este factor de ajuste (1 - J/N), ¿debo utilizarlo para todos los pesos, o puedo utilizarlo para los pesos de la capa oculta, por ejemplo, y no utilizarlo para los pesos de la neurona de salida? Ahora mismo sólo lo uso para los pesos de la capa oculta. Los pesos se han estabilizado más o menos +/-50. Utilizo el número de épocas como N.
 
Neutron писал(а) >>

¡Hola, Sergei!

Son buenas preguntas las que has planteado. Son hermosos. Quizá se trate de la precisión del método numérico. Si se fija la precisión más alta y las soluciones convergen...

No, no se trata de precisión.

 
paralocus писал(а) >>
Neutrón, si introduzco este factor de regulación (1 - J/N), ¿debo utilizarlo para todas las escalas, o puedo utilizarlo para las escalas de la capa oculta, por ejemplo, y no utilizarlo para las escalas de la neurona de salida? Ahora mismo sólo lo uso para los pesos de la capa oculta. Los pesos se han estabilizado más o menos +/-50. Utilizo el número de épocas como N.

Pruébalo de esta manera y de esta otra. Lo aplico a todas mis escalas sin excepción. Pero esto se debe a mi amor por la simplicidad en todas las cosas, el deseo de igualdad. Tal vez te funcione. N es el número de épocas.

 

Una cosa me confunde:

La corrección en este sistema ocurre todo el tiempo, lo necesite o no. Esto es aún más estancado para una red de entrada binaria.

Es decir, si se adivina el signo correctamente, pero hay una diferencia entre la amplitud a la salida de la rejilla y la señal de prueba, la corrección tiene lugar de todos modos. ¿Pero es realmente necesario?

Después de todo, la red, en este caso, no se equivoca...

 
Neutron >> :

... Pero, tiene que ver con mi amor por la simplificación en todas las cosas, el stemma de la sameness....

No es una rama, sino una clase magistral. ¡Gracias por un montón de cosas útiles! Yo no hago ORO, pero las recomendaciones de formación funcionan muy bien también en PNN. Gracias de nuevo: ¡gracias Neutron!

 

Gracias, rsi, por tus amables palabras. Siempre es un placer compartir conocimientos.

paralocus писал(а) >>

Una cosa me confunde:

La corrección en este sistema ocurre todo el tiempo, lo necesite o no. Más aún si se trata de una red con entrada binaria.

Es decir, si el signo se adivina correctamente, pero hay una diferencia entre la amplitud en la salida de la red y la señal de prueba, la corrección se realiza de todos modos. ¿Pero es realmente necesario?

Después de todo, la red, en este caso, no se equivoca...

Tengo el mismo comportamiento.

Y es correcto, porque la rejilla agudiza constantemente la precisión de la predicción no sólo del signo...

 

¡Hola Neurton! De todos modos, aún no hay suerte con la doble capa.

Escribí un perceptrón de una capa con ORO y lo ejecuté todo el día de ayer. Se está comportando de forma extraña. Aprende y no aprende, y depende catastróficamente del número de épocas.

Así que mis resultados son los siguientes: 8 épocas - la red no aprende, 12 épocas - la red aprende, 13 épocas - la red no aprende.

En resumen, los resultados se jactan de que todavía no puedo.

En cualquier caso, describiré un algoritmo que he implementado. A ver si me he perdido algo.


1. El perceptrón tiene D entradas binarias, una de las cuales es una constante +1.

2. La PA utilizada es la de incrementos secuenciales de cotierra a lo largo de un número de Open.

3. Todos los pesos se inicializan con pequeños valores aleatorios del rango +/-1 antes de comenzar.

4. La longitud del vector de entrenamiento se calcula como P = 4 * D*D/D = 4*D.

5. El vector de entrenamiento se introduce en la entrada de la rejilla y el error de la rejilla se calcula como Qs = Test - OUT, donde Test es el valor de BP en n+1, es decir, la siguiente, lectura, OUT es la salida de la rejilla en n lecturas.

6. Para obtener el valor del error en las entradas Q, se multiplica el error de la red Qs por la derivada de la función de compresión (1 - OUT+OUT): Q = Qs *(1 - OUT*OUT).

7. El vector de corrección para cada peso que entra en una neurona COR[i] += Q*D[i] se calcula y se acumula durante la época.

8. SQR[i] += COR[i]*COR[i] se calcula por separado y se acumula durante toda la época para cada peso, incluido en la neurona.

9. Al final de una época, para cada peso se calcula la corrección personal y se añade a ese peso W[i] += COR[i]/SQR[i]


Se ha intentado utilizar un coeficiente de (1 - j/N), así como aleatorizar los pesos cuyos valores absolutos han crecido más de 20. Aleatorizar ayuda mejor.

P.D.: se ha corregido un error en el texto