Discusión sobre el artículo "Neuroredes profundas (Parte IV). Creación, entrenamiento y simulación de un modelo de neurored"

 

Artículo publicado Neuroredes profundas (Parte IV). Creación, entrenamiento y simulación de un modelo de neurored:

En el artículo se analizan las nuevas posibilidades del paquete darch (v.0.12.0). Se describen los resultados del entrenamiento de una red neuronal profunda con diferentes tipos de datos, estructura y secuencia de entrenamiento. También se analizan los resultados.

Hay dos métodos de entrenamiento de SRBM: el entrenamiento de RBM uno a uno en rbm.numEpochs o el entrenamiento por turnos de cada RBM una época cada vez. La posibilidad de elegir uno de estos métodos se regula con la ayuda del parámetro rbm.consecutive: TRUE o default indicará el primer método, FALSE, el segundo. En la fig.5 se muestra el esquema de entrenamiento en las dos variantes. Con la ayuda del parámetro rbm.lastLayer podemos indicar en qué capa de SRBM hay que establecer el re-entrenamiento. Con 0 — entrenamos todas las capas, con (-1) — no entrenamos la capa superior. Esto tiene sentido, ya que la capa superior de una neurored se debe entrenar por separado y de forma más prolongada. El resto de los parámetros son comprensibles y no necesitan de aclaraciones adicionales.

SRBMtrain

Fig.5. Dos métodos de entrenamiento de SRBM



Autor: Vladimir Perervenko