Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1967

 
mytarmailS:

No sé... Lo he leído cuatro veces y sigo sin entenderlo, ¿quizás el profesor es un refuerzo?

+ hay más votaciones de las capas.

Pues sí, la memoria en LQV en forma de las últimas salidas de las neuronas de LQV , pero según tengo entendido la memoria es sólo un paso atrás...

¿Y esta fantástica analogía con la tetera y el café? Ese es todo el grial...


¿No te dijo nada?

Me pregunto dónde enseñan estas cosas. Es como la cibernética, la robótica y...

Los DataSynthians son sólo educadores físicos en el instituto tecnológico).


==============================================================

también existe el LVQ dinámico - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Detalles

dlvq : Los datos de entrada deben estar normalizados para utilizar DLVQ.

Aprendizaje DLVQ: se calcula un vector medio (prototipo) para cada clase y se almacena en un módulo oculto (recién creado). A continuación, la red se utiliza para clasificar cada patrón utilizando el prototipo más cercano. Si un patrón se clasifica erróneamente como clase y en lugar de clase x, el prototipo de clase y se aleja del patrón y el prototipo de clase x se acerca al patrón.Este procedimiento se repite de forma iterativa hasta que no haya más cambios en la clasificación. A continuación, se introducen nuevos prototipos en la red para cada clase como nuevas unidades ocultas y se inicializan con el vector medio de plantillas mal clasificadas en esa clase.

Arquitectura de la red: la red tiene una sola capa oculta que contiene una unidad para cada prototipo. Los prototipos/unidades ocultas también se denominan vectores del libro de códigos. Dado que SNNS genera las unidades automáticamente y no requiere una especificación previa del número de unidades, el procedimiento en SNNS se denomina LVQ dinámico .

Las funciones de inicialización, aprendizaje y actualización por defecto son las únicas adecuadas para este tipo de redes. Los tres parámetros de la función de aprendizaje definen dos tasas de aprendizaje (para los casos clasificados correctamente/incorrectamente) y el número de ciclos para los que se entrena la red antes de calcular los vectores medios.

Referencias

Kohonen, T. (1988), Self-organization and associative memory, Vol. 8, Springer-Verlag.



=========================================================


Hombre, he leído este LVQ, es igual que Kohonen (SOM) pero con un profesor.

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=El%20Aprendizaje%20de%20Vectores%20de%20algoritmo,esas%20instancias%20deberían%20parecer.

No es LVQ, es VQ.

no responde

Probablemente debido a las escasas conexiones, de alguna manera no todas las neuronas están siempre activas, por lo que la memoria puede tardar más en retenerse... Además, existe una memoria asociativa (qué conjuntos de características pertenecen a cada grupo). El libro de códigos se llama así.

Bueno, es todo de la teoría del control, probablemente lo enseñan en la uni. El artículo original es de 2015 de unos chinos. No tengo acceso a ella. Este probablemente ya es un refrito.

 
Maxim Dmitrievsky:

No es LVQ, es VQ.

no responde.

Probablemente debido a las escasas conexiones, de alguna manera no todas las neuronas están siempre activas, por lo que la memoria puede tardar más en retenerse... Además, existe una memoria asociativa (qué conjuntos de características pertenecen a cada grupo). El libro de códigos se llama así.

Bueno, es todo de la teoría del control, probablemente lo enseñan en la uni. El artículo original es de 2015 de unos chinos. No tengo acceso a ella. Lo más probable es que este ya sea un retoque.

Resulta que la cuantificación vectorial se realiza primero sobre los datos desnudos y luego con los resultados tenidos en cuenta, y el resultado es más preciso. Al menos aparece un filtro para un resultado negativo. Conjuntos de características para diferentes clusters, es como dividir una fila en diferentes segmentos estables.

 
Valeriy Yastremskiy:

Resulta que la cuantificación de los vectores se realiza primero en los datos brutos y luego en el resultado, lo que hace que éste sea más preciso. Al menos aparece el filtro para el resultado negativo. conjuntos de características a diferentes grupos, es como dividir una fila en diferentes secciones estables.

Es difícil imaginar de dónde viene esa larga memoria. Por ejemplo, en la iteración anterior la última neurona produjo un cero, añádalo al vector de entrada de la primera neurona en la siguiente iteración. Iteración. Tiene una dimensión + 1, es decir, ponemos las características en un nuevo espacio y obtenemos un estado condicional más complejo que depende de la acción anterior. La primera neurona funcionó y envió un vector unitario a la última neurona. Esta última devuelve 0 o 1 a la primera. Supongamos que sólo hay 2 grupos. ¿Dónde va la memoria más allá de un paso atrás?

Supongamos que hay una tercera neurona que toma otro valor +1. Estado condicional aún más complejo. Y así en orden ascendente se almacena la memoria... difícil de imaginar :)

 
Maxim Dmitrievsky:

......... memoria almacenada... difícil de imaginar :)

aún más difícil para mí )

====


red asociativa

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


Esto es lo mismo que la agrupación, ¿no? Y la imagen asociativa es el prototipo de una agrupación.

 
mytarmailS:

aún más difícil para mí )

En la capa 2 también se puede añadir memoria en forma de enlaces de recurrencia, pero funciona sin ellos. Así que la memoria está en la capa 1 después de todo.

 
mytarmailS:

es aún más difícil para mí )

====


red asociativa

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


Es lo mismo que la agrupación, ¿no? Y la imagen asociativa es un prototipo de agrupación

Bueno, sí, pero no tiene memoria de las acciones anteriores del agente, eso es diferente

Iré a leer la carpeta de nuevo, y luego me meteré con el código.

 
Maxim Dmitrievsky:

Bueno, sí, pero no hay memoria de las acciones anteriores del agente, eso es diferente

Iré a leer la carpeta de nuevo, luego iré a hurgar en el código.

veamos, pensemos en ello )

una acción del agente es una imagen, un patrón (cluster)

la secuencia de acciones (clusters) es la memoria


una acción del agente o cualquier cosa puede representarse como una secuencia de clusters

pero un patrón como el de "verter café" pero "el café debe estar ya preparado"


puede representarse como un patrón de transiciones


 
mytarmailS:

veamos, pensemos en ello).

una acción del agente es una imagen, un patrón (cluster)

una secuencia de acciones (clusters) es la memoria

una acción del agente o lo que sea puede representarse como una secuencia de clusters

No es exactamente así. La acción previa de un agente + el estado del entorno (conjunto de características) es un patrón (estado condicional). Tanto la acción previa como las características se meten en 1 vector.

Pero en las neuronas no hay información explícita sobre la secuencia de patrones pasados, sólo a través de las señales de salida de ahorro. Y allí sólo se procesó 1 patrón (actual). Es decir, los estados condicionales más complejos son codificados por un grupo de neuronas de alguna manera.

 

Maxim Dmitrievsky:

Tanto la acción anterior como las fichas están metidas en 1 vector.

Pero en las neuronas no hay información explícita sobre la secuencia, sólo a través de las señales de salida de ahorro. Y allí sólo se procesó 1 patrón.

Bueno, se puede reducir a un solo vector, por el mismo umap. Comprimí 2k fichas de esa manera )

 
mytarmailS:

Pues se puede consolidar en un solo vector, por el mismo umap. Así es como comprimí 2k fichas)

eso es lo que hace esta capa.