Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1966

 
Maxim Dmitrievsky:

Pásate a python, te daré ejemplos y podrás usarlos.

No veo el sentido de discutirlo en el foro, porque RL no es un tema de nivel de principiante.

En cuanto termine el libro lo pediré a )))) Si no conoce el precio de mercado, entonces puede tener razón, no sé qué esperar. Si no conoce la hora, puede ser una estrategia diferente.

 
Maxim Dmitrievsky:

Pásate a python, te daré ejemplos y podrás usarlos.

No veo el sentido de discutirlo en el foro, ya que RL no es un tema de entrada.


¿Puede enviarme un correo electrónico?

eugen420@gmail.com

 
Evgeni Gavrilovi:


¿Puede enviármelo por correo electrónico?

Sólo a él, el resto por una cuota.

 
Maxim Dmitrievsky:

Pásate a python, te daré ejemplos y podrás usarlos.

No veo el sentido de discutirlo en el foro, ya que RL está lejos de ser un tema de entrada

Lo intentaré.

 
mytarmailS:

Lo intentaré.

Mira los videos de introducción en youtube. Es lo mismo que la R, sólo que con sus propias características especiales. No debería haber ningún problema con la transición. Pero puedes tomar kotier de mt5 y abrir operaciones.
 
Maxim Dmitrievsky:
Mira los vídeos de introducción en YouTube.

Sí, eso es lo que hago))

 
mytarmailS:

Sí, así es))

La comprensión sería más rápida si el manual estuviera escrito sin errores:

La capa de agrupación es una red neuronal de cuantificación vectorial de Kohonen (LVQ). La capa de cluster agrupa los resultados de las dendritas según el algoritmo estándar LVQ. Recordemos que LQV implementa el aprendizaje en línea sin profesor .

En primer lugar, las letras de las siglas están mezcladas (correctamente LVQ), en segundo lugar, es un método de enseñanza CON UN TUTOR

mientras que el método sin maestro se llama VQ (vector quantizatinon), entonces lo más probable es que sea una neurona, no LVQ.


Es importante señalar que la subred LQV mantuvo la memoria de las señales de entrada anteriores como la memoria de las últimas salidas de las neuronas LQV. Por lo tanto, la red neuronal disponía de más información de la que recibía directamente.

Todavía no lo entiendo. Lo más probable es que se trate de estas conexiones de las salidas de la subred que vuelven a las neuronas. Sólo almacenan información sobre acciones pasadas.

Es decir, la memoria almacena la subred LQV.


 
Maxim Dmitrievsky:

La comprensión sería más rápida si el manual estuviera escrito sin errores:

La capa de agrupación es una red neuronal de cuantificación vectorial de Kohonen (LVQ). La capa de cluster agrupa los resultados de las dendritas según el algoritmo estándar LVQ. Recordemos que LQV implementa el aprendizaje en línea sin profesor .

En primer lugar, se confunden las letras de las siglas (correctamente LVQ), en segundo lugar, es un método de enseñanza CON TUTOR

y el método sin maestro se llama VQ (vector quantizatinon), entonces lo más probable es que esté en la neurona, no LVQ.

No sé... Lo he leído 4 veces y sigo sin entenderlo, ¿quizás el profesor es un refuerzo ahí?

+ también se vota por capas.

Maxim Dmitrievsky:

Es importante señalar que la subred LQV mantuvo una memoria de las entradas anteriores como una memoria de las últimas salidas de las neuronas LQV. Por lo tanto, la red neuronal disponía de más información de la que recibía directamente.

Todavía no lo entiendo. Lo más probable es que se trate de estas conexiones de las salidas de la subred que vuelven a las neuronas. Sólo almacenan información sobre acciones pasadas.

Es decir, la memoria almacena la subred LQV.

Pues sí, la memoria en LQV está en forma de las últimas salidas de las neuronas de LQV, pero es, según entiendo, memoria un paso atrás...

¿Y esta fantástica analogía con la tetera y el café? Ése es todo el grial.


¿No te dijo nada?

Me pregunto dónde enseñan estas cosas. Es como la cibernética, la robótica y...

Los DataSynthians son sólo educadores físicos en el instituto tecnológico).


==============================================================

también existe el LVQ dinámico - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Detalles

dlvq : Los datos de entrada deben estar normalizados para utilizar DLVQ.

Aprendizaje DLVQ: se calcula un vector promedio (prototipo) para cada clase y se almacena en un módulo oculto (recién creado). A continuación, la red se utiliza para clasificar cada patrón utilizando el prototipo más cercano. Si un patrón se clasifica erróneamente como clase y en lugar de clase x, el prototipo de clase y se aleja del patrón y el prototipo de clase x se acerca al patrón.Este procedimiento se repite de forma iterativa hasta que no haya más cambios en la clasificación. A continuación, se introducen nuevos prototipos en la red para cada clase como nuevas unidades ocultas y se inicializan con el vector medio de plantillas mal clasificadas en esa clase.

Arquitectura de la red: la red tiene una sola capa oculta que contiene una unidad para cada prototipo. Los prototipos/unidades ocultas también se denominan vectores del libro de códigos. Dado que SNNS genera las unidades automáticamente y no requiere una especificación previa del número de unidades, el procedimiento en SNNS se denomina LVQ dinámico .

Las funciones de inicialización, aprendizaje y actualización por defecto son las únicas adecuadas para este tipo de redes. Los tres parámetros de la función de aprendizaje definen dos tasas de aprendizaje (para los casos clasificados correctamente/incorrectamente) y el número de ciclos para los que se entrena la red antes de calcular los vectores medios.

Referencias

Kohonen, T. (1988), Self-organization and associative memory, Vol. 8, Springer-Verlag.



=========================================================


Hombre, he leído este LVQ, es igual que Kohonen (SOM) pero con un profesor.

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=El%20Aprendizaje%20de%20Vectores%20de%20algoritmo,esas%20instancias%20deberían%20parecer.

 

¿Quién ha resuelto la cuestión de cuantificar un rango numérico con referencia al objetivo? En mi caso se trata de una "cuantificación" no uniforme - un proceso de auto-sintonía con el objetivo con un límite de los dígitos mínimos en el rango o la propia ventana en la expresión numérica - aún no decidido.

Los experimentos con CatBoost muestran que la cuantificación afecta fuertemente (en algunos casos hasta un 15% acurasi) al resultado.

 
Aleksey Vyazmikin:

¿Quién ha resuelto la cuestión de cuantificar un rango numérico con referencia al objetivo? En mi caso se trata de una "cuantificación" no uniforme - un proceso de auto-sintonía con el objetivo con un límite de los dígitos mínimos en el rango o la propia ventana en la expresión numérica - aún no decidido.

Los experimentos con CatBoost muestran que la cuantización afecta fuertemente (hasta un 15% de acurasi en algunos casos) al resultado.

https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html

paquete para la discretización (cuantificación) con respecto al objetivo