Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1966
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Pásate a python, te daré ejemplos y podrás usarlos.
No veo el sentido de discutirlo en el foro, porque RL no es un tema de nivel de principiante.
En cuanto termine el libro lo pediré a )))) Si no conoce el precio de mercado, entonces puede tener razón, no sé qué esperar. Si no conoce la hora, puede ser una estrategia diferente.
Pásate a python, te daré ejemplos y podrás usarlos.
No veo el sentido de discutirlo en el foro, ya que RL no es un tema de entrada.
¿Puede enviarme un correo electrónico?
eugen420@gmail.com
¿Puede enviármelo por correo electrónico?
Sólo a él, el resto por una cuota.
Pásate a python, te daré ejemplos y podrás usarlos.
No veo el sentido de discutirlo en el foro, ya que RL está lejos de ser un tema de entrada
Lo intentaré.
Lo intentaré.
Mira los vídeos de introducción en YouTube.
Sí, eso es lo que hago))
Sí, así es))
La comprensión sería más rápida si el manual estuviera escrito sin errores:
La capa de agrupación es una red neuronal de cuantificación vectorial de Kohonen (LVQ). La capa de cluster agrupa los resultados de las dendritas según el algoritmo estándar LVQ. Recordemos que LQV implementa el aprendizaje en línea sin profesor .
En primer lugar, las letras de las siglas están mezcladas (correctamente LVQ), en segundo lugar, es un método de enseñanza CON UN TUTOR
mientras que el método sin maestro se llama VQ (vector quantizatinon), entonces lo más probable es que sea una neurona, no LVQ.
Es importante señalar que la subred LQV mantuvo la memoria de las señales de entrada anteriores como la memoria de las últimas salidas de las neuronas LQV. Por lo tanto, la red neuronal disponía de más información de la que recibía directamente.
Todavía no lo entiendo. Lo más probable es que se trate de estas conexiones de las salidas de la subred que vuelven a las neuronas. Sólo almacenan información sobre acciones pasadas.
Es decir, la memoria almacena la subred LQV.
La comprensión sería más rápida si el manual estuviera escrito sin errores:
La capa de agrupación es una red neuronal de cuantificación vectorial de Kohonen (LVQ). La capa de cluster agrupa los resultados de las dendritas según el algoritmo estándar LVQ. Recordemos que LQV implementa el aprendizaje en línea sin profesor .
En primer lugar, se confunden las letras de las siglas (correctamente LVQ), en segundo lugar, es un método de enseñanza CON TUTOR
y el método sin maestro se llama VQ (vector quantizatinon), entonces lo más probable es que esté en la neurona, no LVQ.
No sé... Lo he leído 4 veces y sigo sin entenderlo, ¿quizás el profesor es un refuerzo ahí?
+ también se vota por capas.
Es importante señalar que la subred LQV mantuvo una memoria de las entradas anteriores como una memoria de las últimas salidas de las neuronas LQV. Por lo tanto, la red neuronal disponía de más información de la que recibía directamente.
Todavía no lo entiendo. Lo más probable es que se trate de estas conexiones de las salidas de la subred que vuelven a las neuronas. Sólo almacenan información sobre acciones pasadas.
Es decir, la memoria almacena la subred LQV.
Pues sí, la memoria en LQV está en forma de las últimas salidas de las neuronas de LQV, pero es, según entiendo, memoria un paso atrás...
¿Y esta fantástica analogía con la tetera y el café? Ése es todo el grial.
¿No te dijo nada?
Me pregunto dónde enseñan estas cosas. Es como la cibernética, la robótica y...
Los DataSynthians son sólo educadores físicos en el instituto tecnológico).
==============================================================
también existe el LVQ dinámico - - dlvq
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq
Detalles
dlvq : Los datos de entrada deben estar normalizados para utilizar DLVQ.
Aprendizaje DLVQ: se calcula un vector promedio (prototipo) para cada clase y se almacena en un módulo oculto (recién creado). A continuación, la red se utiliza para clasificar cada patrón utilizando el prototipo más cercano. Si un patrón se clasifica erróneamente como clase y en lugar de clase x, el prototipo de clase y se aleja del patrón y el prototipo de clase x se acerca al patrón.Este procedimiento se repite de forma iterativa hasta que no haya más cambios en la clasificación. A continuación, se introducen nuevos prototipos en la red para cada clase como nuevas unidades ocultas y se inicializan con el vector medio de plantillas mal clasificadas en esa clase.
Arquitectura de la red: la red tiene una sola capa oculta que contiene una unidad para cada prototipo. Los prototipos/unidades ocultas también se denominan vectores del libro de códigos. Dado que SNNS genera las unidades automáticamente y no requiere una especificación previa del número de unidades, el procedimiento en SNNS se denomina LVQ dinámico .
Las funciones de inicialización, aprendizaje y actualización por defecto son las únicas adecuadas para este tipo de redes. Los tres parámetros de la función de aprendizaje definen dos tasas de aprendizaje (para los casos clasificados correctamente/incorrectamente) y el número de ciclos para los que se entrena la red antes de calcular los vectores medios.
Referencias
Kohonen, T. (1988), Self-organization and associative memory, Vol. 8, Springer-Verlag.
=========================================================
Hombre, he leído este LVQ, es igual que Kohonen (SOM) pero con un profesor.
https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=El%20Aprendizaje%20de%20Vectores%20de%20algoritmo,esas%20instancias%20deberían%20parecer.
¿Quién ha resuelto la cuestión de cuantificar un rango numérico con referencia al objetivo? En mi caso se trata de una "cuantificación" no uniforme - un proceso de auto-sintonía con el objetivo con un límite de los dígitos mínimos en el rango o la propia ventana en la expresión numérica - aún no decidido.
Los experimentos con CatBoost muestran que la cuantificación afecta fuertemente (en algunos casos hasta un 15% acurasi) al resultado.
¿Quién ha resuelto la cuestión de cuantificar un rango numérico con referencia al objetivo? En mi caso se trata de una "cuantificación" no uniforme - un proceso de auto-sintonía con el objetivo con un límite de los dígitos mínimos en el rango o la propia ventana en la expresión numérica - aún no decidido.
Los experimentos con CatBoost muestran que la cuantización afecta fuertemente (hasta un 15% de acurasi en algunos casos) al resultado.
https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html
paquete para la discretización (cuantificación) con respecto al objetivo