Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 563
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Uf... leí todo el hilo desde el principio hasta mi aparición... ahora ya lo he visto todo
pero no hay grial allí ... muy mal, seguirá cavando entonces
Esta es una solución correcta. La teoría del NS aquí en el foro está lejos de ser ideal.
lo único que escribí fue sobre el clasificador ternario, y resolver el misterio deYuriy Asaulenko
Esta es la decisión correcta. La teoría del NS aquí en el foro está lejos de ser ideal.
Lo único que escribí fue sobre el clasificador ternario y la resolución del misterio deYuriy Asaulenko
Lo único que escribí fue sobre el clasificador ternario, y la resolución del misteriode Yuriy Asaulenko
Y dónde encontraste el misterio.
El MLP es de ~60 neuronas. El algoritmo es el estándar de BP. Aprender - ir de aquí para allá, es decir, no sé lo que NS está aprendiendo allí. Además, todos los principios del aprendizaje están esbozados en monografías clásicas - Heikin, Bishop. Lo suave no es MQL.
En este tema se exponen los principios básicos.
Y dónde encontraste el misterio.
El MLP tiene ~60 neuronas. Algoritmo - BP estándar. Aprender - ir a donde no sé dónde. Es decir, no sé lo que el NS está aprendiendo allí. Además, todos los principios del aprendizaje están esbozados en monografías clásicas - Heikin, Bishop. Lo suave no es MQL.
Los principios básicos se describen en este tema.
Esto era una especie de broma :))
era una especie de broma :))
No. Realmente no hay nada más allí. Crees que Haykin y Bishop están irremediablemente anticuados y buscas algo nuevo. Para mí son suficientes.
no, me refiero a que es como si estuviera bromeando... eres el único en el hilo que ha llegado a algo al final :)
tienes que buscar en google el entrenamiento del perceptrón con el método monte carlo.
En general, este método es muy similar a la RL (aprendizaje por refuerzo) cuando hay un agente que aprende y el NS está aprendiendo a encontrar la mejor solución.
Así es como se entrena el Alpha Go (aunque antes se pensaba que era un juego creativo y que una máquina no podía ganar a un humano en él)
y aquí está el ganador.
https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/
no, me refiero a que es como si estuviera bromeando... eres el único en el hilo que ha llegado a algo al final :)
tienes que buscar en google el entrenamiento del perceptrón con el método monte carlo.
En general, este método es muy similar a la LR (aprendizaje por refuerzo) cuando se tiene un agente que aprende y la SN está aprendiendo a encontrar la mejor solución
Por cierto, es en gran parte gracias a ti. Cuando empecé, fuiste tú quien me dio el enlace al artículo de Reshetov. En general, el artículo no tiene ningún valor, más bien es un ejemplo de aplicación, pero quedó más o menos claro dónde aprovechar el caballo.
No sé si existen estos métodos en Google, ya que yo mismo acabé llegando a Montecarlo.
Tampoco conozco RL, pero por su breve descripción se parece a mis métodos.
Encontré Monte Carlo en Google -https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf Sólo que es absolutamente diferente.