Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 563

 
Maxim Dmitrievsky:

Uf... leí todo el hilo desde el principio hasta mi aparición... ahora ya lo he visto todo

pero no hay grial allí ... muy mal, seguirá cavando entonces

Esta es la decisión correcta. La teoría del NS aquí en el foro está lejos de ser ideal.
 
Alexander_K2:
Esta es una solución correcta. La teoría del NS aquí en el foro está lejos de ser ideal.

lo único que escribí fue sobre el clasificador ternario, y resolver el misterio deYuriy Asaulenko

 
Alexander_K2:
Esta es la decisión correcta. La teoría del NS aquí en el foro está lejos de ser ideal.
Y aquí no es necesario en absoluto. Toda la teoría ya ha sido expuesta mucho antes que nosotros. )
 
Maxim Dmitrievsky:

Lo único que escribí fue sobre el clasificador ternario y la resolución del misterio deYuriy Asaulenko

Esta es la primera vez que voy a hacer arcos - Yury no es tan simple como parece. ¡Físico! Entiendo lo que hace, es como si tuviera dos procesos paralelos en marcha. Uno, probabilístico, afirma que parece que es el momento de llegar a un acuerdo. El segundo -el NS- da o rechaza. No voy a decir nada más, que lo cuente él mismo.
 
Maxim Dmitrievsky:

Lo único que escribí fue sobre el clasificador ternario, y la resolución del misteriode Yuriy Asaulenko

Y dónde encontraste el misterio.

El MLP es de ~60 neuronas. El algoritmo es el estándar de BP. Aprender - ir de aquí para allá, es decir, no sé lo que NS está aprendiendo allí. Además, todos los principios del aprendizaje están esbozados en monografías clásicas - Heikin, Bishop. Lo suave no es MQL.

En este tema se exponen los principios básicos.

 
Yuriy Asaulenko:

Y dónde encontraste el misterio.

El MLP tiene ~60 neuronas. Algoritmo - BP estándar. Aprender - ir a donde no sé dónde. Es decir, no sé lo que el NS está aprendiendo allí. Además, todos los principios del aprendizaje están esbozados en monografías clásicas - Heikin, Bishop. Lo suave no es MQL.

Los principios básicos se describen en este tema.


Esto era una especie de broma :))

 
Maxim Dmitrievsky:

era una especie de broma :))

No. Realmente no hay nada más allí. Crees que Haykin y Bishop están irremediablemente anticuados y buscas algo nuevo (lo escribiste antes). Para mí son suficientes.
 
Yuriy Asaulenko:
No. Realmente no hay nada más allí. Crees que Haykin y Bishop están irremediablemente anticuados y buscas algo nuevo. Para mí son suficientes.

no, me refiero a que es como si estuviera bromeando... eres el único en el hilo que ha llegado a algo al final :)

tienes que buscar en google el entrenamiento del perceptrón con el método monte carlo.

En general, este método es muy similar a la RL (aprendizaje por refuerzo) cuando hay un agente que aprende y el NS está aprendiendo a encontrar la mejor solución.

 

Así es como se entrena el Alpha Go (aunque antes se pensaba que era un juego creativo y que una máquina no podía ganar a un humano en él)

y aquí está el ganador.

https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/

Нейросеть AlphaGo перевели на самообучение
Нейросеть AlphaGo перевели на самообучение
  • 2017.10.20
  • techfusion.ru
Искусственный интеллект AlphaGo показал прекрасные результаты самообучения: за три дня нейросеть от уровня начинающего игрока в «Го» дошла до уровня профессионала, одерживающего только победы Разработчики DeepMind усовершенствовали искусственный интеллект AlphaGo. Новая модель ИИ AlphaGo Zero обучалась «с нуля» без участия человека, играя сама...
 
Maxim Dmitrievsky:

no, me refiero a que es como si estuviera bromeando... eres el único en el hilo que ha llegado a algo al final :)

tienes que buscar en google el entrenamiento del perceptrón con el método monte carlo.

En general, este método es muy similar a la LR (aprendizaje por refuerzo) cuando se tiene un agente que aprende y la SN está aprendiendo a encontrar la mejor solución

Por cierto, es en gran parte gracias a ti. Cuando empecé, fuiste tú quien me dio el enlace al artículo de Reshetov. En general, el artículo no tiene ningún valor, más bien es un ejemplo de aplicación, pero quedó más o menos claro dónde aprovechar el caballo.

No sé si existen estos métodos en Google, ya que yo mismo acabé llegando a Montecarlo.

Tampoco conozco RL, pero por su breve descripción se parece a mis métodos.

Encontré Monte Carlo en Google -https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf Sólo que es absolutamente diferente.