Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1271
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Para el mercado, se forma exactamente igual, porque la tecnología es la misma. Olvídate de la "influencia", no se enseña explícitamente en la forma en que la concibes. Hay conjuntos de estrategias, estrategias óptimas, etc. (en RL se llaman políticas).
Si tuviéramos un creador de bots podríamos hacerle una serie de preguntas y quedarnos muy sorprendidos con las respuestas. Todos estos RL son buenos para aprender las influencias ambientales estacionarias, pero si estás jugando contra otro jugador, entonces el RL desnudo no funcionará aquí. No he estudiado esta área en profundidad, puede que me equivoque. Pero hay una clara interacción con el entorno cambiante, no se puede ver desde el comportamiento de los bots no hay ninguna expectativa de nada, no se puede ver en absoluto, hay un control de la probabilidad de causar daño tanto a usted como a su oponente, y hay errores de cálculo simplemente y actuar hacia menos posibilidad de resultado negativo, pero no es la probabilidad dada por la política al principio del juego - es la influencia en el entorno cambiante.
Hola a todos. Ya que hemos establecido que TODOS aquí son bastante inteligentes y esto no es un sarcasmo sino una afirmación de hecho. El campo de la medicina forense no carece de inteligencia, así que tengo una pregunta para la comunidad. ¿Alguien ha administrado alguna vez UBUNTU? Me refiero a la administración. El problema es este. Durante la optimización, este proceso se ejecuta tantas veces como núcleos tenga el sistema y se paraleliza.
Pregunta: ¿es posible obligar a 2 o 4 núcleos a servir a un proceso no divisible en ejecución? Bueno, eso es sólo para mí... tal vez alguien lo sepa...
Google está trabajando hoy
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
Bien, ayer me metí en una discusión inútil de nuevo
Google está trabajando hoy
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
OK, ayer me metí en una discusión inútil de nuevo
Obsérvese que en el gráfico de la expectativa del resultado de la batalla, aparece exactamente la probabilidad de la que hablaba, situacional, que activa la retroalimentación de las neuronas. Se puede ver claramente cómo esta probabilidad cambia a medida que ambos bandos exploran y pierden unidades, es decir, hay un recálculo constante del equilibrio de poder y de las propias expectativas. Está claro que no es una variante clásica de RL.
Obsérvese que en el gráfico de expectativas de la batalla, está exactamente la probabilidad de la que hablaba: la probabilidad situacional que activa la retroalimentación de la neurona. Se puede ver claramente cómo esta probabilidad cambia a medida que ambos bandos exploran y pierden unidades, es decir, hay un recálculo constante del equilibrio de poder y de las propias expectativas. Está claro que no es una variante clásica de RL.
Así que eres tan torpe que pensé que eso era lo que intentaba decirte :D
Lee sobre el equilibrio de Nash en el enlace también, yo describí el algoritmo 1 en 1 ayer, sin siquiera leer
la cuestión es que el juego no tiene una estimación de probabilidad y el juego tiene una EFICIENCIA :)) vuelve a leer tu post
Lo obvio es el clásico RL profundo LOL, deja de decir tonterías cuando no estás en el tema
Así que eres tan torpe que creí que eso era lo que intentaba explicarte :D
leer sobre el equilibrio de Nash en el enlace también, he descrito el algoritmo 1 en 1 ayer, sin siquiera leerlo
el juego no tiene probabilidades, el juego tiene una influencia sobre el oponente :)) - vuelve a leer tus mensajes
Lo único que se ve es un clásico RL profundo LOL, deja de decir tonterías cuando no estás en el tema.
Este es un foro para el comercio, los sistemas de comercio automatizado y la prueba de las estrategias de negociación
Traté de responder a todas mis preguntas sobre el aprendizaje automático en el comercio.
Aleksey Vyazmikin, 2019.01.25 17:15
Yo lo veo de forma ligeramente diferente, en el juguete hay convencionalmente una evaluación matemática de cada bando que consta de muchos factores -el número de bots y su potencial, los activos, el dinero, y el objetivo del oponente de disminuir esta cifra de evaluación para mantener su cifra de evaluación más alta que la del oponente, es decir, gastar menos energía en el resultado. Esto da lugar a un sistema de influencia mutua, en el que está claro que si al sacrificar una unidad se disminuye el valor estimado de los activos del adversario en mayor medida que el valor estimado de la unidad, entonces es la decisión correcta, y si no, entonces no es la correcta. Y en el trading no tenemos garantías, sólo probabilidad, pero en un juguete hay garantías matemáticas que se pueden calcular.
No podemos influir en la situación, pero en el juego sí, incluso creando nosotros mismos situaciones ventajosas.Foro sobre comercio, sistemas de comercio automatizados y prueba de estrategias de comercio
Aprendizaje automático en el comercio: teoría y práctica (comercio y no sólo)
Aleksey Vyazmikin, 2019.01.26 00:06
Si tuviéramos un creador de bots, podríamos hacerle una serie de preguntas y nos sorprenderíamos mucho de las respuestas. Todos estos RL son buenos para aprender los factores de influencia estacionaria en el entorno, pero si estás jugando contra otro jugador, entonces el RL desnudo no funcionará aquí. No he estudiado esta área en profundidad, puede que me equivoque. Pero hay una clara interacción con el entorno cambiante, no se puede ver en el comportamiento de los bots que haya una expectativa de nada, no se puede ver en absoluto, hay un control de la probabilidad de causar daño tanto a ti como a tu oponente, y hay errores de cálculo simplemente y actuar hacia una menor probabilidad de un resultado negativo, pero eso no es la probabilidad dada por la política al comienzo del juego - es el efecto en el entorno cambiante.