Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1328
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
parece que tenemos que bombear R en lugar de python, Renat escribió que pronto habrá un paquete directo sin muletas
es decir, catbust se puede ejecutar en 1 línea desde mt5
¿Ha salido a la luz algo concreto? Sólo vi su post sobre "regalos", sin detalles.
¿Qué podría ser más específico? Creo que no son dulces y galletas.
Estoy puramente interesado en la profundidad de la madriguera del conejo para fines de investigación
No se puede decir. Muy profundo, no se puede alcanzar ni ver.
Puede ser algo incomprensible y extraño para muchas personas. Pero al final todos llegarán a la fuerza bruta, sin toda esta construcción de características tontas, objetivos y otras cosas de parvulario. Y entonces se querrá discutir sólo los detalles de su aplicación.
Todo lo que se refiere a los rasgos, el objetivo y las submuestras no quiero discutirlo más.
Sólo reaccionaré ante ideas sensatas para una fuerza bruta "correcta".
Al final, todos acudirán a la fuerza bruta. Pero las fuerzas de cepillado pueden reducirse al menos varias veces, sólo que con todo tipo de señales, submuestras y otras cosas. En muchos problemas, parte de la solución ya se conoce, ya hay alguna información preliminar sobre la solución, y su uso puede reducir significativamente el forzamiento bruto. De hecho, eso es lo que hice en noviembre del 17).
El próximo día empezaré de nuevo, ya en Python. Es hora de hacer una nueva versión.
No se puede decir. Muy profundo, no se puede alcanzar ni ver.
Al final, todos acudirán a la fuerza bruta. Pero la fuerza bruta puede reducirse al menos varias veces, sólo con todo tipo de características, submuestras y otras cosas. En muchos problemas, parte de la solución ya se conoce, ya hay alguna información preliminar sobre la solución, y su uso puede reducir significativamente el forzamiento bruto. De hecho, eso es lo que hice en noviembre del 17).
El otro día empezaré de nuevo, ya en Python. Es hora de remachar una nueva versión.
Creo que hay un número infinito de variaciones, no existe que un rasgo sea mejor que otro, todo es relativo al objetivo.
está claro que si las señales se forman a partir del mercado o las noticias u otras herramientas es una cosa, pero cuando se forman a partir de un proceso accidental (BP) es otra cosa
Por ejemplo, una casa del dibujo de un niño tardará mucho tiempo en ser encontrada por el NS, mientras que el árbol determinará rápidamente las coordenadas de este objeto y las convertirá simplemente en vectores. Pero si cambias la escala, el árbol no podrá identificar esta casa, pero la NS debería poder hacerlo.
A la NS no le gusta mucho el escalamiento. Entrenado en el rango de precios - 100-120, el precio va más allá - eso es todo, abortar. Simplemente divido todo lo relacionado con el precio por el propio precio, le resto uno y luego utilizo ratios para llevar las variables al rango dinámico adecuado.
Creo que hay un número infinito de variaciones, no existe una característica mejor que otra, todo es relativo al objetivo
está claro que si las señales se forman a partir del mercado o las noticias u otras herramientas es una cosa, pero cuando vienen de un proceso accidental (BP) es otra cosa
Bien, por ejemplo, sabemos que si la MA sube, es mejor no ir en corto. Long, comprensiblemente, está en duda. La muestra de aprendizaje para los largos se reduce inmediatamente a la mitad, debido a la exclusión de , "donde es mejor no ir". Se pueden inventar todo tipo de requisitos previos, y reducir la cantidad de entrenamiento (brutforce) en varias veces. En el trabajo real, también llevamos a cabo una selección similar, y los datos, donde es mejor no ir a NS simplemente no conseguir. Además, no cargamos la NS con basura diversa.
Bien, por ejemplo, sabemos que si la MA sube, es mejor no ir en corto. Long está, comprensiblemente, en entredicho. La muestra de entrenamiento para los largos se reduce inmediatamente a la mitad, debido a la exclusión de "donde es mejor no ir". Se pueden inventar todo tipo de requisitos previos, y reducir la cantidad de entrenamiento (brutforce) en varias veces. En el trabajo real, también llevamos a cabo una selección similar, y los datos, donde es mejor no ir a la NS simplemente no conseguir.
Bueno, todos estos son casos artificiales, en otra situación estas condiciones se cumplirán exactamente al revés
La evaluación de los expertos se añade en forma de priores de una manera u otra, si es adecuada, de lo contrario, ¿qué sentido tiene?
Pues bien, todos estos son casos artificiales, en otra situación estas condiciones se cumplirían exactamente al revés
Así es como trabajo. No enseño a la NS ninguna tontería, prefiltro el bazar. ¿Por qué cargar el NS, si puedo determinarlo sin él? La NS es más fácil, los recursos se liberan para tareas más sutiles, el tiempo de formación, si no se reduce, sí aumenta la calidad de la misma.
Quiero probar adicionalmente el pre-entrenamiento en artificial a la señal de mercado. Es el siguiente paso en esta dirección. Ya escribí antes.
Así es como trabajo. No enseño a los NS ninguna tontería, filtro las tonterías de antemano. ¿Por qué cargar con la NS cuando puedo identificarla sin ella? La NS es más fácil, los recursos se liberan para tareas más sutiles, el tiempo de formación, si no se reduce, sí aumenta la calidad de la misma.
Quiero probar adicionalmente el pre-entrenamiento en artificial a la señal de mercado. Es el siguiente paso en esta dirección. Ya escribí antes.
De nuevo, estamos hablando de enfoques diferentes
Tú te entrenas con un profesor, porque inicialmente utilizas los antecedentes, yo me entreno sin él.
De nuevo, estamos hablando de enfoques diferentes
Tú te entrenas con un profesor porque empiezas desde el principio, yo me entreno sin profesor.
Sin un profesor se puede hacer lo mismo. No veo la diferencia.
Imagina un montón de neuronas aprendiendo y resolviendo un problema que se resuelve con un par o tres sentencias if. Los cerebros de los NS están llenos de esta mierda, y en vez de pensar en cosas bonitas....))