Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 392
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Esto es NS trabajando fuera de la muestra en el precio de la señal
Y esta es la entrada por 0.00050 pips mejor que la señal.
Las ofertas son más pequeñas, pero el id de la curva es mucho mejor y hay una salida en la señal, no 50 pips mejor. Esto significa que en este caso la curva será aún mejor. Esa es la ventaja de las estadísticas para ti....
¿Qué significa? ¿Un enlace a JPrediction?
Literalmente, sí.
Literalmente, sí.
Te lo he enviado en un mensaje privado.
El resultado final. Ayuda para ejecutar JPrediction en GPU??????
Debería reescribirlo en mql primero, no es necesario en un programa separado, no es conveniente
Lo he copiado en el mensaje personal.
Gracias
Bueno, tenemos que reescribirlo en mql primero, no es necesario un programa separado, no es conveniente
Ver
De esta manera, el código en MQL5 será la salida. En este caso, puede iniciarlo en su máquina virtual y el resultado será un código para MQL5. Lo principal es aprender a ejecutarlo en el widget. Incluso un incremento de 20 veces será un éxito. IMHO
Así, el resultado es el código en MQL5. Lleva tiempo reescribirlo, pero de esta manera puedes ejecutarlo en una tarjeta de video y el resultado será el código para MQL5. Lo principal es aprender a ejecutarlo en el widget. Incluso un incremento de 20 veces será un éxito. IMHO
Es extraño que el autor ya no apoye el sitio. Tengo entendido que el desarrollo ha pasado a la clandestinidad durante algún tiempo.
Y el paralelismo en la gpu es lo primero que debe pensar una persona que trabaja con redes neuronales)
Me pregunto por qué el autor ya no apoya el sitio, tengo entendido que el desarrollo ha pasado a la clandestinidad durante algún tiempo.
Y el paralelismo en la gpu es lo primero, en lo que debe pensar una persona que trabaja con redes neuronales)
Bueno después de la versión 3 apareció el paralelismo, justo en ese momento escribí sobre ello, sería bueno paralelizar. Tal y como yo lo entiendo, el programa retuerce los datos tanto a lo largo como a lo ancho. Dividir aleatoriamente durante 100 veces, y en cada división, entrenar durante 1000 épocas. En fin, la cosa va así. En otras palabras, el punto era ON/OFF. Lo apoyó pero en otro sitio, y luego como desapareció. Creo que tal vez estaba enfermo o algo así. Pero como desapareció tan repentinamente, creo que su regreso no está previsto. Dado que una vez dijo que pronto se iría, pero a dónde. Sólo se puede adivinar y utilizar lo que tenemos, por desgracia :-(
Pero la última versión del predictor también es bastante viable. Aquí está el resultado de trabajar desde el 05.22 hasta el día de hoy con 0.00050 pips mejor que el precio de la señal. Me parece que es bastante factible.
Bueno, después de la versión 3 apareció el paralelismo, justo en ese momento le escribí sobre ello, que sería bueno paralelizar. Tal y como yo lo entiendo, el programa retuerce los datos tanto a lo largo como a lo ancho. Dividir aleatoriamente durante 100 veces, y en cada división, entrenar durante 1000 épocas. En fin, la cosa va así. En otras palabras, el punto era ON/OFF. Lo apoyó pero en otro sitio, y luego como desapareció. Creo que tal vez estaba enfermo o algo así. Pero como desapareció tan repentinamente, creo que su regreso no está previsto. Dado que una vez dijo que pronto se iría, pero a dónde. Sólo se puede adivinar y utilizar lo que tenemos, por desgracia :-(
sí, en general se tarda mucho en contar por gestos, en el estudio los árboles de decisión se contaban al instante, pero vamos a ver qué tipo de error será, incluso es interesante comparar modelos... ¿tiene algún sentido?