Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 630
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
No voy a afirmarlo, pero me parece que son ilusiones. Sólo por razones generales.
Por qué, Vladimir Perevenko tiene información en sus artículos, se entrenan muy rápido en cientos de entradas
No he leído los artículos y no voy a discutir. Sólo he visto fotos).
El MLP, por ejemplo, puede ser entrenado perfectamente en 10-15 minutos y funcionará perfectamente. Sí, pero eso es si los datos están bien clasificados, los conjuntos están separados.
Si no hay conjuntos separables en el mercado (o en tus muestras de entrenamiento), entonces puedes entrenar lo que quieras siempre y no habrá resultados.
Por qué, Vladimir Perevenko tiene información en sus artículos, aprenden muy rápido en cientos de entradas
Todo depende de la arquitectura y la cantidad de datos.
Las redes de reconocimiento de patrones aprenden durante una semana en la GPU. Y hay docenas de capas con tensores tridimensionales.
Todo depende de la arquitectura y la cantidad de datos.
Las redes de reconocimiento de patrones tardan una semana en aprenderse en una GPU. Hay decenas de capas con tensores tridimensionales.
allí describió las más sencillas - red Boltzmann + MLP, por ejemplo
https://www.mql5.com/ru/articles/1103#2_2_2
No he leído los artículos y no voy a discutir. Sólo he visto fotos).
El MLP, por ejemplo, puede ser entrenado perfectamente en 10-15 minutos y funcionará perfectamente. Sí, pero eso es si los datos están bien clasificados, los conjuntos están separados.
Si en el mercado (o en tus muestras de entrenamiento) simplemente no hay conjuntos separables, entonces puedes entrenar lo que quieras siempre y no habrá resultados.
Realicemos simplemente un experimento en aras del "conocimiento científico".
Elijamos los datos, las dimensiones, la arquitectura MLP y los datos de salida.
Y cada uno hará sus propias pruebas con sus propias herramientas.
La cantidad de llamas será menor.
Por cierto, podemos hacer una tradición de este tipo y probar cada nueva arquitectura con todo el mundo. =)
Hagamos un experimento en aras del "conocimiento científico".
Elijamos los datos, las dimensiones, la arquitectura MLP, la salida.
Y cada uno hará sus propias pruebas con sus propias herramientas.
La cantidad de llamas será menor.
Por cierto, podemos hacer una tradición de este tipo y probar cada nueva arquitectura con todo el mundo. =)
Comparto los primeros resultados de mi NS. La arquitectura es la misma que se describe en el dios, no he cambiado nada.
La meseta es bastante uniforme, el NS ha aprendido bien ya a los 1000 pases, los resultados no han mejorado mucho más.
He estado estudiando durante 15 minutos el mes pasado. He gastado ~0,65 $ en formación. Mi número mensual de ofertas es de ~300.
Los resultados de los dos meses anteriores no son malos, pero tampoco demasiado.
Intentaré añadir una capa oculta más y buscaré más errores :) y luego intentaré entrenar durante más tiempo.
Maxim Dmitrievsky:
Por qué, Vladimir Perervenko tiene información en sus artículos, aprenden muy rápido en cientos de entradas
Todos los artículos contienen conjuntos de datos y scripts que puedes reproducir y obtener datos reales sobre el tiempo de aprendizaje específicamente en tu hardware. El tiempo de entrenamiento de la DNN con dos capas ocultas es de hasta 1 minuto.
Buena suerte
Hagamos un experimento en aras del "conocimiento científico".
Elijamos los datos, las dimensiones, la arquitectura MLP, la salida.
Y cada uno hará sus propias pruebas con sus propias herramientas.
La cantidad de llamas será menor.
Por cierto, podemos hacer una tradición de este tipo y probar cada nueva arquitectura con todo el mundo. =)
Comparto los primeros resultados de mi NS. La arquitectura es la misma que se describe en el dios, no he cambiado nada.
La meseta es bastante uniforme, el NS ha aprendido bien ya a los 1000 pases, los resultados no han mejorado mucho más.
He estado estudiando durante 15 minutos el mes pasado. He gastado ~0,65 $ en formación. Mi número mensual de ofertas es de ~300.
Los resultados de los dos meses anteriores no son malos, pero tampoco demasiado.
Intentaré añadir una capa oculta más y buscaré más errores :) y luego intentaré entrenar durante más tiempo.
¿Tiene tres neuronas en la entrada de la segunda capa procesada por sigmoide? Cómo se ajustan los pesos en la segunda capa que se elige de -1 a 1 en pasos de 0,1 por ejemplo.
En mi red, después de procesar la segunda capa , el número de acuerdos cayó y mis resultados no mejoraron mucho. Esto es diferente de ajustar un perceptrón con 9 entradas y una neurona de salida y luego tomar otro perceptrón independiente y ajustarlo de nuevo con los ajustes guardados del primero, etc.