Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2828
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Los artículos son de primera, simplemente no calificado para objetar nada :)
gracias))))
entonces veo la necesidad de incluir algoritmos tradicionalmente utilizados con las neuronas en la revisión también.
En la práctica, esto significa que la neurona estará poco entrenada.
Bueno, eso es una idea un poco tardía.
hay diferentes tipos de AO, optimización local y optimización global...
local es gradientes, el mismo Adam, etc... global es genética, etc...
las redes se entrenan con AO local porque es rápido, "hay muchos pesos".
y simplemente no es efectivo entrenar AO global...
Y lo principal es que si entrenas una neurona normal, que son unos mil millones de pesos, con AO global, en primer lugar, tendrás que esperar mucho tiempo, y en segundo lugar, no puedes garantizar de ninguna manera que hayas encontrado un mínimo global....
Así que toda esta parrafada es una profanación de agua pura, SUPER ingenua creencia de que los que crearon el deep learning no saben de algoritmos de optimización global y sus propiedades, es tan obvio que no tiene ni gracia....
Aprenderás a distinguir los algoritmos de optimización global de los algoritmos de optimización local, y luego hay optimización discreta, optimización continua, optimización multicriterio, etc....
Y cada uno de ellos tiene sus propias tareas, amontonar todo en un montón y probar algo es una profanación.
Bueno, eso es un poco a posteriori.
hay diferentes tipos de AO, optimización local y optimización global...
local es gradientes, el mismo adam, etc. global es genetica, etc...
las redes se entrenan localmente porque es rápido, "hay muchas escalas".
y simplemente no es eficiente entrenar OAs globales...
Y lo principal es que si entrenas una neurona normal, que tiene unos mil millones de pesos, con AO global, en primer lugar, tendrás que esperar mucho tiempo, y en segundo lugar, no puedes garantizar de ninguna manera que has encontrado el mínimo global....
Así que todo este rollo es una profanación del agua pura, SUPER ingenua creencia de que los que crearon el deep learning no saben de algoritmos de optimización global y sus propiedades, es tan obvio que ni siquiera tiene gracia....
Es horrible
no hay división de algoritmos en "locales" y "globales". si un algoritmo se queda atascado en uno de los extremos locales, es un fallo, no una característica.
Hay comparaciones muy especializadas de AOs tradicionales para neuronas, puedes buscarlas. los algoritmos suelen usarse para tareas específicas, pero todos los algoritmos sin excepción pueden compararse en términos de calidad de convergencia.
gracias)))
entonces veo la necesidad de incluir también en la revisión los algoritmos utilizados tradicionalmente con las neuronas.
Eso es terrible.
no existe una división de los algoritmos en "locales" y "globales". si un algoritmo se atasca en uno de los extremos locales, es un defecto, no una característica.
Se usan algoritmos de descenso gradiente, que es en general, no para neuronas, y que tiene una barba enorme. Búscalo en Google y no hagas preguntas infantiles, habiendo aprendido cómo el descenso gradiente supera distintos tipos de trampas de extremos locales. Esto es algo que la gente lleva haciendo específicamente desde hace años.
Una vez leí que si el error no cambia mucho durante unos ciclos, es decir, gira alrededor de un extremo, entonces para comprobar si es local, se hace un salto fuerte en los parámetros para saltar fuera de este extremo. Si es local, no volverá a él en los siguientes saltos, si es global, volverá. Se puede repetir varias veces. En general, hay que explorar el espacio más ampliamente.
Eso es terrible.
no hay división de algoritmos en "locales" y "globales". si un algoritmo se queda atascado en uno de los extremos locales, es un defecto, no una característica.
existen comparaciones muy especializadas de los OA tradicionales para las neuronas, puede buscarlas. los algoritmos suelen utilizarse para tareas específicas, pero todos los algoritmos sin excepción pueden compararse en términos de calidad de convergencia.
Bueno son todos 5 )))))))))
¿Fuiste a la misma universidad que Maximka?
Usamos algoritmos de descenso de gradiente, que es en general, no para las neuronas, y que tiene una barba enorme. Lo buscamos en Google y no hacemos preguntas infantiles, habiendo aprendido cómo el descenso gradiente supera diferentes tipos de trampas de extremos locales. Esto es algo que la gente ha estado haciendo específicamente durante años.
Se te ha pedido que pruebes el aprendizaje/optimización en algunas funciones representativas, esto es una buena práctica
Si crees que las redes neuronales lo hacen perfectamente, probablemente estés equivocado.