Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2828

 
Maxim Dmitrievsky #:
Los artículos son de primera, simplemente no calificado para objetar nada :)

gracias))))

entonces veo la necesidad de incluir algoritmos tradicionalmente utilizados con las neuronas en la revisión también.

 
Andrey Dik #:

En la práctica, esto significa que la neurona estará poco entrenada.

Bueno, eso es una idea un poco tardía.

hay diferentes tipos de AO, optimización local y optimización global...

local es gradientes, el mismo Adam, etc... global es genética, etc...

las redes se entrenan con AO local porque es rápido, "hay muchos pesos".

y simplemente no es efectivo entrenar AO global...


Y lo principal es que si entrenas una neurona normal, que son unos mil millones de pesos, con AO global, en primer lugar, tendrás que esperar mucho tiempo, y en segundo lugar, no puedes garantizar de ninguna manera que hayas encontrado un mínimo global....

Así que toda esta parrafada es una profanación de agua pura, SUPER ingenua creencia de que los que crearon el deep learning no saben de algoritmos de optimización global y sus propiedades, es tan obvio que no tiene ni gracia....


Aprenderás a distinguir los algoritmos de optimización global de los algoritmos de optimización local, y luego hay optimización discreta, optimización continua, optimización multicriterio, etc....

Y cada uno de ellos tiene sus propias tareas, amontonar todo en un montón y probar algo es una profanación.

 
mytarmailS #:

Bueno, eso es un poco a posteriori.

hay diferentes tipos de AO, optimización local y optimización global...

local es gradientes, el mismo adam, etc. global es genetica, etc...

las redes se entrenan localmente porque es rápido, "hay muchas escalas".

y simplemente no es eficiente entrenar OAs globales...


Y lo principal es que si entrenas una neurona normal, que tiene unos mil millones de pesos, con AO global, en primer lugar, tendrás que esperar mucho tiempo, y en segundo lugar, no puedes garantizar de ninguna manera que has encontrado el mínimo global....

Así que todo este rollo es una profanación del agua pura, SUPER ingenua creencia de que los que crearon el deep learning no saben de algoritmos de optimización global y sus propiedades, es tan obvio que ni siquiera tiene gracia....

Es horrible

no hay división de algoritmos en "locales" y "globales". si un algoritmo se queda atascado en uno de los extremos locales, es un fallo, no una característica.

Hay comparaciones muy especializadas de AOs tradicionales para neuronas, puedes buscarlas. los algoritmos suelen usarse para tareas específicas, pero todos los algoritmos sin excepción pueden compararse en términos de calidad de convergencia.

 
Andrey Dik #:

gracias)))

entonces veo la necesidad de incluir también en la revisión los algoritmos utilizados tradicionalmente con las neuronas.

Una vez leí que si el error no cambia mucho durante varios ciclos, es decir, está alrededor de un extremo, entonces para comprobar si es local, se hace un salto fuerte en los parámetros para saltar fuera de este extremo. Si es local, no volverá a él en los siguientes saltos, si es global, volverá. Se puede repetir varias veces. En general, es necesario explorar el espacio más ampliamente.
 
Andrey Dik #:

Eso es terrible.

no existe una división de los algoritmos en "locales" y "globales". si un algoritmo se atasca en uno de los extremos locales, es un defecto, no una característica.

Se usan algoritmos de descenso gradiente, que es en general, no para neuronas, y que tiene una barba enorme. Búscalo en Google y no hagas preguntas infantiles, habiendo aprendido cómo el descenso gradiente supera distintos tipos de trampas de extremos locales. Esto es algo que la gente lleva haciendo específicamente desde hace años.

 
elibrarius #:
Una vez leí que si el error no cambia mucho durante unos ciclos, es decir, gira alrededor de un extremo, entonces para comprobar si es local, se hace un salto fuerte en los parámetros para saltar fuera de este extremo. Si es local, no volverá a él en los siguientes saltos, si es global, volverá. Se puede repetir varias veces. En general, hay que explorar el espacio más ampliamente.
Sí, así es. Es una forma de intentar no quedarse atascado. Por cierto, el otro día estuve mirando el vuelo de Levi, es de este tema.
 
He aquí una comparación interesante, por ejemplo, Adán vs genética o colonia de hormigas, por ejemplo. Un trader puede tener un dilema: qué usar, el optimizador MT5 o NS. Incluso si él elige algo, él querrá tomar el algoritmo más eficiente
 
Andrey Dik #:

Eso es terrible.

no hay división de algoritmos en "locales" y "globales". si un algoritmo se queda atascado en uno de los extremos locales, es un defecto, no una característica.

existen comparaciones muy especializadas de los OA tradicionales para las neuronas, puede buscarlas. los algoritmos suelen utilizarse para tareas específicas, pero todos los algoritmos sin excepción pueden compararse en términos de calidad de convergencia.

Bueno son todos 5 )))))))))

¿Fuiste a la misma universidad que Maximka?

 
Desde luego no en una ptu o con valores liberales.
 
СанСаныч Фоменко #:

Usamos algoritmos de descenso de gradiente, que es en general, no para las neuronas, y que tiene una barba enorme. Lo buscamos en Google y no hacemos preguntas infantiles, habiendo aprendido cómo el descenso gradiente supera diferentes tipos de trampas de extremos locales. Esto es algo que la gente ha estado haciendo específicamente durante años.

Se te ha pedido que pruebes el aprendizaje/optimización en algunas funciones representativas, esto es una buena práctica

Si crees que las redes neuronales lo hacen perfectamente, probablemente estés equivocado.