Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2829

 
Maxim Dmitrievsky #:

Se le ha sugerido que pruebe el aprendizaje/optimización en algunas funciones representativas, lo cual es una buena práctica.

Si cree que las redes neuronales lo hacen a la perfección, probablemente esté equivocado.

si... francamente hablando, me sorprende que no todo el mundo haya percibido adecuadamente verdades simples - todo debe ser probado, y la creencia en dogmas expresados por alguien significa estancamiento y degradación.

y el descenso gradiente y el bekprop son métodos tan antiguos y miserables que es extraño que todavía puedan ser tomados en serio por algunas personas.

por cierto, la genética no es el algoritmo más robusto hoy en día. debería incluirse en la tabla para... bueno, solo para dejar claro que siempre se puede mejorar.

 
Andrey Dik #:

Sí... francamente, me sorprende que no todo el mundo haya percibido adecuadamente verdades sencillas: todo debe comprobarse, y creer en dogmas enunciados por alguien significa estancamiento y degradación.

y el descenso por gradiente y el bekprop son métodos tan antiguos y miserables que es extraño que todavía puedan ser tomados en serio por alguien.

La percepción allí es específica, al nivel del kargo-culto y de la creencia en la R divina, que trae los dones de la civilización.

 

Por un lado, el aprendizaje es un caso especial de optimización, pero, por otro, presenta algunas peculiaridades.

1) La optimización en MO suele implicar intrínsecamente la optimización en un espacio de funciones de dimensión infinita. Esto se produce de forma explícita(gradient bousting, por ejemplo), pero también puede ser implícita. Esto da lugar a una flexibilidad increíble de los modelos, pero se pierde la claridad y simplicidad que se encuentra en la optimización finito-dimensional. Por ejemplo, cualquier extremo de un subespacio de dimensión finita puede resultar ser un punto de silla en un subespacio de mayor dimensionalidad (que puede ser tan alta como se desee).

2) Se utiliza un conjunto finito de funciones de pérdida de buen comportamiento. Esto evita los problemas derivados del primer punto. Pero si se quiere personalizar la función de pérdida, será imposible o muy difícil.

 
Aleksey Nikolayev #:

Por un lado, aprender...

Alexei, ¿sabes algo sobre la optimización de una función ruidosa?
 
Existe una búsqueda completa y una optimización. Es necesaria para reducir el tiempo necesario para encontrar una solución óptima. Como es así, siempre es un compromiso. Se puede optimizar con el método del gradiente estocástico y obtener un resultado mejor que con adam, pero sacrificando tiempo. Y hay que elegir. Para algunas tareas, la precisión puede ser más importante que la velocidad, por ejemplo, para aumentar la expectativa de TC.
Aquí es interesante observar los resultados visuales.
 
Andrey Dik #:

Eso es terrible.

El horror es que una persona viene a los artículos sobre la optimización y no conocer el tema, incluso en un 20%, por lo que no reconoce el conocimiento común y se sorprende por ello....

El horror es que personas con aún menos cualificación se metan pus en la cabeza, considerándolo como conocimiento de gurús, el resultado es una manada de lisiados intelectuales ....


Y todo tipo de no gurús felizmente de acuerdo, porque ya están lisiados y verter pus a sí mismos llamando a sus artículos egos....

¡¡¡ese es el verdadero horror!!!

 
Deberías masticarte los mocos antes de soltar discursos patéticos, ptuschik.

No es tan bueno.
 
mytarmailS #:

El horror es que una persona llegue a artículos sobre optimización y no conozca el tema ni un 20%, por lo que no reconoce el conocimiento común y se sorprende por ello....

El horror es que gente con menos cualificación aún se metan pus en la cabeza, lo consideren conocimiento de gurús, el resultado es una manada de lisiados intelectuales....

mejor te callas, parecerás mucho más inteligente o al menos mejor educado.
 
todos mis mocos ya están sobre ti, descerebrado calzonazos )) ahahh
 
Andrey Dik #:
será mejor que te calles, parecerás mucho más inteligente o al menos mejor educado.

¡¡¡¡Deberías estudiar la base de datos BASE!!!!

Qué es optimización local, optimización global, tipos de funciones, tipos de optimización, tipos de optimización, qué tipo de optimización aplicar a qué función, etc....

Optimización discreta, optimización continua, multicriterio, etc... cuál es la diferencia, cuál es la finalidad, dónde aplicar una y no aplicar otra....

¡¡¡No sabes las cosas básicas!!!

Por qué me voy a callar si tengo algo que decir sobre el tema, no soy una persona no estúpida que sólo quiere decir algo.