Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1978

 
Maxim Dmitrievsky:

Funciona mejor, pero es mucho más difícil ) si el RL está atornillado también.

En general, las redes de retropropagación convencionales como la mlp no son adecuadas para las series temporales, en absoluto. Como mínimo necesita RNN

Son buenos para la estacionaria) La lógica simple para lo simple sólo funciona. Para los rangos reales, se necesita un algoritmo complejo).

 
Valeriy Yastremskiy:

Para los estacionarios son buenos) La lógica simple para lo simple sólo funciona. Para las series reales se necesita un cerebro complejo).

Cualquier serie no estacionaria puede representarse como una suma de estacionarias de longitud arbitraria. Pero la longitud arbitraria es un gran problema en el problema de la previsión.

 
Valeriy Yastremskiy:

Cualquier serie no estacionaria puede representarse como una suma de series estacionarias de longitud arbitraria. La longitud arbitraria es un gran problema en el problema de la predicción.

Es un gran error de concepto.

 
Valeriy Yastremskiy:

Para los estacionarios son buenos) La lógica simple para lo simple sólo funciona. Para las series del mundo real, se necesita un cerebro complejo)

depende de la relación señal-ruido. En algún momento dejan de funcionar, porque no tienen en cuenta la no oscuridad.

A grandes rasgos, la regularidad desaparece en las series ruidosas (bucles evidentes), pero se conserva la desmarcación (si el proceso es con memoria). El mlp normal no lo coge, sólo el RNN.

de ahí que mlp, boosting, forest, etc. sólo sean para procesos markovianos sin memoria.

Ejemplo con la lengua: toda lengua tiene un cierto nivel de entropía, es decir, la alternancia de palabras en la lengua. En un nivel alto, el discurso se vuelve incoherente, por ejemplo, si hay muchas palabras parásitas, o si sólo es Peter Konov. Entonces, sólo puede captarlo por el contexto, lo que requiere la memoria de frases pasadas (patrones).

Por ejemplo, lees mi frase y no sabes quién es Pedro ni en qué contexto la he escrito. No tienes memoria de los acontecimientos pasados y no puedes relacionarlos con la redacción actual, por lo que sacas conclusiones erróneas.

 
Maxim Dmitrievsky:

depende de la relación señal-ruido. En algún momento dejan de funcionar, porque no tienen en cuenta la no oscuridad.

A grandes rasgos, en las filas ruidosas, la regularidad desaparece (ciclos obvios), pero se conserva la no-marcha (si el proceso es con memoria). El mlp normal no lo coge, sólo el RNN.

de ahí que mlp, boosting, forest, etc. sólo sean para procesos markovianos sin memoria.

Ejemplo con el lenguaje: toda lengua tiene un cierto nivel de entropía, es decir, la alternancia de palabras en la lengua. En un nivel alto, el discurso se vuelve incoherente, por ejemplo, si hay muchas palabras parásitas, o si sólo es Peter Konov. Entonces, sólo puede captarlo por el contexto, lo que requiere la memoria de frases pasadas (patrones).

Por ejemplo, lees mi frase y no sabes quién es Pedro ni en qué contexto la he escrito. No tiene memoria de los acontecimientos pasados y no puede relacionarlos con la redacción actual, por lo que sacará conclusiones erróneas.

La relación señal/ruido es, por supuesto, determinante. En el caso del ruido fuerte, las regularidades débiles se perderán, simplemente no se podrán ver. Pero en el caso de las series de precios, el ruido no se crea desde el exterior. El ruido es una regularidad que se desvanece o es débil, aunque sea fuerte. Sin embargo, no cambia la esencia. Las regularidades que se pueden detectar y el resto es ruido.

 
Oleg avtomat:

Este es un gran error de concepto.

Ciertamente, no para cualquiera en el sentido pleno de la palabra cualquiera. El ruido blanco no se incluye aquí, pero tampoco lo consideramos. Inicialmente una serie se compone de diferentes regularidades, y tienen diferentes amplitudes y longitudes, por lo que tenemos una serie con ruido y regularidades en ella.

 
Valeriy Yastremskiy:

La relación señal/ruido es, por supuesto, el factor determinante. Si hay mucho ruido, las regularidades débiles se pierden, simplemente no se ven. Pero en el caso de las series de precios, el ruido no se crea externamente. El ruido es una regularidad que se desvanece o es débil, aunque sea fuerte. Sin embargo, esto no cambia la esencia. Los patrones que se pueden detectar y el resto es ruido.

Si el ruido es mayor que la señal, siempre está sobrealimentado o infraalimentado (cuando se utiliza el muestreo de validación). Porque no hay patrones estables.

y cuando hay mucho ruido y pocos patrones, entonces trata de aislar la señal.

es muy difícil entender por qué una secuencia de patrones ruidosos contiene una señal pero un patrón no. Podemos simplemente aumentar el número de características (historia que se alimenta). Pero no, no funciona así. El ruido sobre el ruido produce ruido. Requiere una extracción de contexto más sutil, allí funciona por alguna razón. Magia, en una palabra.

 
Maxim Dmitrievsky:

Pues bien, cuando el ruido es mayor que la señal, siempre es un sobreajuste o un infraajuste (cuando se utiliza el muestreo de validación). Porque no hay patrones estables.

pero cuando hay mucho ruido y pocos patrones, se intenta aislar la señal

Bueno, ese es el objetivo de todas las búsquedas en todos los temas probabilísticos, aislar un patrón y atrapar el momento en que desaparece. Y suele ser menos problemático y costoso de aislar).

 
Maxim Dmitrievsky:


amable y gentil ))))

 
Valeriy Yastremskiy:

amablemente afectuoso polite))))

Estoy haciendo un registro completo, te dirá lo que está haciendo.

para que podamos saber qué mejorar