Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 556
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Sobreajuste - Ocurre en presencia de grandes pesos (~10^18), una consecuencia de la multicolinealidad, que conduce a un modelo inestable A(x, w).
El sobreentrenamiento se trata mediante: la detención temprana del aprendizaje del modelo, la limitación del crecimiento de los pesos (regularización L1(Lasso) y L2), la limitación de los vínculos en la red (Dropout), también la posible aplicación de funciones de penalización (ElacticNet, Lasso).
Y la regularización L1 conduce a la selección de características, ya que se centra en sus coeficientes de peso.
La eliminación de rasgos "ruidosos" es la selección de rasgos. Existen métodos para ello. Esto no siempre beneficia al modelo, por lo que a veces se utiliza la regularización L2 (ayuda a resolver el problema de la multicolinealidad).
SanSanych Fomenko, su afirmación sobre la relación de las características y los objetivos es un poco presuntuosa. Porque cómo se puede afirmar algo que aún no se ha demostrado; para eso está construido el modelo MO. Un modelo construido y que funciona da una estimación de cuál es la relación con "tal o cual" precisión.
Y el ejemplo de los pantalones y las faldas, muestra la escasez de conocimientos del investigador sobre la zona de estudio, porque en ese modelo se desechan atributos valiosos sobre el lugar de residencia, la época del año, la latitud y la longitud de la región de residencia, etc.
Mi ejemplo es un caso degenerado, pensamiento puro, clasificación sin error. En la economía no existen estas características, pero en la genética, si no es el 100%, es posible un poco menos.
Ahora sobre la regularización.
Sin duda.
Pero la coherencia es importante.
En primer lugar, siempre, la selección de rasgos basada en la "relación" con el objetivo. Si en los mercados de valores, basado en las relaciones económicas.
Esto es siempre lo primero y luego todo lo demás.
Tengo un TS que funciona con rf. Selecciono 27 predictores de entre varios cientos de atributos utilizando la "relación". Luego selecciono entre 27 con algoritmo estándar en cada barra (H1), quedan de 5 a 15, siempre son diferentes. Limito el número de árboles, 100 es mucho, 50 no es suficiente, el error a 50 no se estabiliza.
Se trata de una experiencia concreta. El error de clasificación de ZZ es ligeramente inferior al 30%. No hay forma de reducir - se necesitan otros predictores, y no hay ideas en los predictores.
Dado que tiene tantos parámetros a la vez para la entrada, entonces está claro a qué se refiere.
En ese caso, el reciclaje es algo secundario aquí, que es probablemente lo que me llamó la atención. Está más cerca de "facilitar" los cálculos.
Al tener tantos parámetros a la vez para la entrada, está claro lo que quieres decir.
En ese caso el sobreajuste es algo secundario aquí, que es probablemente lo que me llamó la atención. Está más cerca de la "flexibilización" de los cálculos.
¿Por qué secundaria?
¿Qué es lo principal?
¿Qué puede dar más miedo que el exceso de ajuste?
¿Por qué secundaria?
¿Qué es lo principal?
¿Qué puede dar más miedo que el sobreentrenamiento (sobreajuste)?
Por eso digo que en la cuestión planteada, el sobreentrenamiento es secundario.
Aunque lo has señalado correctamente, debería haber dicho: "La selección de parámetros es secundaria a la reconversión, y merece la pena considerar la cuestión con más detalle a partir de ahí".
https://habrahabr.ru/post/345950/
resulta que la simple NS más allá de los límites de la muestra de entrenamiento funciona bastante mal (va a una constante hiperb. tangente)... en el caso de la regresión, es decir, no mucho mejor que la RF
artículo muy ilustrativo
https://habrahabr.ru/post/322438/
resulta que la simple NS más allá de los límites de la muestra de entrenamiento funciona bastante mal (va a una constante hiperb. tangente)... en el caso de la regresión, es decir, no mucho mejor que la RF
artículo muy ilustrativo
https://habrahabr.ru/post/322438/
Léalo con calma.
https://habrahabr.ru/post/345950/
IMHO es un artículo inútil, mala traducción, o soy un mal lector, pero para mí parece un amontonamiento trivial de ideas obsoletas y tristemente, es otra confirmación de la crisis del deep learning como tecnología de punta, incluso el verdadero padre de esta dirección Jeffrey Hinton en sus artículos sobre redes neuronales capsulares ha estado hablando de ello últimamente.
Sin embargo, respeto a Uber Taxi...)
Artículo útil e informativo, sin pretensiones de novedad, pero con un buen sentido práctico.
Por eso es fácil confundirse, digamos que estábamos usando lineal o regresión y todo estaba bien, y luego decidimos cambiar a MLP para las mismas tareas... y ni modo :)
Por eso todo el mundo prefiere utilizar la clasificación, aunque la regresión es buena para hacer pronósticos :)
Incluso diría que para las tendencias es más adecuada la lineal o la regresión, y para las planas - MLP.
El ejercicio con el garch ha producido un patrón sorprendente.
Este es el cociente EURCAD
Y aquí está la autocorrelación de los incrementos absolutos
¡Increíble regularidad!
1. ¿Qué significa?
2. ¿Cómo se puede utilizar esta regularidad?
PS.
No todos los pares de divisas tienen esta visión.
Aquí está el USDJPY