Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 494
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Lea las redes neuronales de Heikin y la teoría de Bishop en inglés - no hay traducción, pero parece que está por llegar.
Es muy sencillo. Operaciones aleatorias de entrada y resultados de salida. Se llama método Monte Carlo y no es muy rápido en sí mismo. Y la sistematización es una tarea del Sistema Nacional.
Bueno, ¿hay un nombre especial para la NS? Como una red neuronal de recocido estocástico de tipo desconocido, ya sea con o sin maestro, y optimizando las entradas en lugar de las salidas :)) leeré algunos libros,
Heikin "NS Complete Course Second Edition" está disponible en ruso.
Bueno, ¿hay un nombre especial para la propia NS? Como una red neuronal de recocido estocástico de aprendizaje poco claro con o sin maestro, y optimizando las entradas en lugar de las salidas :))) Leeré libros,
Haikin "NS Complete Course Second Edition" está disponible en ruso
Heikin es, Bishop no está disponible en ruso.
El NS es el MLP habitual, el entrenamiento es el BP habitual, sólo que con reajustes manuales regulares a lo largo del camino. Si no se hacen estos reajustes, o sólo se baraja la muestra, aprende muy rápido, pero funciona bien sólo en secuencias de aprendizaje.
Heikin está ahí, Bishop no está disponible en ruso.
El NS es el MLP habitual, el entrenamiento es el BP habitual, sólo que con reajustes manuales regulares a medida que se avanza. Si no haces esos reajustes o simplemente barajas la muestra, aprende muy rápido, pero funciona bien (incluso perfectamente)) sólo en la secuencia de aprendizaje.
Por ahora me conformaré con el trabajo de Haykin. Siempre me he limitado a los artículos y a las descripciones de los modelos, los libros contienen muchas cosas innecesarias (para tener suficiente volumen para vender).
Y lo de Haykin es material antiguo :) de momento me conformaré, siempre me he limitado a artículos y descripciones de modelos, los libros tienen mucho material extra (para tener un volumen que vender)
Declaración falsa. Los bosques y los impulsos no se diferencian de los NS en la extrapolación.
Todos los artículos que encuentro dicen lo mismo
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
La extrapolación es difícil para los árboles. - Las estadísticas de Peter
http://ellisp.github.io/blog/2016/12/10/extrapolation
Random Forest no puede predecir fuera de los datos de entrenamiento
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
La regresión del bosque aleatorio no predice más que los datos de entrenamiento
Todos los artículos que encuentro dicen lo mismo
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
La extrapolación es difícil para los árboles. - Las estadísticas de Peter
http://ellisp.github.io/blog/2016/12/10/extrapolation
Random Forest no puede predecir fuera de los datos de entrenamiento
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
La regresión del bosque aleatorio no predice más que los datos de entrenamiento
La basura la escribe la gente sin educación. No han oído hablar del sobreentrenamiento, no tienen ni idea de datamining, no han oído hablar de los predictores de ruido y no son buenos en la estimación de modelos. No son más que una especie de snobs inmaduros que juegan a ser intelectuales.
La basura la escribe la gente sin educación. No han oído hablar del reentrenamiento, no tienen ningún concepto de la minería de datos, no han oído hablar de los predictores de ruido y no son buenos en la estimación de modelos. Es el tipo de snobs exagerados que juegan con la mente.
¿Qué tiene que ver todo esto con la extrapolación...
¿los que escribieron RF en la biblioteca alglib también son gente inculta?
y los blogueros de r también son patéticos, aparentemente
https://www.r-bloggers.com/extrapolation-is-tough-for-trees/
Todo el mundo es un perdedor excepto el FA.
sólo se les ha enseñado a los FA.
;))
Todo el mundo es un perdedor excepto el FA.
sólo se les ha enseñado a los FA.
;))
Así es como la gente utiliza la RF sin entender los principios, y luego dicen que no funciona. Del último artículo se desprende que la RF no puede extrapolar, por lo que sólo debería funcionar con datos conocidos.
Ay, pero se equivocan y es normal no sólo para los "ignorantes" y snobs, recuerden a Minsky y su autorizada opinión sobre la "inutilidad" de los perseptrones multicapa))
De los artículos de hubra no hablo, es lo mismo que la basura de los foros, 99,9% de publicidad nuchpop y 0,1% de pensamientos sensatos de forma implícita "entre líneas".el hombre dio un ejemplo en R, ¿en qué lugar se equivocó? desafortunadamente no uso R, pero puedo incluso reproducirlo yo mismo