Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 494

 
Yuriy Asaulenko:

Lea las redes neuronales de Heikin y la teoría de Bishop en inglés - no hay traducción, pero parece que está por llegar.

Es muy sencillo. Operaciones aleatorias de entrada y resultados de salida. Se llama método Monte Carlo y no es muy rápido en sí mismo. Y la sistematización es una tarea del Sistema Nacional.


Bueno, ¿hay un nombre especial para la NS? Como una red neuronal de recocido estocástico de tipo desconocido, ya sea con o sin maestro, y optimizando las entradas en lugar de las salidas :)) leeré algunos libros,

Heikin "NS Complete Course Second Edition" está disponible en ruso.

 
Maxim Dmitrievsky:

Bueno, ¿hay un nombre especial para la propia NS? Como una red neuronal de recocido estocástico de aprendizaje poco claro con o sin maestro, y optimizando las entradas en lugar de las salidas :))) Leeré libros,

Haikin "NS Complete Course Second Edition" está disponible en ruso

Heikin es, Bishop no está disponible en ruso.

El NS es el MLP habitual, el entrenamiento es el BP habitual, sólo que con reajustes manuales regulares a lo largo del camino. Si no se hacen estos reajustes, o sólo se baraja la muestra, aprende muy rápido, pero funciona bien sólo en secuencias de aprendizaje.

 
Yuriy Asaulenko:

Heikin está ahí, Bishop no está disponible en ruso.

El NS es el MLP habitual, el entrenamiento es el BP habitual, sólo que con reajustes manuales regulares a medida que se avanza. Si no haces esos reajustes o simplemente barajas la muestra, aprende muy rápido, pero funciona bien (incluso perfectamente)) sólo en la secuencia de aprendizaje.


Por ahora me conformaré con el trabajo de Haykin. Siempre me he limitado a los artículos y a las descripciones de los modelos, los libros contienen muchas cosas innecesarias (para tener suficiente volumen para vender).

 
Maxim Dmitrievsky:

Y lo de Haykin es material antiguo :) de momento me conformaré, siempre me he limitado a artículos y descripciones de modelos, los libros tienen mucho material extra (para tener un volumen que vender)

Bueno, yo no diría eso. La teoría no envejece. Pero hay una comprensión más profunda del tema. Artículos, por supuesto, pero sin la teoría general no se entienden muy bien, y sólo se percibe superficialmente y acríticamente - un montón de tonterías que escriben).
 
Alyosha:

Declaración falsa. Los bosques y los impulsos no se diferencian de los NS en la extrapolación.


  • El modelo sólo puede interpolar, pero no extrapolar (lo mismo ocurre con el bosque y el impulso en los árboles). Es decir, el árbol de decisión hace una predicción constante para los objetos en el espacio de características fuera del paralelepípedo que cubre todos los objetos de la muestra de entrenamiento. En nuestro ejemplo con bolas amarillas y azules, esto significa que el modelo da la misma predicción para todas las bolas con coordenadas > 19 o < 0.

Todos los artículos que encuentro dicen lo mismo

https://habrahabr.ru/company/ods/blog/322534/


  • como los árboles de decisión, el algoritmo es totalmente incapaz de extrapolar
 
Maxim Dmitrievsky:

  • El modelo sólo puede interpolar, pero no extrapolar (lo mismo ocurre con el refuerzo de bosques y árboles). Es decir, el árbol de decisión hace una predicción constante para los objetos en el espacio de características fuera del paralelepípedo que cubre todos los objetos de la muestra de entrenamiento. En nuestro ejemplo con bolas amarillas y azules, esto significa que el modelo da la misma predicción para todas las bolas con coordenadas > 19 o < 0.

Todos los artículos que encuentro dicen lo mismo

https://habrahabr.ru/company/ods/blog/322534/


  • como los árboles de decisión, el algoritmo es totalmente incapaz de extrapolar

La basura la escribe la gente sin educación. No han oído hablar del sobreentrenamiento, no tienen ni idea de datamining, no han oído hablar de los predictores de ruido y no son buenos en la estimación de modelos. No son más que una especie de snobs inmaduros que juegan a ser intelectuales.

 
SanSanych Fomenko:

La basura la escribe la gente sin educación. No han oído hablar del reentrenamiento, no tienen ningún concepto de la minería de datos, no han oído hablar de los predictores de ruido y no son buenos en la estimación de modelos. Es el tipo de snobs exagerados que juegan con la mente.


¿Qué tiene que ver todo esto con la extrapolación...

¿los que escribieron RF en la biblioteca alglib también son gente inculta?

y los blogueros de r también son patéticos, aparentemente

https://www.r-bloggers.com/extrapolation-is-tough-for-trees/

Extrapolation is tough for trees!
Extrapolation is tough for trees!
  • Peter's stats stuff - R
  • www.r-bloggers.com
This post is an offshoot of some simple experiments I made to help clarify my thinking about some machine learning methods. In this experiment I fit four kinds of model to a super-simple artificial dataset with two columns, x and y; and then try to predict new values of y based on values of x that are outside the original range of y. Here’s the...
 

Todo el mundo es un perdedor excepto el FA.

sólo se les ha enseñado a los FA.

;))

 
Oleg avtomat:

Todo el mundo es un perdedor excepto el FA.

sólo se les ha enseñado a los FA.

;))


Así es como la gente utiliza la RF sin entender los principios, y luego dicen que no funciona. Del último artículo se desprende que la RF no puede extrapolar, por lo que sólo debería funcionar con datos conocidos.

 
Aliosha:

Ay, pero se equivocan y es normal no sólo para los "ignorantes" y snobs, recuerden a Minsky y su autorizada opinión sobre la "inutilidad" de los perseptrones multicapa))

De los artículos de hubra no hablo, es lo mismo que la basura de los foros, 99,9% de publicidad nuchpop y 0,1% de pensamientos sensatos de forma implícita "entre líneas".

el hombre dio un ejemplo en R, ¿en qué lugar se equivocó? desafortunadamente no uso R, pero puedo incluso reproducirlo yo mismo