Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2493

 
eccocom #:
Lee la documentación de TensorFlow, todo está en forma de constructor... prácticamente. Realmente son cajas negras. Si te interesa te puedo dar el código del perceptrón escrito a mano, y por cierto todo son cálculos matriciales, en eso se basa todo

Acabo de volver al post de Evgeny Dyuka y su ServerNN (leer el código) sobre TensorFlow

porque me encontré con una especie de crítica a las bibliotecas de Python en el hobby

En la pila de sklearn, los paquetes xgboost, lightGBM tenían métodos incorporados para estimar la importancia de las características para los "modelos de madera":

1.Ganancia
Esta medida muestra la contribución relativa de cada característica al modelo. Para calcularla, vamos a cada nodo del árbol, miramos qué característica lleva a una división del nodo y cuánto se reduce la incertidumbre del modelo según la métrica (impureza Gini, ganancia de información).
Para cada característica, su contribución se suma en todos los árboles.

2.Portada
Muestra el número de observaciones de cada característica. Digamos que tienes 4 características, 3 árboles. Supongamos que la ficha 1 en los nodos contiene 10, 5 y 2 observaciones en los árboles 1, 2 y 3 respectivamente. Entonces la importancia de la ficha dada sería 17 (10 + 5 + 2).

3.Frecuencia
Muestra la frecuencia con la que una determinada característica aparece en los nodos del árbol, es decir, cuenta el número total de divisiones del árbol para cada característica en cada árbol.

El principal problema de todos estos enfoques es que no está claro cómo afecta una determinada característica a la predicción del modelo. Por ejemplo, hemos aprendido que el nivel de ingresos es importante para evaluar la capacidad de pago de un cliente bancario. ¿Pero cómo exactamente? ¿En qué medida el aumento de los ingresos modifica las predicciones del modelo?

Me gustaría evitar los "modelos de madera" aquí, porque se comen mucha memoria RAM (y yo soy un fanático de la velocidad y la compacidad)...

- de todos modos, la respuesta a tu pregunta es CONVENIENTEMENTE, INTERESADO... sí, eso es lo que pensaba, las redes neuronales son todo cálculo matricial (por eso preguntaba por ellas y por las bibliotecas)

p.d.

No entiendo, si esas bibliotecas que están en la cita no pueden predecir los coeficientes polinómicos (respuesta: por cuánto), entonces ¿cómo pueden describir un modelo dinámico? (no lineal, no de regresión [que es lo mismo])... por eso hasta ahora me he planteado hacer un modelo (intentando recordar la diferenciación... con dificultad)

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2021.10.23
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
JeeyCi #:

Acabo de encontrar un post de Evgeny Dyuka

porque me encontré con una especie de crítica a las bibliotecas de Python en el hobby

En la pila de sklearn, los paquetes xgboost, lightGBM tenían métodos incorporados para estimar la importancia de las características para los "modelos de madera":

  1. Ganancia
    Esta medida muestra la contribución relativa de cada característica al modelo. Para calcularla, vamos a cada nodo del árbol, miramos qué característica lleva a una división del nodo y cuánto se reduce la incertidumbre del modelo según la métrica (impureza Gini, ganancia de información).
    Para cada característica, su contribución se suma en todos los árboles.
  2. Portada
    Muestra el número de observaciones de cada característica. Por ejemplo, tienes 4 características, 3 árboles. Supongamos que la ficha 1 en los nodos contiene 10, 5 y 2 observaciones en los árboles 1, 2 y 3. Entonces la importancia de esta ficha es 17 (10 + 5 + 2).
  3. Frecuencia
    Muestra la frecuencia con la que una determinada característica aparece en los nodos del árbol, es decir, cuenta el número total de nodos del árbol divididos para cada característica en cada árbol.


El principal problema de todos estos enfoques es que no está claro cómo afecta una determinada característica a la predicción del modelo. Por ejemplo, hemos aprendido que el nivel de ingresos es importante para evaluar la capacidad de pago de un cliente bancario. ¿Pero cómo exactamente? ¿En qué medida el aumento de los ingresos modifica las predicciones del modelo?

Pues para mi gusto Python es criticado por los que no saben cocinarlo. Todas las demás cosas son más fáciles de hacer no con soluciones ya hechas y escribirlas usando bibliotecas, y por cierto usando por ejemplo numpy probablemente obtendrás más velocidad que con C++ ya que está escrito en Fortran. Más aún ahora que Python se integra fácilmente con MT5 por así decirlo en línea recta, permite utilizar la IA sin necesidad de servidores con sockets.

 
JeeyCi #:

Acabo de encontrar un post de Evgeny Dyuka

porque me encontré con una especie de crítica a las bibliotecas de Python en el hobby

En la pila de sklearn, los paquetes xgboost, lightGBM tenían métodos incorporados para estimar la importancia de las características para los "modelos de madera":

  1. Ganancia
    Esta medida muestra la contribución relativa de cada característica al modelo. Para calcularla, vamos a cada nodo del árbol, miramos qué característica lleva a una división del nodo y cuánto se reduce la incertidumbre del modelo según la métrica (impureza Gini, ganancia de información).
    Para cada característica, su contribución se suma en todos los árboles.
  2. Portada
    Muestra el número de observaciones de cada característica. Digamos que tienes 4 características, 3 árboles. Supongamos que la ficha 1 en los nodos contiene 10, 5 y 2 observaciones en los árboles 1, 2 y 3. Entonces la importancia de esta ficha es 17 (10 + 5 + 2).
  3. Frecuencia
    Muestra la frecuencia con la que una determinada característica aparece en los nodos del árbol, es decir, cuenta el número total de particiones de nodos del árbol para cada característica en cada árbol.


El principal problema de todos estos enfoques es que no está claro cómo afecta una determinada característica a la predicción del modelo. Por ejemplo, hemos aprendido que el nivel de ingresos es importante a la hora de evaluar la capacidad de un cliente bancario para devolver un préstamo. ¿Pero cómo exactamente? ¿En qué medida el aumento de los ingresos modifica las predicciones del modelo?

Todos estos métodos son inadecuados. Aquí está su validación https://www.mql5.com/ru/blogs/post/737458
Los árboles y los bosques son rápidos de contar - también puedes simplemente añadir/quitar características una por una. Y encontrar los que mejoran y los que empeoran el resultado.

Сравнение разных методов оценки важности предикторов.
Сравнение разных методов оценки важности предикторов.
  • www.mql5.com
Провел сравнение разных методов оценки важности предикторов. Тесты проводил на данных титаника (36 фичей и 891 строки) при помощи случайного леса из 100 деревьев. Распечатка с результатами ниже. За
 
En cuanto a los modelos, no se trata de ellos, se trata de que la IA es esencialmente un aproximador y esa es su fuerza en todos los demás casos excepto en el mercado, ya que hay demasiados peces y goziles bajo el mar liso que provocan olas de precios. Aunque el postulado de que todo está incorporado en el precio es cierto, hay demasiado de eso. Una red neuronal sólo puede ser una pequeña parte de algún sistema, y quien no esté de acuerdo con eso se está autoengañando.
 
eccocom #:
En cuanto a los modelos, no se trata de ellos, se trata de que la IA es esencialmente un aproximador y esa es su fuerza en todos los demás casos, excepto en el mercado, ya que hay demasiados peces y goziles bajo el mar liso que provocan olas de precios. Aunque el postulado de que todo está incorporado en el precio es cierto, hay demasiado de eso. La red neuronal sólo puede ser una pequeña parte de algún sistema, y quien no esté de acuerdo con eso se está autoengañando.
¿Y quién llama a los actualizadores IA, qué hacen? )
 
mytarmailS #:
¿Y quién llama a los aproximadores de la IA qué hacen? )
Bueno, probablemente me equivoqué al llamarlo IA, porque me refería sólo a una red neuronal, pero es un caso especial de IA. Hago como todo el mundo, busco el Grial, lo hago facultativamente, sin fanatismo). Vine aquí para encontrar ideas para los modelos (en el sentido de una red neuronal), tener algo que compartir a mí mismo. 20 años de experiencia no es ciertamente disponible, pero para un centenar de variantes de la NS que he pasado. Máxima eficiencia en distancias cortas, que alcancé alrededor del 68%, pero probablemente entiendas que no es estable y situacional.
 
eccocom #:
Bueno, probablemente me equivoqué al llamarlo IA, ya que me refería sólo a una red neuronal, que es un caso especial de IA. Me dedico como todos a buscar el Grial, haciéndolo de forma facultativa, sin fanatismo). Suda vino en busca de ideas sobre los modelos (exactamente en el sentido de una red neuronal), hay algo para compartir a mí mismo. 20 años de experiencia no es ciertamente disponible, pero para un centenar de variantes de la NS que he pasado. La eficiencia máxima en las distancias cortas que he alcanzado es de alrededor del 68%, pero probablemente entiendas que no es estable y situacional.
Sí, claro que sí...
Pero cuidado con los expertos con 20 años de experiencia, que piden código a los demás ;)
 
mytarmailS #:
Sí, por supuesto que lo entiendo...
Pero cuidado con el veinteañero experto que ha estado mendigando el código de los demás. ;)
No me importa el código, siempre que la persona sea buena). Por cierto, leí el artículo de Mihail Marchukajtes y algunas de las ideas que se utilizaron allí son de mi uso también, pero tengo razones completamente diferentes a las del autor. Sería interesante discutir qué variantes del modelo con qué capas son las más eficaces. Mikhail, a juzgar por la evidencia indirecta, parece utilizar capas de enlace completo Sequential().

Mihail Marchukajtes
Mihail Marchukajtes
  • 2021.10.12
  • www.mql5.com
Профиль трейдера
 
eccocom #:
No me importa el código, si la persona es buena). Por cierto, he leído el artículo de Mihail Marchukajtes. También utilizo algunas ideas que se aplicaban allí, pero mis razones eran completamente diferentes a las del autor. Sería interesante discutir qué variantes del modelo con qué capas son las más eficaces. Mikhail, a juzgar por la evidencia indirecta, parece utilizar capas de enlace completo Sequential().

No usa neuronas en absoluto, usa un programa mediocre de autor ya hecho (algún híbrido de SVM y MSUA), no programa ni en Python ni en R, por lo que la palabra Sequential() le es desconocida, tiene 20 años de experiencia en redes neuronales, es demasiado pronto para interesarse por ella...


 
mytarmailS #:
No utiliza neuronas en absoluto, utiliza un programa mediocre de autor ya hecho (es un híbrido de SVM y MGUA), no programa en Python ni en R-code, por lo que la palabra Sequental() le es desconocida, 20 años de experiencia en redes neuronales, aún es pronto para meterse en ello...


)))). Ya veo, parece que tienes un bagaje comunicativo considerable. Yo mismo escribo probablemente 8 de cada 10 códigos hindúes)), pero estaría encantado de compartir mi experiencia igualmente. Y sería genial encontrar a los que escriben en Python y no sólo la red neuronal, sino toda la estructura de los EAs en general.