Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 858

 
Maxim Dmitrievsky:

No utilizo los algoritmos de otras personas.

Por supuesto, el espíritu Kulibin es algo bueno, pero las cosas más interesantes y necesarias ya han sido inventadas, y están justo en la palma de mi mano. No rechazaría décadas de investigación en todo el mundo.

 
Maxim Dmitrievsky:

Yo también los tengo, y también los hay que ganan dinero pero no siempre, y yo quiero ganarlo siempre (o casi siempre). Y sólo entonces podré dar consejos.

¡En la hucha! Lo insertaré cada vez que empieces a dar consejos donde no sabes :)

 
Dr. Trader:

Por supuesto, el espíritu Kulibin es algo bueno, pero las cosas más interesantes y necesarias ya han sido inventadas, y están ahí mismo en la palma de la mano. No me importaría investigar durante décadas por todo el mundo.

¿Informe? Me estás matando con tus afirmaciones vacías.

 
Dr. Trader:

¡En la hucha! Lo pondré cada vez que te pongas a dar consejos donde no lo sabes :)

He aprendido que es inútil pedirle a un caballo muerto que diga algo inteligible, es más fácil bajarse y no reaccionar

 
Vizard_: ¡Aquí vamos! Grasa fresca para los pajilleros...


Tras 2 minutos de trabajo con una matriz de 13x6400 (10 veces mayor que la del ejemplo)
Esto sucede.
Error: No puedo colocar el vector de 3,2 Gb.
Y está tratando de tomar 12-13 Gb, mientras que tengo un total de 16 Gb


 
R suele ocupar la memoria en trozos poco a poco. Ya ha tomado 12-13, quiere 3 más, y no se sabe cuántos más necesitará más adelante.
 
Dr. Trader:
R suele ocupar la memoria en trozos poco a poco. Ya ha tomado 12-13, quiere 3 más, y quién sabe cuántos más necesitará después.

Reducción de la matriz - ni siquiera podía contar 13x500... Por lo visto, los datos del mercado sin patrón le vuelven loco)). No es que se utilice la glucosa para determinar la diabetes.

¿Alguien lo ha probado con datos de mercado? ¿Ha habido suerte?

Finalmente... Me las he arreglado con 13x100: (pero es una tontería cribar algo por 100 líneas). Algo de la entrada #2 parecía ser lo más importante, en los paquetes anteriores era al final. Probablemente, esto se debe a que la evaluación se basa en 100 líneas, no en 6400.

Variables ordenadas ( importancia decreciente):
2 5 10 12 64 7 8 9 1 11
Puntuación 0,24 0,025 0,019 -0,048 -0,055 -0,057 -0,053 -0,067 -0,072
3
Puntuaciones NA

---

Matriz de puntuaciones:
2 5 10 12 64 7 8 9 1 11
2 0.24
5 0.128 0.025
10 0.186 -0.002 0.019
12 0.015 -0.043 -0.051 -0.048
6 0.086 -0.053 -0.011 -0.068 -0.05
4 0.066 -0.029 -0.073 -0.054 -0.065 -0.055
7 0.134 -0.088 -0.101 -0.188 -0.121 -0.099 -0.057
8 0.12 -0.202 -0.069 -0.1 -0.068 -0.089 -0.061 -0.05
9 0.092 -0.004 -0.138 -0.097 -0.088 -0.069 -0.112 -0.088 -0.063
1 0.086 -0.06 -0.088 -0.107 -0.083 -0.084 -0.066 -0.081 -0.076 -0.067
11 0.095 -0.017 -0.183 -0.115 -0.083 -0.078 -0.066 -0.086 -0.066 -0.082 -0.072
3 0.059 -0.132 -0.102 -0.146 -0.114 -0.126 -0.109 -0.113 -0.131 -0.117 -0.135


 

¡Hola!


¿Está preparada la neuro robótica con IA?


Pruébalo. )))



Mientras tanto, he descubierto cómo hacer un bot de garrapatas - para que funcione igual que en el probador ))))

 

Una introducción a Greta


Me ha sorprendidoGreta. Había asumido que los paquetestensorflow yreticulate permitirían eventualmente a los desarrolladores de R mirar más allá de las aplicaciones de aprendizaje profundo y explotar la plataformaTensorFlow para crear todo tipo de aplicaciones estadísticas de grado de producción. Pero no estaba pensando en el Bayesiano. Después de todo,Stan es probablemente todo lo que un modelador bayesiano podría desear. Stan es un potente motor de modelización de la distribución de la probabilidad a nivel de producción, con unainterfaz de R muy sencilla, una profunda documentación y un equipo de desarrollo dedicado.

Pero greta permite a los usuarios escribir modelos bayesianos basados en TensorFlow directamente en R. ¿Qué podría ser más encantador? greta elimina la barrera del aprendizaje de un lenguaje de modelado intermedio, al tiempo que promete ofrecer modelos MCMC de alto rendimiento que se ejecutan en cualquier lugar donde pueda ir TensorFlow.

En este post, te presentaré a greta con un modelo sencillo utilizado por Richard McElreath en la sección 8.3 de su libro iconoclasta:Statistical Rethinking: A Bayesian Course with Examples in R and Stan. Este modelo trata de explicar el logaritmo del PIB de un país a partir de una medida de la dureza del terreno, controlando al mismo tiempo si el país está o no en África. Lo voy a utilizar sólo para ilustrar el muestreo MCMC con greta. Sin embargo, el ejemplo ampliado del libro de McElreath es una meditación sobre las sutilezas de las interacciones de los modelos, y merece la pena estudiarlo.

DiagrammeR sirve para trazar el diagrama de flujo TensorFlow del modelo, y bayesplot se utiliza para trazar los diagramas de las cadenas de Markov. El conjunto de datos robusto que proporciona 52 variables para 234 es bastante interesante, pero utilizaremos un conjunto de datos recortado con sólo 170 condados y tres variables.


library(rethinking)
library(greta)
library(DiagrammeR)
library(bayesplot)
library(ggplot2)

El siguiente es el código a utilizar.


¡Hola inventores ciclistas!

 
Vizard_:

)))

Para la primera búsqueda, se aconseja utilizar "peng" (más rápido) o "esteves"
(más fiable pero mucho más lento para grandes conjuntos de datos) y, en caso de que el número de
variables es grande (>100), restrinja la búsqueda "hacia adelante" a "n.var = 100". El
La barra de progreso le dará una idea del tiempo de ejecución restante.


library(varrank)

data(nassCDS, paquete = "DAAG")

nassCDS.varrank <- varrank(data.df = nassCDS,
método = "peng",
variable.importante = "muerto",
variable.method = "dead", variable.method = "sturges",
algoritmo = "forward",
esquema = "mid",
verbose = FALSE)

summary(nassCDS.varrank)
plot(nassCDS.varrank, notecex = 0.5)

Este algoritmo en particular, ¿selecciona bien o mal los predictores?


En general, en la selección de predictores, ¿qué es bueno y qué es malo?

A primera vista, se trata de vincular la selección de predictores al rendimiento de un modelo.

Eso me parece un segundo paso.

El primer paso es siempre hacer frente al sobreentrenamiento del modelo, una situación en la que el comportamiento del modelo en el futuro no coincide con su comportamiento en el pasado. Si no tenemos ninguna idea sobre esto, entonces todo es un juego de números.


Para volver a su puesto.

Creo que el comportamiento futuro del modelo será poco diferente del comportamiento en los datos históricos si la PRESCRIPCIÓN de los predictores a medida que se mueve la ventana no cambia mucho.

¿Los rangos que calcula el paquete van a cambiar en algún conjunto de predictores o no? Evidentemente, el resultado puede ser diferente para distintos conjuntos de predictores, no obstante, si (como he hecho más arriba) esos puestos se publicaran aquí...