Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3338

 
Aleksey Vyazmikin #:

Puede ver un vídeo sobre el tema

Es un poco lioso. Logloss crece al quitar muestras malas, no cae. Si eliminas muestras buenas, también crece.

Si no lo haces tú mismo, nadie lo hará por ti.
 
Tidy Modeling with R
Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
СанСаныч Фоменко #:

Un buen libro con mucho código. Doy el enlace. Por desgracia, el tamaño del archivo .PDF es demasiado grande

//---------------------------------------


Perdon .Pasó por el tema1 Softwareparamodelar. Fue suficiente.

No encontré grandes cantidades de código. Creo que te has equivocado. Has sido hábilmente engañado.

Es sólo eso, un libro bonito, con muchas palabras ingeniosas.

P.Z.

Copiado de otros libros.

Sin ningún sistema.

1 Software for modeling | Tidy Modeling with R
1 Software for modeling | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Lorarica #:

Perdon .Pasó por el tema1 Softwareparamodelar. Fue suficiente.

No encontré grandes cantidades de código. Creo que has cometido un error. Has sido hábilmente engañado.

Es sólo un hermoso libro con un montón de palabras inteligentes.

P.Z.

Copiado de otros libros.

Sin ningún sistema.

Quítate la costumbre de leer sólo los títulos: un libro no es un post de Twitter.

He leído más de la mitad del libro, así que puedo juzgar el contenido por mí mismo; hay secciones que son 80% código.

Aquí tienes una lista de los paquetes que se utilizaron para escribir el código del libro.

This version of the book was built with: R version 4.1.3 (2022-03-10), pandoc version
2.17.1.1, and the following packages:
• applicable (0.0.1.2, CRAN)
• av (0.7.0, CRAN)
• baguette (0.2.0, CRAN)
• beans (0.1.0, CRAN)
• bestNormalize (1.8.2, CRAN)
• bookdown (0.25, CRAN)
• broom (0.7.12, CRAN)
• censored (0.0.0.9000, GitHub)
• corrplot (0.92, CRAN)
• corrr (0.4.3, CRAN)
• Cubist (0.4.0, CRAN)
• DALEXtra (2.1.1, CRAN)
• dials (0.1.1, CRAN)
• dimRed (0.2.5, CRAN)
• discrim (0.2.0, CRAN)
• doMC (1.3.8, CRAN)
• dplyr (1.0.8, CRAN)
• earth (5.3.1, CRAN)
• embed (0.1.5, CRAN)
• fastICA (1.2-3, CRAN)
• finetune (0.2.0, CRAN)
• forcats (0.5.1, CRAN)
• ggforce (0.3.3, CRAN)
• ggplot2 (3.3.5, CRAN)
• glmnet (4.1-3, CRAN)
• gridExtra (2.3, CRAN)
• infer (1.0.0, CRAN)
• kableExtra (1.3.4, CRAN)
• kernlab (0.9-30, CRAN)
• kknn (1.3.1, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• stringr (1.4.0, CRAN)
• svglite (2.1.0, CRAN)
• text2vec (0.6, CRAN)
• textrecipes (0.5.1.9000, GitHub)
• themis (0.2.0, CRAN)
• tibble (3.1.6, CRAN)
• tidymodels (0.2.0, CRAN)
• tidyposterior (0.1.0, CRAN)
• tidyverse (1.3.1, CRAN)
• tune (0.2.0, CRAN)
• uwot (0.1.11, CRAN)
• workflows (0.2.6, CRAN)
• workflowsets (0.2.1, CRAN)
• xgboost (1.5.2.1, CRAN)
• yardstick (0.0.9, CRAN
En cuanto a su contenido, el libro es una presentación sistemática de los problemas y soluciones de lo que se llama "aprendizaje automático", en este sitio es muy útil, como "aprendizaje automático" se entiende generalmente como sólo un modelo.
 
Lorarica #:

Perdon .Pasó por el tema1 Softwareparamodelar. Fue suficiente.

No encontré grandes cantidades de código. Creo que has cometido un error. Has sido hábilmente engañado.

Es sólo un hermoso libro con un montón de palabras inteligentes.

P.Z.

Copiado de otros libros.

Sin ningún sistema.

En la sección de software buscaba mucho código...))))

Y muchas "palabras ingeniosas" e imágenes es un inconveniente para ella. ..))))

Payasadas
 
СанСаныч Фоменко #:
Es un gran libro, pero no hay nadie aquí para leerlo.
 
¿Dónde está la salida estadística después de remuestreo y cv? Y la construcción del clasificador final. Toma este tema y desarróllalo. Es la base de kozul.

Tuls for creatin' effecitve modells, comparing multiple modells vis resampling. Luego debería haber algo como inferencia estadística y construcción de modelos insesgados.

Necesitamos la inferencia estadística. Da algunos resultados comparados con la misma RL y otros métodos.

Búscalo en R: statistical learning, weak supervised learning, functional augmentation learning.
 
Existe una librería snorkel en python. Tienen en algún lugar de su sitio una comparación de aprendizaje con un profesor vs aprendizaje con un control débil. Que el segundo supera al primero. También es útil saberlo.

 
СанСаныч Фоменко #:

Abandone el hábito de leer sólo los titulares: un libro no es un post de Twitter.

He leído más de la mitad del libro, así que puedo juzgar yo mismo el contenido; hay secciones que son un 80% código.

He aquí una lista de los paquetes utilizados al escribir el código del libro.

En cuanto a su contenido, el libro es una presentación sistemática de los problemas y soluciones de lo que se denomina "aprendizaje automático", en este sitio es muy útil, ya que "aprendizaje automático" se suele entender sólo como un modelo.

Sí, es un buen libro.

Ya que has leído la mitad de él.

Probablemente podrías escribir una línea de código.

¿Lo más memorable para ti?

P.Z.

Aconsejo a todo el mundo que estudie el libro.

 
Maxim Dmitrievsky #:
aprendizaje estadístico

kozul es autopromoción, una nueva pegatina en un pantalón viejo.

Maxim Dmitrievsky #:
¿Dónde está la salida estadística después de remuestreo y cv? Y la construcción del clasificador final. Tome este tema y desarrollarlo. Esta es la base de kozul.

Tuls para la creación de Efficient Modells, la comparación de múltiples modells vis remuestreo. Lo siguiente debería ser algo como inferencia estadística y construcción de modelos insesgados.

Necesitamos la inferencia estadística. Da algunos resultados en comparación con el mismo RL y otros métodos.

Búsqueda en R: aprendizaje estadístico, aprendizaje supervisado débil, aprendizaje de aumento funcional.

Kozul is unfair advertising, a new sticker on old trousers.

Tuls para la creación de modelos eficaces, comparación de modelos múltiples frente al remuestreo. Lo siguiente debería ser algo como stat inference y unbiased model building.

Este es el estándar del aprendizaje automático y gran parte del libro trata precisamente de estos temas, que tienen muchos años y para los que se han inventado muchas herramientas. La parte 3 del libro se titula: Herramientas para crear modelos eficaces, con el siguiente contenido:

- 10 Remuestreo para la evaluación del rendimiento

- 11 Comparación de modelos con remuestreo

- 12 Ajuste de modelos y peligros del sobreajuste

- 13 Búsqueda en cuadrícula

- 14 Búsqueda iterativa

- 15 Visualización de modelos múltiples

Además está el capítulo 20"Ensembles de modelos", que explica cómo construir el modelo final.

Necesitamos aprender estadística.

¿Necesita? Por favor: CRAN Task View: Machine Learning & Statistical Learning

10 Resampling for Evaluating Performance | Tidy Modeling with R
10 Resampling for Evaluating Performance | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.