交易中的机器学习:理论、模型、实践和算法交易 - 页 3338

 
Maxim Dmitrievsky #:
有趣的是,如果你自己或多或少地长期从事 MO 工作,你也会得出类似的结论。这就是方法进化的自然过程。我就是这样接触到 kozul、统计学习和可靠的人工智能的。如果你谷歌一下这些词,就能找到有用的东西。

是的,这是一个正常的过程--一个常见的信息领域。历史上的发现相隔数年,而描述这些发现的著作出版较晚--经过检查、审查,一般来说,翻译成易懂的语言。

 
Aleksey Vyazmikin #:

关于分类,这里 已经写得很清楚了。不过,CatBoost 的计算公式略有不同,但也许是数学变换的代价....。

还有一个链接,我想是同一个地方的视频。


没有代码。从图片上看,后续树的训练并不完全是 0 和 1,误差值分别为 0.21、1.08、-0.47 .....。就像回归一样。
 
Aleksey Vyazmikin #:

您可以观看相关视频

有点乱。移除坏样本时,Logloss 会增长,而不是下降。如果删除好的样本,它也会增长。

如果你不自己做,没人会帮你做。
 
Tidy Modeling with R
Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
СанСаныч Фоменко #:

这是一本包含大量代码的好书。我提供了链接。不幸的是,.PDF 文件尺寸过大

//---------------------------------------


Perdon .Went through the topic1 Softwareformodelling.这就足够了。

没有找到大量代码。我认为你犯了一个错误。你被巧妙地欺骗了。

这只是一本漂亮的书,里面有很多花言巧语。

P.Z.

抄袭自其他书籍。

没有任何系统

1 Software for modeling | Tidy Modeling with R
1 Software for modeling | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Lorarica #:

Perdon.Went through the topic1 Softwareformodelling.这就够了。

没有找到大量代码。我认为你犯了一个错误。你被聪明地欺骗了。

这只是一本漂亮的书,里面有很多花言巧语。

P.Z.

抄袭自其他书籍。

没有任何系统。

改掉只看标题的习惯:一本书不是一条微博。

我已经读了一多半的书,所以我可以自己判断内容;有些章节 80% 都是代码。

以下是用于编写书中代码的软件包列表。

This version of the book was built with: R version 4.1.3 (2022-03-10), pandoc version
2.17.1.1, and the following packages:
• applicable (0.0.1.2, CRAN)
• av (0.7.0, CRAN)
• baguette (0.2.0, CRAN)
• beans (0.1.0, CRAN)
• bestNormalize (1.8.2, CRAN)
• bookdown (0.25, CRAN)
• broom (0.7.12, CRAN)
• censored (0.0.0.9000, GitHub)
• corrplot (0.92, CRAN)
• corrr (0.4.3, CRAN)
• Cubist (0.4.0, CRAN)
• DALEXtra (2.1.1, CRAN)
• dials (0.1.1, CRAN)
• dimRed (0.2.5, CRAN)
• discrim (0.2.0, CRAN)
• doMC (1.3.8, CRAN)
• dplyr (1.0.8, CRAN)
• earth (5.3.1, CRAN)
• embed (0.1.5, CRAN)
• fastICA (1.2-3, CRAN)
• finetune (0.2.0, CRAN)
• forcats (0.5.1, CRAN)
• ggforce (0.3.3, CRAN)
• ggplot2 (3.3.5, CRAN)
• glmnet (4.1-3, CRAN)
• gridExtra (2.3, CRAN)
• infer (1.0.0, CRAN)
• kableExtra (1.3.4, CRAN)
• kernlab (0.9-30, CRAN)
• kknn (1.3.1, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• stringr (1.4.0, CRAN)
• svglite (2.1.0, CRAN)
• text2vec (0.6, CRAN)
• textrecipes (0.5.1.9000, GitHub)
• themis (0.2.0, CRAN)
• tibble (3.1.6, CRAN)
• tidymodels (0.2.0, CRAN)
• tidyposterior (0.1.0, CRAN)
• tidyverse (1.3.1, CRAN)
• tune (0.2.0, CRAN)
• uwot (0.1.11, CRAN)
• workflows (0.2.6, CRAN)
• workflowsets (0.2.1, CRAN)
• xgboost (1.5.2.1, CRAN)
• yardstick (0.0.9, CRAN
就内容而言,这本书系统地介绍了所谓 "机器学习 "的问题和解决方案,在这个网站上非常有用,因为 "机器学习 "通常被理解为只是一个模型。
 
Lorarica #:

Perdon.Went through the topic1 Softwareformodelling.这就够了。

没有找到大量代码。我认为你犯了一个错误。你被聪明地欺骗了。

这只是一本花言巧语的好书而已

P.Z.

抄袭自其他书籍。

没有任何系统。

在软件部分,她在寻找大量的代码......))))

大量的 "花言巧语 "和图片对她来说是一个缺点...))))

小丑
 
СанСаныч Фоменко #:
这是一本好书,但这里没有人读它
 
重采样和 cv 之后的统计输出在哪里?以及最终分类器的构建。以此为主题进行开发。这是 Kozul 的基础。

建立有效的模型、比较多个模型和重采样。然后,还应该有类似统计推断和无偏模型构建的内容。

我们需要统计推断。与相同的 RL 和其他方法相比,它能提供一些结果。

在 R 中查找:统计学习、弱监督学习、功能增强学习。
 
python 中有一个 snorkel 库。他们在网站上的某个地方对有老师指导的学习和弱控制下的学习进行了比较。后者优于前者。这一点也很有用。