Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3338

 
Maxim Dmitrievsky #:
İlginçtir, eğer siz de aşağı yukarı uzun bir süredir MO yapıyorsanız, benzer sonuçlara varıyorsunuz. Yaklaşımın doğal bir evrim süreci. Kozul'a, istatistiksel öğrenmeye ve güvenilir yapay zekaya bu şekilde geldim. Bu kelimeleri Google'da aratırsanız faydalı şeyler bulabilirsiniz.

Evet, bu normal bir süreç - ortak bir bilgi alanı. Tarih, keşiflerin birkaç yıl arayla yapıldığını ve bunları açıklayan çalışmaların kontroller, incelemeler ve genel olarak anlaşılabilir bir dile çevrildikten sonra geç yayınlandığını bilir.

 
Aleksey Vyazmikin #:

Sınıflandırma hakkında burada yazılmış sayılır. Bununla birlikte, CatBoost'un biraz farklı bir formülü var, ancak belki de matematiksel dönüşümlerin maliyeti....

Ve sanırım aynı yerden bir video bağlantısı.


Kod yok. Ve resimlere bakılırsa, sonraki ağaçlar tam olarak 0 ve 1 değil, abs. hata değerleri 0.21, 1.08, -0.47 ..... gibi eğitilmiştir. regresyondaki gibi.
 
Aleksey Vyazmikin #:

Konuyla ilgili bir video izleyebilirsiniz

Biraz karışık. Logloss kötü örnekleri çıkarırken artar, düşmez. İyi örnekleri çıkarırsanız, o da büyür.

Eğer bunu kendiniz yapmazsanız, kimse sizin için yapmaz.
 
СанСаныч Фоменко #:

Çok fazla kod içeren iyi bir kitap. Bağlantıyı veriyorum. Ne yazık ki .PDF dosya boyutu çok büyük

//---------------------------------------


Perdon.1Modellemeiçin Yazılım konusunu inceledi. Yeterliydi.

Büyük miktarda kod bulamadım. Sanırım bir hata yaptınız. Zekice kandırılmışsınız.

Bu sadece, bir sürü zekice kelime içeren güzel bir kitap.

P.Z.

Diğer kitaplardan kopyalanmış.

Herhangi bir sistemi yok.

1 Software for modeling | Tidy Modeling with R
1 Software for modeling | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Lorarica #:

Perdon.Modellemeiçin1 Yazılım konusunu inceledi. Bu kadarı yeterliydi.

Büyük miktarda kod bulamadım. Bence bir hata yaptınız. Zekice kandırılmışsınız.

Bir sürü zekice kelime içeren güzel bir kitap.

P.Z.

Diğer kitaplardan kopyalanmış.

Herhangi bir sistem olmadan.

Sadece başlıkları okuma alışkanlığından kurtulun: bir kitap bir Twitter gönderisi değildir.

Kitabın yarısından fazlasını okudum, bu nedenle içeriği kendim değerlendirebilirim; %80'i kod olan bölümler var.

İşte kitaptaki kodu yazmak için kullanılan paketlerin bir listesi.

This version of the book was built with: R version 4.1.3 (2022-03-10), pandoc version
2.17.1.1, and the following packages:
• applicable (0.0.1.2, CRAN)
• av (0.7.0, CRAN)
• baguette (0.2.0, CRAN)
• beans (0.1.0, CRAN)
• bestNormalize (1.8.2, CRAN)
• bookdown (0.25, CRAN)
• broom (0.7.12, CRAN)
• censored (0.0.0.9000, GitHub)
• corrplot (0.92, CRAN)
• corrr (0.4.3, CRAN)
• Cubist (0.4.0, CRAN)
• DALEXtra (2.1.1, CRAN)
• dials (0.1.1, CRAN)
• dimRed (0.2.5, CRAN)
• discrim (0.2.0, CRAN)
• doMC (1.3.8, CRAN)
• dplyr (1.0.8, CRAN)
• earth (5.3.1, CRAN)
• embed (0.1.5, CRAN)
• fastICA (1.2-3, CRAN)
• finetune (0.2.0, CRAN)
• forcats (0.5.1, CRAN)
• ggforce (0.3.3, CRAN)
• ggplot2 (3.3.5, CRAN)
• glmnet (4.1-3, CRAN)
• gridExtra (2.3, CRAN)
• infer (1.0.0, CRAN)
• kableExtra (1.3.4, CRAN)
• kernlab (0.9-30, CRAN)
• kknn (1.3.1, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• stringr (1.4.0, CRAN)
• svglite (2.1.0, CRAN)
• text2vec (0.6, CRAN)
• textrecipes (0.5.1.9000, GitHub)
• themis (0.2.0, CRAN)
• tibble (3.1.6, CRAN)
• tidymodels (0.2.0, CRAN)
• tidyposterior (0.1.0, CRAN)
• tidyverse (1.3.1, CRAN)
• tune (0.2.0, CRAN)
• uwot (0.1.11, CRAN)
• workflows (0.2.6, CRAN)
• workflowsets (0.2.1, CRAN)
• xgboost (1.5.2.1, CRAN)
• yardstick (0.0.9, CRAN
İçeriği açısından kitap, "makine öğrenimi" olarak adlandırılan şeyin sorunlarının ve çözümlerinin sistematik bir sunumudur, bu sitede "makine öğrenimi" genellikle sadece bir model olarak anlaşıldığı için çok yararlıdır.
 
Lorarica #:

Perdon.Modellemeiçin1 Yazılım konusunu inceledi. Bu kadarı yeterliydi.

Büyük miktarda kod bulamadım. Bence bir hata yaptınız. Zekice kandırılmışsınız.

Bir sürü zekice kelime içeren güzel bir kitap.

P.Z.

Diğer kitaplardan kopyalanmış.

Herhangi bir sistem olmadan.

Yazılım bölümünde çok fazla kod arıyordu...))))

Ve çok sayıda "zekice kelime" ve resim onun için bir dezavantajdır...))))

Palyaçoluk
 
СанСаныч Фоменко #:
Harika bir kitap ama burada okuyacak kimse yok.
 
Yeniden örnekleme ve cv'den sonra stat çıktısı nerede? Ve son sınıflandırıcının inşası. Bu konuyu alın ve geliştirin. Kozul'un temeli budur.

Etkili modellerin oluşturulması, çoklu modellerin karşılaştırılması ve yeniden örnekleme için kozul. O zaman istatistiksel çıkarım ve yansız model oluşturma gibi bir şey olmalı.

İstatistiksel çıkarıma ihtiyacımız var. Aynı RL ve diğer yöntemlerle karşılaştırıldığında bazı sonuçlar verir.

R'de arayın: istatistiksel öğrenme, zayıf denetimli öğrenme, işlevsel artırma öğrenmesi.
 
Python'da bir snorkel kütüphanesi var. Sitelerinde bir yerde bir öğretmenle öğrenme ile zayıf kontrolle öğrenme karşılaştırması var. İkincisi birincisinden daha iyi performans gösteriyor. Bunu bilmek de faydalı.