Пятую статью курса мы посвятим простым методам композиции: бэггингу и случайному лесу. Вы узнаете, как можно получить распределение среднего по генеральной совокупности, если у нас есть информация только о небольшой ее части; посмотрим, как с помощью композиции алгоритмов уменьшить дисперсию и таким образом улучшить точность модели; разберём...
이것은 당신이 말했듯이 "기회"가 더해질 수 있기 때문에 그렇게 유지합니다.
예, 새 항목에 있지만 이제 대상 항목이 동일하지 않다는 것을 깨달았습니다. 오프셋이 있는 실제 ZZ 벡터를 가져왔는데 정확하지 않습니다.
대상을 빼내기 위해서는 스크립트를 스케치해야 합니다.
그래서 거기에 무엇이 있습니까? 어떤 쿠라시를 얻었습니까?
튜토리얼에서 어디선가 본 적이 있습니다.
Maxim, 지금 클러스터링을 하고 있는 것 같습니다.
여기에서 포리스트는 클러스터링과 유사함을 알 수 있습니다.
https://habr.com/ru/company/ods/blog/324402/
"k-최근접 이웃 알고리즘을 사용한 랜덤 포레스트의 유사성" 섹션.
질문이있다?
Maxim, 지금 클러스터링을 하고 있는 것 같습니다.
여기에서 포리스트는 클러스터링과 유사함을 알 수 있습니다.
https://habr.com/ru/company/ods/blog/324402/
"k-최근접 이웃 알고리즘을 사용한 랜덤 포레스트의 유사성" 섹션.
글쎄, 내가 그것을하는 방법 .. 시작하고 득점) 숲도 클러스터 될 수 있습니다.
클러스터링은 있는 그대로 - 증분을 3개의 그룹으로 잘 나눕니다. 새로운 데이터에. 범주 기능으로 사용하는 것이 합리적입니다. 나는 이것을하고 싶었습니다.질문이있다?
이것이 승리다!!!!! 형제!!!! 으아아아아아아아아아아아!!!!! 모두 즐거운 휴일 되세요.
우리가 이 전쟁을 잊는 즉시 또 다른 전쟁이 시작될 것이기 때문입니다. 그녀를 항상 기억합시다! 승리!!!!!!! 삐우삐우 (이게 내가 가상의 TT-shki에서 총을 쏘고 장교의 모습으로 거리를 달리는 방법)그래서 거기에 무엇이 있습니까? 어떤 쿠라시를 얻었습니까?
트리 깊이가 6인 10개의 CatBoost 모델, 100개의 새 트리가 결과를 개선하지 않으면 훈련을 중지하고 100개 증분으로 시드합니다.
2018년 및 2019년 훈련 샘플 80%, 훈련 중지 제어 샘플 20%. 독립 샘플 2020년 1월-5월
다른 파티셔닝 방법으로 샘플을 고문하고 더 많은 모델을 빌드하면 72를 얻을 수 있다고 생각합니다.
분류 잔액
트리 깊이가 6인 10개의 CatBoost 모델, 100개의 새 트리가 결과를 개선하지 않으면 훈련을 중지하고 100개 증분으로 시드합니다.
2018년 및 2019년 훈련 샘플 80%, 훈련 중지 제어 샘플 20%. 독립 샘플 2020년 1월-5월
다른 파티셔닝 방법으로 샘플을 고문하고 더 많은 모델을 빌드하면 72를 얻을 수 있다고 생각합니다.
분류 잔액
음, 체 .. 훌륭하고 믿을 수 있습니다. 또한 거래 자체의 균형과 항목이 있는 차트를 보고 싶습니다.
나는 이것이 10 모델의 앙상블이라는 것을 알고 있습니까? 모델은 어떻게 다른가요?