트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2945

 
저는 R을 좋아하고 세계 최고의 언어라고 생각하지만, 산치의 모든 게시물에 끊임없이 등장하는 광고는 저를 정말 아프게 합니다.
 
Stanislav Korotky #:

아니요, 비어 있습니다. 바우스팅에 관한 이야기라는 걸 깜빡했네요.

자, 여기


그리고 여기.


그러나 거기에는 공식이 다르거나 더 완전한 형식으로 작성된 것 같습니다....

 
Aleksey Vyazmikin #:

여기 있습니다,


그리고 여기


그러나 거기에는 공식이 다르거나 더 완전한 형식으로 작성된 것 같습니다....

집단 농업은 자발적입니다! 그런데 왜 집단 농업을 전파할까요? 기술 문서와 프로그램 코드가 있는데 YouTube에 더 많은 강의가 있습니다. gbm 자체는 패키지의 일부일 뿐이며 기능 자체 옆에 다른 많은 것들이 있다는 점에 유의하겠습니다.

다음은 gbm 패키지에 대한 링크입니다.

다음은 이론에 대한 링크입니다.

다음은 매뉴얼 링크입니다.

그리고 여기 gbm에 대한 문헌 목록이 있습니다.

참고 문헌 Y. Freund and R.E. Schapire(1997) "온라인 학습의 결정 이론적 일반화와 부스팅에 대한 적용", 컴퓨터 및 시스템 과학 저널, 55(1):119-139.

G. 리지웨이 (1999). "부스팅의 상태", 컴퓨팅 과학 및 통계 31:172-181.

J.H. 프리드먼, T. 헤이스티, R. 티브시라니 (2000). "부가 로지스틱 회귀: 부스팅에 대한 통계적 관점", 통계학 연보 28(2): 337-374.

J.H. Friedman (2001). "탐욕스러운 함수 근사: 그라디언트 부스팅 머신," 통계학 연보 29(5): 1189-1232.

J.H. Friedman (2002). "확률적 그라디언트 부스팅", 전산 통계 및 데이터 분석 38(4):367-378.

B. 크리글러 (2007). 정량적 회귀 프레임워크 내에서 비용에 민감한 확률적 그라디언트 부스팅. 박사 학위 논문. 캘리포니아 대학교 로스 앤젤레스 캠퍼스, 로스앤젤레스, 캘리포니아, 미국. 지도교수 Richard A. Berk. urlhttps://dl.acm.org/citation.cfm?id=1354603.

C. Burges (2010). "RankNet에서 LambdaRank, LambdaMART로: 개요", Microsoft 연구 기술 보고서 MSR-TR-2010-82

gbm: Generalized Boosted Regression Models
gbm: Generalized Boosted Regression Models
  • cran.r-project.org
An implementation of extensions to Freund and Schapire's AdaBoost algorithm and Friedman's gradient boosting machine. Includes regression methods for least squares, absolute loss, t-distribution loss, quantile regression, logistic, multinomial logistic, Poisson, Cox proportional hazards partial likelihood, AdaBoost exponential loss, Huberized hinge loss, and Learning to Rank measures (LambdaMart). Originally developed by Greg Ridgeway.
 
Aleksey Vyazmikin #:

여기 있습니다,


그리고 여기


그러나 거기에는 공식이 다르거나 더 완전한 형식으로 작성된 것 같습니다....

xgboost도마찬가지로

xgboost: Extreme Gradient Boosting
xgboost: Extreme Gradient Boosting
  • cran.r-project.org
Extreme Gradient Boosting, which is an efficient implementation of the gradient boosting framework from Chen & Guestrin (2016) < doi:10.1145/2939672.2939785 >. This package is its R interface. The package includes efficient linear model solver and tree learning algorithms. The package can automatically do parallel computation on a single machine which could be more than 10 times faster than existing gradient boosting packages. It supports various objective functions, including regression, classification and ranking. The package is made to be extensible, so that users are also allowed to define their own objectives easily.
 
СанСаныч Фоменко #:

공동 농사는 자발적으로 하는 것입니다! 그런데 왜 콜코즈를 선전할까요? 기술 문서와 프로그램 코드가있을 때 YouTube에 어떤 강의가 있습니까? gbm 자체는 패키지의 일부일 뿐이며 기능 자체 옆에 다른 많은 것들이 있다는 점에 주목할 것입니다.


다음은 이론에 대한 링크입니다.

필요한 것은 공식이 아니라 설명이기 때문에 강사의 자료에 대한 인식을 통해 사람을 설명하는 것이 좋습니다.

그리고 링크에서 공식이 있는 이론을 보지 못했습니다.

 
Aleksey Vyazmikin #:

단순한 공식이 아닌 설명이 필요하기 때문에 강사의 인식을 통한 인간적인 설명이 제안됩니다.

그리고 링크에서 수식이 있는 이론을 보지 못했습니다.

공식을 보고 싶지 않은 여러분에게는 이론을 좋아하는 다른 사람들에게는 그렇지 않습니다.

그리고 가장 중요한 것은 유튜브의 야다 야다와 많은 사람들이 테스트 한 이론에서 코드에 이르는 작업 도구의 차이점을 이해하지 못한다는 것입니다.

파일:
gbm.zip  257 kb
 
Aleksey Nikolayev #:

모델은 mql5 스크립트에서 실행되지만 onnxruntime 패키지가 설치되지 않았기 때문에 파이썬에서는 실행되지 않습니다.

python 3.11에는 아직 onnxruntime 패키지가 설치되어 있지 않습니다. 모든 것이 설치되어 있고 출력이 작동하는 파이썬 3.10을 설치했습니다.

 
СанСаныч Фоменко #:

솔직한 모습을 보고 싶지 않은 여러분에게는 적합하지 않지만, 이론을 좋아하는 다른 사람들에게는 적합합니다.

그리고 가장 중요한 것은 유튜브의 야다 야다 야다와 많은 사람들이 테스트한 이론부터 코드에 이르는 작업 도구의 차이점을 이해하지 못한다는 것입니다.

왜 오만하죠? 어디서 다운로드했는지 보여주세요. 개인적으로 다시 살펴봤는데 이해가 안 되네요.

학원에 선생님이 왜 필요한가요?

 
강화 학습에 대하여
 
mytarmailS #:
강화 학습에 대하여
h ttps://youtu.be/I-wd3ZUrReg

심리학에서는 투사라고합니다....

그래서, 예, 그가 말한대로 정확히 모델 훈련이 이루어집니다-환상적인 것은 기억됩니다.

사유: