트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3337

 
mytarmailS #:

왜 이런 일이 발생하는지 궁금한 적이 있으신가요?

사실 시트에 잘못된 패턴이 있기 때문입니다. 여러 가지이유가 있을 수 있습니다.

아니면 구체적이고 명확한 답이 있나요?

 
Maxim Dmitrievsky #:

네이티브 코드로 내보낸 모델을 테스트하는 속도(catbust)

그리고 ONNX로 내보내기

두 버전의 봇의 내부는 거의 비슷하며 결과도 동일합니다.

보편성을 위해 비용을 지불하십시오.

CatBoost가 모델 변환에 상당한 제한이 있다는 것은 유감입니다.

 
Aleksey Vyazmikin #:

다재다능함을 위해 지불해야 할 대가.

CatBoost는 모델 변환에 상당한 제한이 있다는 점이 아쉽습니다.

객체의 중요성에 대해 더 자세히 알아보기 시작했고, 거기에 전체 기사가 있습니다. 무엇을 제공할 수 있는지 살펴볼게요.
 
Maxim Dmitrievsky #:
객체의 중요성에 대해 좀 더 자세히 알아보기 시작했는데, 제안된 전체 기사가 있습니다. 어떤 내용이 있는지 살펴볼게요.

아직 관심이 있으시다니 다행이네요. 이 접근 방식의 유용성에 대한 연구 진행 상황에 대해 작성해 주세요.

 
Forester #:

각 잎(트리) 후에 다시 분할을 수행하여 단계적 오류 수정을 고려하여 잎 추정치를 다시 만들어 보려고 합니다.

하지만 여전히 분류할 때 같은 방식으로 작동하지 않는 것 같습니다. ..... 공식을 잘 이해하지 못합니다.

첫 번째 반복에서 나무의 도움으로 접근해야하는 대상의 레이블에 로그 손실의 근사 함수가 만들어지고 이상적인 함수와 나무의 도움으로 얻은 함수 사이의 델타가 학습률 계수를 곱한 후 잎에 기록된다는 것을 이해했습니다.

문자 그대로 접근 방식을 취하여 오류를 표시하면 두 개의 다른 클래스에서 오류를 하나씩 표시해야합니까, 예를 들어 "1"이라고 가정 해 보겠습니다.

아니면 뭐죠?

 
Aleksey Vyazmikin #:

관심을 가져주셔서 다행입니다. 이 접근 방식의 유용성에 대한 연구 발전에 대해 글을 써주세요.

저는 이 주제에 대해 오랫동안 연구해 왔습니다. 다른 방법/패키지가 있습니다. 이 기능은 최근에 추가되었을 수도 있습니다.
 
Maxim Dmitrievsky #:
이 스레드에 오래 머물렀습니다. 다른 방법/패키지가 있습니다. 이 기능은 최근에 추가되었을 수도 있습니다.

이 주제에 대한 동영상을 볼 수 있습니다.


 
Aleksey Vyazmikin #:

함수의 Y 좌표를 형성하기 위해 합산되는 잎의 값입니다.

저에게는 이것이 나뭇잎의 답 또는 예측입니다. 나는 당신이 어떤 계수로 그것을 수정하고 싶다고 생각했습니다.

알렉세이 비야즈미킨 #:
문자 그대로 접근 방식을 취하여 오류를 표시하는 경우 두 개의 다른 클래스의 오류를 하나, 예를 들어 "1"로 표시해야합니까?

아니면 어떻게?

이 글의 훈련 예시에서는 회귀만 표시합니다. 분류에 대해서는 말할 수 없습니다.

 
Aleksey Vyazmikin #:

이 주제에 대한 동영상을 시청할 수 있습니다.

MO를 어느 정도 오랫동안 해왔다면 비슷한 결론에 도달한다는 것이 흥미 롭습니다. 접근 방식의 자연스러운 진화 과정입니다. 이것이 바로 코줄, 통계적 학습 및 신뢰할 수있는 AI에 도달 한 방법입니다. 이 단어들을 구글에 검색하면 유용한 정보를 찾을 수 있습니다.
 
Forester #:

이 문서의 훈련 예제에서는 회귀만 있습니다. 분류에 대해 잘 모르겠습니다.

분류 종류에 대해서는 여기에 씁니다 . 그러나 CatBoost는 약간 다른 공식을 가지고 있지만 아마도 이것은 수학적 변환의 비용 일 것입니다.....

그리고 같은 장소의 비디오에 대한 링크가 있다고 생각합니다.