트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2649

 
Aleksey Vyazmikin #:

알아내셔서 다행입니다. 바로 깨닫지 못했는데 설명해 주셔서 감사합니다.

그러나 첫 번째 단계의 알고리즘은 상자로 더 잘 분리되는 예측자 쌍을 찾은 다음 "필링"을 적용해야 한다는 것이 밝혀졌습니다.

아니요, 여러 개의 예측자에 대해 작동합니다. 각 단계에서 어떤 예측자와 어떤 슬라이스(왼쪽 또는 오른쪽)를 잘라내는 것이 최적인지 선택됩니다. 기존의 의사 결정 트리는 각 단계에서 예측자와 그 절단 지점을 최적으로 선택하여 두 개의 새로운 상자를 생성하는 동일한 작업을 수행합니다. PRIM의 유일한 차이점은 각 단계에서 경계가 있는 작은 슬라이스를 잘라내어 점진적인 프로세스를 수행하므로 이름에 환자라는 단어가 들어간다는 것입니다.

개인적으로 저는 각 상자를 두 개가 아닌 세 개의 새 상자로 자르는 표준 접근 방식의 또 다른 수정이 흥미롭습니다. 언젠가 이에 대한 생각을 말씀드리겠습니다.

 
Aleksey Nikolayev #:

언젠가 이에 대한 제 생각을 말씀드리겠습니다.

어쩌면 다음과 같은 사실을 깨닫고 테스트하는 것이 더 나을 수도 있습니다.
 
Aleksey Nikolayev #:

아니요, 예측자 수에 상관없이 작동합니다. 각 단계에서 어떤 예측자와 어떤 슬라이스(왼쪽 또는 오른쪽)를 잘라내는 것이 최적인지 선택합니다. 기존 의사 결정 트리는 각 단계에서 예측자와 그 절단 지점이 모두 최적으로 선택되어 두 개의 새 상자를 생성하는 동일한 작업을 수행합니다. PRIM의 유일한 차이점은 각 단계에서 경계가 있는 작은 조각이 절단되어 점진적인 프로세스가 이루어지기 때문에 이름에 환자라는 단어가 들어간다는 점입니다.

개인적으로 저는 각 상자를 두 개가 아닌 세 개의 새 상자로 잘라내는 표준 접근 방식의 또 다른 수정이 흥미롭습니다. 언젠가 이에 대한 생각을 말씀드리겠습니다.

https://xgboost.readthedocs.io/en/stable/tutorials/feature_interaction_constraint.html
 
Aleksey Nikolayev #:

아니요, 예측자 수에 상관없이 작동합니다. 각 단계에서 어떤 예측자와 어떤 슬라이스(왼쪽 또는 오른쪽)를 잘라내는 것이 최적인지 선택합니다. 기존의 의사 결정 트리는 각 단계에서 예측자와 그 절단점이 모두 최적으로 선택되어 두 개의 새로운 상자를 생성하는 동일한 작업을 수행합니다.

따라서 저는 달리 주장하지 않았습니다 - 작동합니다 - 구현의 문제일 뿐입니다 - 임의로 좋은 바운드를 가진 두 예측자를 취하면 상자가 나오지 않습니다 - 그게 요점입니다! 그래서 저는 쌍 검색이 한 번에 이루어진다고 가정했습니다.

알렉세이 니콜라예프 #:

PRIM은 각 단계에서 제한적으로 작은 조각이 잘려서 점진적인 프로세스로 이어지기 때문에 이름에 환자라는 단어가 있다는 점에서만 다릅니다.

잘라 내기-그것은 무엇을 의미합니까-조건부로 나무의 뿌리에 가깝게 갈라진 후 작은 잔류 물을 의미합니까?

알렉세이 니콜라이 예프 #:

개인적으로 저는 각 상자를 두 개가 아닌 세 개의 새 상자로 자르는 표준 접근 방식의 또 다른 수정이 흥미 롭습니다. 언젠가 이에 대해 몇 가지 생각을 해보겠습니다.

왜 5 개가 아닌가요? :) 저는 실험을 좋아합니다!

 
mytarmailS #:
깨닫고 테스트하는 것이 더 나을 수도 있습니다.

그런 일은 일어나지 않을 것 같습니다. 지금까지는 엉뚱한 가정만 있을 뿐입니다.

중요한 규칙이 A<x1<B라는 것을 어딘가에서 확실히 알고 있지만, 지금은 a<x1<b라는 규칙이 있다고 가정해 봅시다(여기서 a<A와 B<b). 좋은 규칙은 최소 두 단계, 예를 들어 1) a<x1<B와 2) A<x1<B를 통해 얻을 수 있습니다. 실제로는 다른 예측자에 대한 분할 단계가 실수로 이 두 단계 사이에 끼어 이 중요한 규칙이 결국에는 나타나지 않을 수 있습니다. 따라서 각 단계의 분할 청크 수는 고정되어 있지 않고 최적성을 고려하여 결정될 수 있습니다. 그런 다음 특별한 경우 (거의 전시의 사인과 마찬가지로) 그 수는 5와 같을 수 있습니다. 물론 트리는 더 이상 2진법이 아닙니다.

 
Aleksey Vyazmikin #:

잘라낸다는 것은 전통적으로 나무의 뿌리에 가깝게 갈라진 후 작은 잔재물을 잘라낸다는 뜻인가요?

좋은 나무를 만들려는 생각은 전혀 없을 것입니다. 그들은 단지 "좋은 조각"을 자르고 싶어 할 것입니다) 저는 틈새없이 전체 공간을 포장해야하는 타일러 인 척하는 것보다 거래에 적합한 조각을 잘라 내야한다는 생각에 가깝습니다) 이것은 "항상 시장에 있으려고하지 말라"는 오래된 인용문과 상당히 일치합니다. 예측이 "좋은 덩어리"에 속하지 않는 경우는 단순히 무시되기 때문에 결국 나무는 별 쓸모가 없게 됩니다.

예, 나무를 버리면 가능한 박스 교차점을 만지작거리게 되지만, 효과가 있다면 나무는 불쌍하지 않습니다.)

 
Maxim Dmitrievsky #:
h ttps:// xgboost.readthedocs.io/en/stable/tutorials/feature_interaction_constraint.html

제 작은 실험보다 더 심각한 것 같습니다) 예측 변수 간의 의존성 구조를미리 고려하는 것과 관련이 있는 것 같습니다.

 
Aleksey Nikolayev #:

잘 안 될 것 같아요. 지금까지는 그저 막연한 추측일 뿐입니다.

중요한 규칙이 A<x1<B라는 것을 어딘가에서 확실히 알고 있지만, 지금은 a<x1<b라는 규칙이 있다고 가정해 보겠습니다. 좋은 규칙은 최소 두 단계, 예를 들어 1) a<x1<B와 2) A<x1<B를 통해 얻을 수 있습니다. 실제로는 다른 예측자에 대한 분할 단계가 실수로 이 두 단계 사이에 끼어 이 중요한 규칙이 결국에는 나타나지 않을 수 있습니다. 따라서 각 단계의 분할 청크 수는 고정되어 있지 않고 최적성을 고려하여 결정될 수 있습니다. 그런 다음 특별한 경우 (거의 전시의 사인과 마찬가지로) 그 수는 5와 같을 수 있습니다. 물론 트리는 더 이상 2진법이 아닙니다.

기호 회귀를 사용하고 다른 알고리즘이 제공하는 것이 아니라 원하는 것을 정확하게 설계하십시오.

Rku를 알고 있고 패키지가 있고 예제가 있으며 모든 것이 이전과 우리를 위해 수행되었습니다.

 
Aleksey Nikolayev #:

제 작은 실험보다 더 심각한 문제인 것 같습니다) 예측 변수 간의 종속성 구조를미리 고려하는 것과 관련이 있습니다.

1과 2 만 상호 작용할 수있는 경우. 또는 3,4,5. 그런 다음 예를 들어 3에서 첫 번째 분할 후 모든 다운 스트림 분할은 3,4,5 세트에서만 이루어집니다.
단순히 1,2와 3,4,5 세트에서 2 개의 트리를 구축한다고 가정합니다. 세트가 10개이면 트리가 10개가 됩니다. 등등.
 
하지만 그건 너무 과격합니다. 그런 다음 한 세트의 첫 번째 트리. 다른 세트의 두 번째 정제 트리 등등.
사유: