트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3386

 


내 메일 #:

하바롭스크에서 시도해볼게요...


모든 모델은 패턴의 특정 합계이며, 과장되게 말하면 패턴은 TS로 레이블을 지정할 수 있습니다.


한 모델이 100개의 TS로 구성되어 있다고 가정해 봅시다.


모델 #1에서는 100개의 TC가 하나의 거래를 했을 수 있습니다.

모델 2에서는 한 명의 TS가 100건의 거래를 성사시키고 나머지 99명은 거래를 성사시키지 않았을 수 있습니다.


각 TS의 통계는 어떻게 계산 하나요?

모델이 규칙에서 나온 것이라면 쉽고 명확하게 할 수 있습니다.

모델이신경망 모델인 경우?

문제는 모델이 사용되는 횟수가 아닙니다.

문제는 동일한 데이터에 대해 동일한 모델(트리?)이 어떤 경우에는 하나의 레이블을 예측하고 다른 경우에는 다른 레이블을 예측한다는 것입니다. 이를 분류 오류라고 합니다. 적어도 우리에게는 값을 엄격하게 분류할 수 있는 예측자가 없으며, 나뭇잎, 나무 등의 모든 문제는 예측자의 값에서 파생됩니다.

 
Maxim Dmitrievsky #:
오류가 이미 더 이상 발생하지 않거나 0과 같다면, 나머지 예제들을 어느 정도 근접성에 따라 패턴으로 나눌 수 있습니다.) 클러스터링을 예로 들 수 있습니다. 그리고 몇 개가 남았는지 세어보세요. 그리고 각 패턴/클러스터에 대한 평균 조건을 작성하면(클러스터의 중심을 취하면) 출력에서 규칙을 얻을 수 있습니다.
하지만 뉴로닉의 내부 파티셔닝에 따라 파티셔닝이 올바르게 수행되었다는 보장은 어디에 있을까요?

클러스터링을 위해 선택한 근접성 측정값이 올바르게 선택되었다는 보장은 어디에 있나요?

기타...

나무 모델을 분할하는 것이 더 간단하고 프랭클린을 만들 필요가 없지 않을까요?

 
mytarmailS #:
할 수는 있지만 뉴런의 내부 파티셔닝에 따라 파티셔닝이 정확하다는 보장은 어디에 있나요?
클러스터링을 위해 선택한 근접성 측정값이 올바르게 선택되었다는 보장은 어디에 있을까요?
글쎄요, 그건 철학적 질문입니다.
 
예제가 아닌 뉴런의 마지막 계층이 클러스터링되어야 하는 곳입니다.
 
mytarmailS #:
클러스터링을 하려면 예제가 아니라 뉴런의 마지막 계층이 중요합니다.
아니요, 예제입니다. 뉴로닉스의 마지막 계층에서는 규칙을 만들 수 없습니다.
 
Maxim Dmitrievsky #:
아니요, 예시일 뿐입니다. 뉴런의 마지막 계층에서 규칙을 만들 수는 없습니다.
제가 샘플 데이터를 만들어서 각자의 방법론을 적용해보면 어떨까요?
 
mytarmailS #:
샘플 데이터를 만들어서 각자의 방법론을 적용해 보겠습니다.
저는 이 접근 방식을 시도해 본 적이 없으며, 단지 어떤 모델에서 규칙을 얻는 방법에 대해 큰 소리로 생각했을 뿐입니다. 나중에 이걸 가지고 놀아볼 수 있습니다.
 
Maxim Dmitrievsky #:
저는 이 접근 방식을 시도해 본 적이 없으며, 어떤 모델에서 규칙을 얻는 방법에 대해 큰 소리로 생각해 보았습니다. 나중에 시도해 보세요.
저도 시도해 본 적이 없으니 제 이론은 다음과 같습니다.
 

기사 번역이 중단되었거나 시간이 없는 것 같습니다. 영어 섹션은 이미 파이썬 기사와 onnx로 가득 차 있습니다 :)) 그리고 R에 대한 기사가 하나 나왔습니다.

일반적으로 기사는 TC 측면에서 쓸모가 없습니다. 미디엄에서와 마찬가지로 글을 쓰기 위해 글을 씁니다.

 
mytarmailS #:

이제 선형적으로 관련된 모든 규칙을 식별하고 중복 규칙으로 제거합니다.

이 선형 결합은 어떻게 정의되나요? 자세히 설명해 주시겠어요?

매우 유사한 규칙을 제거하면 되며, 유사성은 활성화 지점에 의해 결정됩니다.

사유: