트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3334

 
Aleksey Vyazmikin #:

아니요, 모두에게 동일한 상대적 위치, 즉 분할(분할)의 수가 고정됩니다.

0과 1이 있는 이진 예측자가 많으면 32개로 분할되지 않습니다. 하지만 정규화하면 균일 양자화를 통해 무언가를 얻을 수 있습니다. 균일하지 않은 양자를 사용하면 숫자만으로는 모든 거리가 왜곡되므로 정규화 후 값을 빼야 합니다.

알렉세이 비야즈미킨 #: 여러 가지 방법이 있을 수 있습니다. 저는 모델 구축 전 처리의 변형에 관심이 있습니다. 일반적으로 최종 모델이 성공적으로 훈련되었는지 여부에 관계없이 최종 결론의 오류를 줄이는 건물 조합의 변형이 적기 때문입니다.

훈련에서와 같이 노이즈를 제거하지 못하면 예측에 오류가 발생할 수 있습니다.

알렉세이 뱌즈미킨 #:

합계의 불확실한 잎은 확률을 한 방향 또는 다른 방향으로 이동할 수 있습니다. 확률 이동에 따라 가중치가 어떻게 분포되는지 보여주는 그래프를 만들고 싶지만 계속 미루고 있습니다. 3일 동안 컴퓨터가 모델 잎의 유사성을 고려합니다 - 알고리즘 최적화에 대해 생각합니다 - 너무 오래....

나무인지, 숲인지, 덤불인지는 중요하지 않습니다. 모델 예측이 50%인 경우 예측에 50%는 0이고 50%는 1이 됩니다.

 
따라서 문제는 한 번에 양쪽 끝에 있습니다. 한쪽 끝에서는 목표 함수를 모르고, 다른 쪽 끝에서는 특정 모델에 의한 근사치의 오차가 무엇인지 모릅니다. F값과 오차를 찾아야 합니다. 종종 편향된 하위 샘플만 있으면 됩니다.

그리고 이 모든 것을 여러 번의 OOS 테스트 없이도 할 수 있습니다. 하지만 하위 표본 내에는 어떠한 억제도 없습니다.
 
Forester #:

0과 1이 있는 이진 예측자가 많지만 32로 나누지 않습니다. 하지만 정규화하면 균일 양자화를 통해 무언가를 얻을 수 있습니다. 균일하지 않은 양자를 사용하면 숫자만으로는 모든 거리가 왜곡되므로 정규화 후 값을 빼야 합니다.


예, 바이너리를 사용하면 더 복잡합니다. 그러나 정규화가 여기서 어떻게 도움이 될 수 있는지 이해하지 못합니다.

일반적으로 차원을 줄이는 것이 필요하다고 생각합니다. 그러나 그것은 저자가 의도 한 것과 정확히 일치하지 않습니다. 지금까지 나는 실현과는 거리가 멀다.

포레스터 #:

훈련에서와 같이 노이즈를 제거하지 못하면 예측에 오류가 발생합니다.

데이터가 '예측 가능'과 '예측 불가능'처럼 두 부분으로 나뉘고 하나의 모델이 이를 담당한다는 다른 개념입니다. 그리고 새로운 데이터가 들어오면 예측할지 여부를 평가합니다. 따라서 예측은 학습 중에 "쉽게" 분리할 수 있고 밀접하게 클러스터링된 데이터, 즉 타당성이 있는 데이터에 대해서만 이루어집니다.

포레스터 #:
나무, 숲, 수풀이든 상관없습니다. 모델 예측이 50%라는 것은 예측에 50%의 0과 50%의 1이 있다는 것을 의미합니다.

그게 중요한 게 아닙니다. 포레스트와 덤불은 강제적으로 나무를 구성하므로, 나무가 형편없으면 버릴 수 있는 알고리즘이 없습니다. 두 경우 모두 트리에 가중치가 부여됩니다. 기능을 선택할 때나 예제(하위 샘플)를 선택할 때 모두 알고리즘의 과도한 무작위성 때문에 형편없을 수 있습니다.

 
Maxim Dmitrievsky #:
아니요, 아직 못 봤어요. 오늘 밤에 확인해 볼게요.
이러한 방법은 모델에 따라 다릅니다. 데이터 자체는 분할되거나 분리되지 않습니다. 어떻게 설명해야 할지 모르겠네요. 한 번 시도했다가 최적화 프로그램과 다시 문제가 생겼어요. 책에 나와 있습니다.
여기서 왼쪽으로 가면 말 한 마리를 잃게 됩니다. 오른쪽으로 가면 머리 둘 달린 용을 잃게 되죠.

학습을 저해하는 예시를 분리하는 방법이 바로 이 이론입니다.

100개의 모델을 훈련시켜 평균적으로 어떤 예가 신뢰할 수 있는 분류를 '방해'하는지 확인한 다음 다른 모델로 이를 탐지하는 것입니다.

 

그래서 모델을 가져와서 잎 수를 살펴봤습니다. 모델은 12.2% 단위로 불균형합니다. 17,000개의 잎이 있습니다.

저는 나뭇잎을 클래스로 마크업했습니다. 목표가 '1'인 응답 샘플이 초기 값인 12.2%보다 많으면 클래스는 '1'이고, 그렇지 않으면 '0'이 됩니다. 여기서 클래스의 개념은 분류를 개선하는 데 유용한 정보를 제공하는 것입니다.

히스토그램에서 우리는 모델 잎(X)의 값과 모델(Y)의 %를 분류하지 않고 볼 수 있습니다.

0

여기에서도 마찬가지이지만 클래스는 "0"에 불과합니다.


클래스는 "1"입니다.

잎의 이러한 계수는 로짓을 통해 합산 및 변환되므로 "+" 기호는 클래스 "1"의 확률을 높이고 "-" 기호는 확률을 낮춥니다. 전반적으로 클래스별 분류는 유효해 보이지만 모델에 편향성이 있습니다.

이제 '1'이 있는 시트와 '0'이 있는 시트의 백분율 분포만(분류 정확도 측면에서) 따로 살펴볼 수 있습니다.


"0"에 대한 히스토그램은 "100%"에 가까운 정확도를 가진 엄청난 수의 잎입니다.


그리고 여기에는 초기 분리 값 근처에 더 큰 클러스터가 있습니다. 즉, 정보가 낮은 잎이 많지만 동시에 100%에 가까운 잎도 있습니다.

리콜을 보면 이러한 잎은 모두 활성화 횟수가 적은 잎으로, 해당 클래스의 5% 미만인 잎이라는 것이 분명해집니다.


클래스 "0"에 대한 리콜


클래스 "1"에 대한 리콜.

다음으로 분류 정확도에 대한 잎의 가중치의 의존성을 각 클래스에 대해 개별적으로 살펴볼 수 있습니다.

00

대상 "0"의 경우


대상 "1"의 경우.

비록 그 범위가 크긴 하지만 선형성이 존재한다는 점은 주목할 만합니다. 그러나 확률이 100 인 "열"은 논리를 벗어나 시트 값의 범위에 걸쳐 매우 넓게 퍼져 있습니다.

이 추함을 제거해야 할까요?

또한 리콜 지표에 따른 잎의 값을 보면 잎의 가중치가 작은 경우(0에 가까움) 응답 값이 매우 큰 경우도 있습니다. 이 상황은 나뭇잎이 좋지 않지만 무게가 붙어 있음을 나타냅니다. 그렇다면 이러한 잎도 노이즈로 간주하여 0으로 처리할 수 있을까요?

000

타깃"0"의 경우


목표 "1"의 경우.

새 샘플(훈련이 아닌)의 나뭇잎 중 몇 퍼센트가 등급을 "변경"할 것인지 궁금합니다.

 

또한 고전적인 것은 완전성과 정확성의 상호 의존성입니다.

0

클래스 0.


클래스 1.

어쨌든, 나는 그 무게를 측정하는 방법에 대해 생각하고 있습니다....

 

그리고 이것이 확률 측면에서 모델이 어떻게 생겼는지입니다.

기차

기차 샘플에서는 동화에서처럼 35%의 수익이 발생하기 시작합니다!


테스트 샘플에서 - 0.2에서 0.25 범위에서 우리는 큰 이익을 잃습니다 - 클래스 최대 포인트가 섞여 있습니다.


시험 샘플에서 - 여전히 수익을 내고 있지만 이미 모델을 부식시키고 있습니다.

 
Aleksey Vyazmikin #:

새로운 샘플(기차가 아닌)에서 몇 퍼센트의 잎이 등급을 "변경"하는지 궁금합니다.

예, 궁금합니다....

________________________

사실, 나는 훈련이나 테스트에서 목표에 대해 이동하지 않는 그러한 특징을 찾는 방법을 찾았습니다... 그러나 문제는 그러한 특징이 비극적으로 적고 스크리닝 방법 자체가 전력 측면에서 엄청나게 비싸고 일반적으로 방법 자체가 교사없이 훈련으로 구현된다는 것입니다.


 
여기서 정량화는 어떤 역할을 했나요? 10점 만점에요.
스타필드에 들어갔을 때 특이점이 시작된 것 같았어요. 다중 우주로 들어가서 제 자신의 복사본을 만났어요. 이제 저는 여러 버전의 우주를 돌아다니고 있습니다. 그리고 빠져나갈 방법이 없어요. 이제 새로운 의미를 찾아야 해요.

뇌나 신경망이 합리성의 한계에 도달하면 특이점이 시작됩니다.
 
Aleksey Vyazmikin #:

학습 효과를 떨어뜨리는 사례를 강조하는 방식은 이론상으로는 맞습니다.

100개의 모델을 학습시키고 평균적으로 어떤 예가 신뢰할 수 있는 분류를 '방해'하는지 확인한 다음 다른 모델로 이를 탐지하는 것입니다.

메인 트랙을 5-10개의 서브 트랙으로 나누고, 각 트랙은 트랙과 샤프트로 나뉩니다. 각각에 대해 이력서 유형에 대해 훈련한 다음 전체 메인 트레인을 예측합니다. 모든 모델의 원래 레이블과 예측 레이블을 비교합니다. 예측하지 못한 것은 블랙리스트에 올립니다. 그런 다음 각 샘플에 대한 평균 열망을 계산하여 최종 모델을 학습할 때 잘못된 예시를 모두 제거합니다. 선택적으로 세 번째 클래스를 통해 두 번째 모델에 흰색 샘플과 검은색 샘플을 구분하도록 가르칠 수 있습니다.

코드 3줄, 결과물은... 글쎄요, 비교할 만한 것이 많지 않네요... 어느 정도 수준입니다.

여기서 코졸은 이력서로, 각각 다른 이력으로 학습된 여러 모델을 사용하여 어떤 예가 나쁜 예이고 어떤 예가 좋은 예인지 통계적으로 결정한다는 의미입니다. 이를 성향 점수, 즉 각 샘플의 성향이 학습에서 어떤 역할을 하는지를 나타냅니다.

물론 라벨은 매우 쓰레기가 될 수 있으며 이 접근 방식은 거의 모든 것을 제거할 수 있습니다. 그래서 저는 처음에 다양한 마크업 변형을 추가하기 위해 트랜잭션의 무작위 샘플링을 사용했습니다. 차트를 마크업하는 방법에 대해 생각하고 싶지 않거나 생각할 방법을 모른다는 점을 감안하면 말이죠.

이것이 바로 자체적으로 TC를 검색하는 코졸 요소가 있는 AMO의 대략적인 모습입니다.