트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1334

 
알렉세이 비아즈미킨 :

MGUA에 대해 검색했는데 구체적으로 어떤 책을 언급하는지 모르겠지만 그 제목을 찾는 것이 아닙니다. 내가 이해하는 바에 따르면 이것은 CatBoost에서 사용됩니다.

--l2-리프-reg

l2-리프 레귤레이터

L2 정규화 계수. 리프 값 계산에 사용됩니다.

모든 양수 값이 허용됩니다.

CPU 및 GPU


아니면 다른 것을 말씀하시는 건가요? 이 방법은 예를 들어 특정 영역의 패턴을 설명하기 위해 예측 변수 자체를 생성할 때도 사용할 수 있습니다.

글쎄, 이것은 Tikhonov의 정규화이지만 온도 도청은 어디에 있습니까?

 
막심 드미트리예프스키 :

글쎄, 이것은 Tikhonov의 정규화이지만 온도 도청은 어디에 있습니까?

하지만 의미는 같은 것 같죠? 알고리즘이 뭔지도 모르고...

-- 자루 에 넣음 - 온도

베이지안 부트스트랩의 설정을 정의합니다. 분류 및 회귀 모드에서 기본적으로 사용됩니다.

베이지안 부트스트랩을 사용하여 객체에 임의의 가중치를 할당합니다.

이 매개변수의 값이 다음으로 설정된 경우 가중치는 지수 분포에서 샘플링됩니다.   "1" . 이 매개변수의 값이 다음으로 설정되면 모든 가중치는 1과 같습니다.   "0" .

가능한 값은 범위에 있습니다   . 값이 높을수록 배깅이 더 공격적입니다.

하나
 
알렉세이 비아즈미킨 :

하지만 의미는 같은 것 같죠? 알고리즘이 뭔지도 모르고...

--배깅-온도

베이지안 부트스트랩의 설정을 정의합니다. 분류 및 회귀 모드에서 기본적으로 사용됩니다.

베이지안 부트스트랩을 사용하여 객체에 임의의 가중치를 할당합니다.

이 매개변수의 값이 다음으로 설정된 경우 가중치는 지수 분포에서 샘플링됩니다.   "1" . 이 매개변수의 값이 다음으로 설정되면 모든 가중치는 1과 같습니다.   "0" .

가능한 값은 범위에 있습니다   . 값이 높을수록 배깅이 더 공격적입니다.

하나

물론 다르다

기능이 많을 때 유용합니다.

모델을 약간 변경하고 더 이상 순수한 미세 조정을 변경하지 않습니다.

세부 사항을 읽어야 합니다. 일반적으로 이해할 수 있지만 창까지는 아닙니다.

 

그건 그렇고, 나는 일반적으로 XGboost 가 필요한 파이썬의 예제와 함께 앞서 말한 강의를 찾았습니다. 거기 또는 다음 강의에서 정규화에 대해서도 논의합니다.


 
막심 드미트리예프스키 :

이것은 당연히 다르다

기능이 많을 때 유용합니다.

모델을 약간 변경하고 더 이상 순수한 미세 조정을 변경하지 않습니다.

스프레드가 어떻게 되는지 봅시다. 오늘 또는 내일 또 다른 100k 모델이 있을 것입니다. 열거에서 이 매개변수를 사용할지 여부를 결정할 것입니다...

 
알렉세이 비아즈미킨 :

스프레드가 어떻게 되는지 봅시다. 오늘 또는 내일 또 다른 100k 모델이 있을 것입니다. 열거에서 이 매개변수를 사용할지 여부를 결정할 것입니다...

매개변수 측면에서 정상적인 명령이 없는 이유는 무엇입니까? 나는 아직 katb를 사용하지 않고 다른 것에 대해 읽고 있습니다

 
막심 드미트리예프스키 :

매개변수 측면에서 정상적인 명령이 없는 이유는 무엇입니까? 나는 아직 katb를 사용하지 않고 다른 것에 대해 읽고 있습니다

음, 거기에 있는 모든 것은 설정과 간단한 설명, 그리고 설명이 포함된 잘 알려진 비디오입니다.

 
알렉세이 비아즈미킨 :

자세히 보면 한 샘플에 있는 모델의 재무 결과가 5000에서 1500까지 매우 다를 수 있음을 알 수 있습니다. 이는 Seed가 여전히 모델에 영향을 미친다는 것을 의미합니다. 나는 비슷한 선택 모델이라고 가정 할 것입니다 (확인하겠습니다). 약간의 이익 섹션이 있지만 거의 모든 사람이 모델 중간에 플랫을 가지고 있습니다. 놀라운 것은 동일합니다. 그들은 같은 실수를합니다. 섹션(새 데이터의 이상?).

당신은 어떤 och가 들어있는 상자를 가지고 있습니다. 구릉 풍경. 우리는 거기에 많은 공을 던졌습니다(이것이 시드입니다). 그리고 우리의 임무는 대부분의 공이 가장 깊은 구멍에 떨어지는지 확인하는 것입니다. 이것은 훈련이 될 것이며, 이 원칙에 따라 모스크바 지역에서의 훈련이 준비됩니다.

1. 상자를 약간 흔들면 대부분의 공이 원래 떨어졌던 구멍을 떠날 수 없습니다. 학습이 일어나지 않습니다.

2. 상자를 강하게 흔들면 일부 공은 칠 기회가 있고 가장 깊은 구멍에만 남아 있지만 더 얕은 구멍은 채워지지 않은 상태로 남아 있기 때문입니다. 공이 거기에서 튀어 나올 것입니다. 완전한 학습은 일어나지 않을 것입니다.

3. 상자를 중간 정도의 힘으로 흔들면 깊고 중간 정도의 구멍만 채워지고 나머지 공은 아무 것도 찾지 못하고 상자 주위를 무작위로 계속 뛰어다닙니다. 훈련은 1과 2보다 낫지 만 얼음도 아닙니다.

훈련 방법에는 항상 설정이 있습니다. 가장 효과적인 훈련을 얻기 위해 상자를 흔드는 방법과 시기를 정확하게 지정합니다.

다른 "씨앗"이 수렴하지 않으면 학습 알고리즘에 문제가 있는 것입니다. 그렇게 흔들리고 있지 않거나 우리 상자에서 잡을 수 있는 깊은 우울증이 없습니다.

 
유리 아사울렌코 :

당신은 어떤 och가 들어있는 상자를 가지고 있습니다. 구릉 풍경. 우리는 거기에 많은 공을 던졌습니다(이것이 시드입니다). 그리고 우리의 임무는 대부분의 공이 가장 깊은 구멍에 떨어지는지 확인하는 것입니다. 이것은 훈련이 될 것이며, 이 원칙에 따라 모스크바 지역에서의 훈련이 준비됩니다.

1. 상자를 약간 흔들면 대부분의 공이 원래 떨어졌던 구멍을 떠날 수 없습니다. 학습이 일어나지 않습니다.

2. 상자를 강하게 흔들면 일부 공은 칠 기회가 있고 가장 깊은 구멍에만 남아 있지만 더 얕은 구멍은 채워지지 않은 상태로 남아 있기 때문입니다. 공이 거기에서 튀어 나올 것입니다. 완전한 학습은 일어나지 않을 것입니다.

3. 상자를 중간 정도의 힘으로 흔들면 깊고 중간 정도의 구멍만 채워지고 나머지 공은 아무 것도 찾지 못하고 상자 주위를 무작위로 계속 뛰어다닙니다. 훈련은 1과 2보다 낫지 만 얼음도 아닙니다.

훈련 방법에는 항상 설정이 있습니다. 가장 효과적인 훈련을 얻기 위해 상자를 흔드는 방법과 시기를 정확하게 지정합니다.

다른 "씨앗"이 수렴하지 않으면 학습 알고리즘에 문제가 있는 것입니다. 그렇게 흔들리고 있지 않거나 우리 상자에서 잡을 수 있는 깊은 우울증이 없습니다.

또는 신발 상자)

풍선과 함께 좋은 설명

좋은 상자는 스스로 흔들린다

 
유리 아사울렌코 :

당신은 어떤 och가 들어있는 상자를 가지고 있습니다. 구릉 풍경. 우리는 거기에 많은 공을 던졌습니다(이것이 시드입니다). 그리고 우리의 임무는 대부분의 공이 가장 깊은 구멍에 떨어지는지 확인하는 것입니다. 이것은 훈련이 될 것이며이 원칙에 따라 모스크바 지역의 훈련이 조직됩니다.

1. 상자를 약간 흔들면 대부분의 공이 원래 떨어졌던 구멍을 떠날 수 없습니다. 학습이 일어나지 않습니다.

2. 상자를 강하게 흔들면 일부 공은 칠 기회가 있고 가장 깊은 구멍에만 남아 있지만 더 얕은 구멍은 채워지지 않은 상태로 남아 있기 때문입니다. 공이 거기에서 튀어 나올 것입니다. 완전한 학습은 일어나지 않을 것입니다.

3. 상자를 중간 정도의 힘으로 흔들면 깊고 중간 정도의 구멍만 채워지고 나머지 공은 아무 것도 찾지 못하고 상자 주위를 무작위로 계속 뛰어다닙니다. 훈련은 1과 2보다 낫지 만 얼음도 아닙니다.

훈련 방법에는 항상 설정이 있습니다. 가장 효과적인 훈련을 얻기 위해 상자를 흔드는 방법과 시기를 정확하게 지정합니다.

다른 "씨앗"이 수렴하지 않으면 학습 알고리즘에 문제가 있는 것입니다. 그렇게 흔들리지 않거나 우리 상자에서 잡을 수 있는 깊은 우울증이 없습니다.

좋은 추상화입니다. 깊은 골이 훈련이 중지되는 검증에 대한 최소 오류가 있는 응답을 의미하는 경우 이는 검증 세트의 크기가 증가하여 더 나은 결과를 얻었다는 사실을 설명할 수도 있습니다. . 추상 릴리프의 크기와 그에 따른 함몰 수가 공식적으로 증가한 결과입니다.
사유: