트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1194

 
그런 다음 학습 알고리즘을 날카롭게 하여 logloss를 0.5로 분해합니다. 따라서 누적이 주된 것인 것이 논리적으로 보입니다.
 
알렉세이 비아즈미킨 :
그런 다음 학습 알고리즘을 날카롭게 하여 logloss를 0.5로 분해합니다. 따라서 누적이 주된 것인 것이 논리적으로 보입니다.

logloss는 일반적으로 보기에 거의 쓸모가 없으며, 이는 클래스로 분할하는 측면에서 의미가 없는 메트릭입니다.

 
막심 드미트리예프스키 :

이벤트의 확률이 높을수록 신호가 더 정확하고 정의에서 나온 것처럼 보입니다. :) 2개의 험프는 잡음이 있는 데이터에 있지 않지만 모델은 최소한 극한 값을 적절하게 캡처해야 합니다. 그렇지 않으면 확실하지 않습니다. 입력에 대해 전혀

모든 것이 그렇게 간단하지 않다고 생각합니다. 학습 기능을 고려해야 합니다... 확률은 일반적으로 지표(모델 알고리즘에서) 이후에 계산되기 때문입니다.

지금까지 사실에 따르면 번진 모델은 자신감이 없지만 아직 중앙에서 실패를 만나지 않았습니다 ...

막심 드미트리예프스키 :

logloss는 일반적으로 보기에 거의 쓸모가 없으며, 이는 클래스로 분할하는 측면에서 의미가 없는 메트릭입니다.

경사하강법이 뒤따른다...
 
알렉세이 비아즈미킨 :

나는 모든 것이 그렇게 간단하지 않다고 생각합니다. 확률은 일반적으로 지표 다음에 계산되기 때문에 학습 기능을 고려해야합니다.

지금까지 사실에 따르면 번진 모델은 자신감이 없지만 아직 중앙에서 실패를 만나지 않았습니다 ...

용어가 이해가 안되는데 학습기능이 뭔가요? 마지막에 소프트맥스가 있거나 무엇입니까?

나는 실패에 대해 모르지만 불확실한 모델은 새로운 데이터에서 정확하게 작동하지 않을 것이고 확률 임계 값을 설정하면 번진 모델은 그것을 끌 것입니다.

 
막심 드미트리예프스키 :

용어가 이해가 안되는데 학습기능이 뭔가요? 마지막에 소프트맥스가 있거나 무엇입니까?

거기에서 모델은 logloss에 따라 평가되고 모든 그래디언트 부스팅 작업은 이 기능의 성능을 향상시키는 것을 목표로 합니다. 모델 자체는 로지스틱 함수를 통해 변환해야 하는 값을 생성합니다. 따라서 나는 확률로이 방법에서 모든 것이 그렇게 간단하지 않다는 것을 인정합니다 ...

 
알렉세이 비아즈미킨 :

거기에서 모델은 logloss에 따라 평가되고 모든 그래디언트 부스팅 작업은 이 기능의 성능을 향상시키는 것을 목표로 합니다. 모델 자체는 로지스틱 함수를 통해 변환해야 하는 값을 생성합니다. 따라서 나는 확률로이 방법에서 모든 것이 그렇게 간단하지 않다는 것을 인정합니다 ...

최소 및 최대 기능이 있습니다. 그들은 로짓의 가장자리에서 사랑에 빠질 것입니다 .. 거기에 없으면 이것은 underfit이거나 악마는 무엇을 알고 있습니다 (예를 들어, underfit 일 때 항상 이것을 가지고 있습니다. 예를 들어 뉴런이 거의 없습니다. 또는 트리) 및 큰 분류 오류 및 로그 손실

 
막심 드미트리예프스키 :

최소 및 최대 기능이 있습니다. 그들은 로짓의 가장자리에서 사랑에 빠질 것입니다 .. 거기에 없으면 이것은 underfit이거나 악마는 무엇을 알고 있습니다 (예를 들어, underfit 일 때 항상 이것을 가지고 있습니다. 예를 들어 뉴런이 거의 없습니다. 또는 트리) 및 큰 분류 오류 및 로그 손실

https://en.wikipedia.org/wiki/Logit 모델을 제공하는 이러한 계수에 대해서는 선형 분포가 없습니다.

과소적합이 과적합보다 나은 것 같습니다. 특히 클래스 1에 초점을 맞추고 분류에 해당하는 올바르게 분류된 대상을 많이 선택한 경우에만 모델을 결합하여 적용 범위를 제한할 수 있습니다.

Logit - Wikipedia
Logit - Wikipedia
  • en.wikipedia.org
In deep learning, the term logits layer is popularly used for the last neuron layer of neural network for classification task which produces raw prediction values as real numbers ranging from [3]. If p is a probability, then is the corresponding odds; the logit of the probability is the logarithm of the odds, i.e. logit ⁡ ( p ) = log ⁡...
 
알렉세이 비아즈미킨 :

https://en.wikipedia.org/wiki/Logit 모델을 제공하는 이러한 계수에 대해서는 선형 분포가 없습니다.

과소적합이 과적합보다 나은 것 같습니다. 특히 클래스 1에 초점을 맞추고 분류에 해당하는 올바르게 분류된 대상을 많이 선택한 경우에만 모델을 결합하여 적용 범위를 제한할 수 있습니다.

한마디로.

내 생각에 빨간 비뚤어진 모양은 다소 정상적입니다.

그리고 언더 트레이닝은 전혀 ... 0.5의 영역에서

바이어스는 모델을 실행하는 과정에서 조건부 확률인 Bayes를 통해 뽑아낼 수 있습니다. 얼마나 정확히 - 아직 파악하지 못했지만 여기에는 직관적으로 알 수 없는 힘이 느껴집니다.

베이지안 모델은 재학습이 가능합니다.. 자주 재학습하지 않도록 모델에 베이지안 팁을 주면 어떨까요.. 아직 생각해보지 못했습니다.

 
막심 드미트리예프스키 :

간단히 말해서.

내 생각에 빨간 비뚤어진 모양은 다소 정상적입니다.

그리고 언더 트레이닝은 전혀 ... 0.5의 영역에서

바이어스는 모델을 실행하는 과정에서 조건부 확률인 Bayes를 통해 뽑아낼 수 있습니다. 얼마나 정확히 - 아직 파악하지 못했지만 여기에는 직관적으로 알 수 없는 힘이 느껴집니다.

베이지안 모델은 재학습이 가능합니다.. 자주 재학습하지 않도록 모델에 베이지안 팁을 주면 어떨까요.. 아직 생각해보지 못했습니다.

예, 정규 분포와 같은 빨간색도 더 좋아하지만 지금까지 512개 모델에서 이 분포는 눈으로 볼 수 없었습니다... 곧 100,000개 정도의 많은 모델이 있을 것입니다. 그들이 보여주는 것을 봅시다. .. 때로는 이론과 실습이 수렴하지 않습니다. 적응해야합니다. 그렇지 않으면 그렇게 선반에 치아를 둘 수 있습니다 ...

Catboost는 베이지안이고 재교육을 지원하지만, 나는 - 끝없이 나무를 추가하는 것 - 잘 맞는 것처럼 보입니다 ...

 
막심 드미트리예프스키 :

나무를 추가하는 것은 전체 구조를 재구성하지 않고 어떻게 든 이상합니다 .. 또는 아마도 규범, 말하기가 어렵습니다 .. 규범의 일부 작은 관점에서는 mb의 중심을 이동하는 것 같습니다.

그리고 다른 방법으로 더 많이 배울 수 있습니다. 부스팅에서 제가 이해하는 바에 따르면 이것이 유일한 옵션입니다. 물론 모델의 마지막 1/3(트리의 1/3)을 버리고 새 데이터가 제출되면 어떻게 되는지 확인할 수 있습니다. 그러나 나는 중요하지 않은 "확률"로 잎을 무효화하는 것에 대해 생각하고 있습니다. 말하자면 소음을 정리하는 것입니다. 일반적으로 나는 모델에서 앙상블 수집을 자동화하는 것에 대해 생각하고 있으므로 모델에서 좋은 범위의 예측 능력을 찾았습니다. 나는 그것에 대한 분류(예: 0.7에서 0.8까지)를 없애고 다음을 위해 공백에 넣었습니다. 다른 모델 간의 조합.

사유: