트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3358

 
오래 전에 논의한 결과, f-y를 과도하게 최적화하는 것으로 끝났습니다.)
 
Andrey Dik #:
이 주제는 오래 전인 포크사우루스, 마테마트, 그래닛, 메타드라이버 시절에 논의된 적이 있습니다.
저는 이 주제를 이들로부터 본 적이 없는데, 아마도 제가 놓친 것 같습니다(저는 Cyberpaw를 더 많이 읽곤 했죠). 특정 수치값이 아닌 확률 분포를 출력으로 생성하는 모델에 관한 내용입니다. 이것이 완전히 새로운 접근 방식이라고 말할 수는 없지만, 최근 몇 년 동안 이 주제에 대한 관심이 눈에 띄게 증가하고 있습니다.
 
Aleksey Nikolayev #:
이 주제를 본 적이 없는데, 제가 놓쳤나 봅니다(사이버포크를 더 많이 읽곤 했죠). 특정 숫자 값이 아닌 확률 분포를 출력으로 생성하는 모델에 관한 내용입니다. 완전히 새로운 접근 방식이라고는 할 수 없지만 최근 몇 년 동안 이 주제에 대한 관심이 눈에 띄게 급증하고 있습니다.

많은 시도가 있었지만 성공적인 공개 결과는 알지 못합니다. 가장 간단한 방법은 단일 뉴런의 출력을 [-1.0;1.0] 범위의 매도/매수 확률로 취급하는 것인데, 좋은 결과가 나오지 않았고 임계값을 적용해도 도움이되지 않습니다.

또 다른 한 가지는 뉴런 출력의 분포를 확률로 적용하는 것이 가능하지만 아무도 그렇게하는 것을 보지 못했다는 것입니다. 예를 들어, 훈련 중 네트워크 출력 뉴런의 동일한 매도 / 매수 신호의 경우 값 분포가 매우 다를 수 있으므로 OOS에서의 동작이 다를 수 있습니다.

게다가 저는 오래 전에 OOS에서 훈련 및 행동 그래프를 보여 주었는데, 선이 끊어지지 않고 물론 확산되지 않고 입력에 다른 시간대의 간단한 마쉬카 증분, 초등이 주어졌습니다. 그리고 여기서 일부 천재들은 갑자기 확산이 OOS의 행동에 영향을 미친다는 "훌륭한" 결론을 내렸습니다.

 
Andrey Dik #:

글쎄요, 많은 시도가 있었지만 성공적인 공개 결과는 모르겠습니다. 가장 간단한 방법은 단일 뉴런의 출력을 [-1.0;1.0] 범위의 매도/매수 확률로 처리하는 것이었고, 좋은 결과가 나오지 않았으며 임계값을 적용해도 도움이되지 않았습니다.

또 다른 한 가지는 뉴런 출력의 분포를 확률로 적용 할 수 있지만 아무도 그렇게하는 것을 보지 못했다는 것입니다. 예를 들어, 훈련 중 네트워크의 출력 뉴런의 매도 / 매수 신호가 동일하면 값 분포가 매우 다를 수 있으므로 OOS에서의 동작이 달라질 수 있습니다.

게다가 저는 오래 전에 OOS에서 훈련 및 행동 그래프를 보여 주었는데, 선이 끊어지지 않고 물론 확산되지 않고 입력이 다른 시간대의 간단한 마쉬카 증분, 초등이 주어졌습니다. 그리고 여기서 일부 천재들은 갑자기 스프레드가 OOS의 행동에 영향을 미친다는 "훌륭한" 결론을 내렸습니다.

그럼에도 불구하고 분류는 비교적 간단한 특수한 경우로, 출력 분포가 불연속적이므로 모든 것을 일반적인 "포인트", 수치 MO 문제로 비교적 쉽게 줄일 수 있습니다.

출력이 숫자가 아닌 임의의 (물론 합리적인 한도 내에서) 분포인 모델을 사용하는 더 광범위한 접근 방식이 흥미롭습니다. 예를 들어 신뢰성 이론(수명 분포를 연구하는 경우)이나 확률론적 일기 예보(예를 들어 가능한 강수량에 대한 확률 분포를 구성하는 경우)에서 사용되는 MO를 들 수 있습니다.

 
Aleksey Nikolayev #:

...

출력이 숫자가 아닌 모든 (물론 합리적인 한도 내에서) 분포인 모델을 사용하는 더 광범위한 접근 방식이 흥미롭습니다. 예를 들어 신뢰성 이론(수명 분포를 연구하는 분야)이나 확률론적 일기 예보(예를 들어 가능한 강우량에 대한 확률 분포를 구성하는 분야)에서 사용되는 MO를 들 수 있습니다.


실제로 제가 말한 것은 출력값 자체가 아닌 분포를 분류자로 사용하자는 것이었습니다.
 
확률은 이미 학습된 모델에서 파생됩니다. 그렇지 않다면 왜 확률을 가르칠까요? 확률을 알고 있다면 왜 학습시킬까요?

구간 추정을 위한 회귀 모델의 분포 모멘텀? 아니요, 들어본 적이 없나요? 예측을 많이 해보셨나요?

20년 전에 다 알고 있었지만 부끄러워서 말하지 못했던 건가요? 지나친 단계 최적화에서 벗어나기에는 너무 오랜 시간이 걸렸습니다.

슬프네요, 20년이라니...
 

훈련 중이 아닌 훈련 후에 확률 분포를 형성합니다.

훈련이 끝난 후 아무것도 하지 않는다면 무슨 소용이 있을까요? 가상의 기계 바보가 훈련 후 드라이버로 조정하면 새로운 지식을 습득하지 못할 것입니다.

 
Maxim Dmitrievsky #:

위의 예는 이미 설명했습니다. OOS를 통과하는 분류기가 있지만 수익은 60/40으로 분배됩니다. 마음에 들지 않으면 결정 임계값을 높여 보지만 상황은 변하지 않고 때로는 더 악화되기도 합니다. 왜 그런지 고개를 갸우뚱하게 됩니다.

실제 확률 추정의 경우 상황이 바뀌어야 하기 때문이라는 설명이 주어집니다.

해결책이 주어집니다.


이 카르 포프 같은 멍청이를 어떻게 찾습니까?

그 남자의 머리는 엉망입니다. 그 남자는 일관된 생각을 할 수 없습니다. 그냥 소름 끼칩니다!

처음부터 그는 단순히 분류기가 확률을 제공하지 않는다고 말합니다. 그리고 분류기가 제공하는 것을 사용하지 않고 확률을 어디서 얻을 수 있습니까?

 
СанСаныч Фоменко #:

카르포프 같은 멍청이는 어떻게 찾나요?

그 남자의 머리는 엉망이야. 일관된 사고를 할 수 없어. 소름 끼치네!

당신도 영국에서 머쉬와 함께 일하도록 초대받았나요? )

그 남자는 전혀 신경 쓰지 않고 잘하고 있습니다.

요점을 이해하지 못한다는 건 잘못 이해한다는 거죠. 이들은 약간 다른 형태의 사람들인데, 아마 그게 문제일 겁니다.

이 주제에 새로운 피가 필요하다는 것은 오랫동안 분명해졌습니다. 저도 이미 올드펙입니다. 물론 포럼이 끝날 때까지 곰팡이가 피지 않는다면 새로운 사람들이 와서 보여줄 것입니다.

최악의 부분은 나이가 들면서 뇌에 어떤 변화가 일어나는지, 사람들이 왜 이런 식으로 추론하고 저런 식으로 추론하지 않는지 이해한다는 것입니다. 이 뻔한 사실이 때때로 웃기기도 하지만 피할 수는 없습니다.

 
Maxim Dmitrievsky #:

영국에서도 죽으로 일하라는 초대를 받았나요? )

그 남자는 전혀 신경 쓰지 않고 잘 지내고 있습니다.

아이디어를 이해하지 못함 = 제대로 이해하지 못함. 이들은 약간 다른 형태의 사람들인데, 아마도 그게 문제일 것입니다.

이 주제에 새로운 피가 필요하다는 것은 오래전부터 분명해졌습니다. 저도 이미 올드펙입니다. 물론 포럼이 결국 곰팡이가 피지 않는다면 새로운 사람들이 와서 보여줄 것입니다.

최악의 부분은 나이가 들면서 뇌에 어떤 변화가 일어나는지, 사람들이 왜 이런 식으로 추론하고 저런 식으로 추론하지 않는지 이해한다는 것입니다. 이 뻔한 사실이 때때로 웃기기도 하지만 피할 수는 없습니다.

이게 영국과 무슨 관련이 있나요?

당신은 자격을 갖춘 사람처럼 보이지만 끊임없이 쓰레기통으로 끌려갑니다.

당신은 장점에 대해 거의 논쟁하지 않습니다....

사유: