트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3293

 
Maxim Dmitrievsky #:

국방부에서는 다른 일정이 사용됩니다.

코졸 추론에서는 분산보다 편향으로 작업하는 것이 더 쉽습니다. 따라서 모델 복잡성이나 기능의 수가 증가하면 도움이 되기보다는 방해가 된다는 가설적인 결론을 내릴 수 있습니다.


이 그래프의 출처는 어디일까요?

MO는 매개변수가 너무 많으면 불이익을 받는 AIC와 같이 완전히 다른 기준을 사용합니다.

이 기준과 다른 정보 기준은 동일한 성능을 가진 두 모델 중에서 매개변수가 더 적은 모델을 선택한다는 모델링의 일반적인 가정과 일치합니다.

'모델'이라는 개념 자체가 현실을 축소한 것이라는 점을 잊지 마세요. 여기에는 극단이 없습니다. 모델 정확도의 거칠기와 수용 가능성 사이에는 균형이 있습니다. 그러나 가장 중요한 것은 모델의 정확성이 아니라 모델의 거칠기, 일반화 능력입니다. 모델링의 가장 큰 적은 모델 정확도의 형제인 과적합이기 때문에 이것은 이해할 수 있습니다.

 
СанСаныч Фоменко #:

저 그래프는 어디에서 가져온 건가요?

기본 중의 기본

https://en.wikipedia.org/wiki/Bias%E2%80%93variance_tradeoff

 
СанСаныч Фоменко #:

'모델'이라는 개념 자체가 현실을 압축한 것임을 잊지 마세요. 여기에는 극단적인 것이 없습니다. 모델 정확도의 거칠기와 수용 가능성 사이에는 균형이 있습니다. 그러나 가장 중요한 것은 모델의 정확성이 아니라 모델의 거칠기, 일반화 능력입니다. 모델링의 가장 큰 적은 모델 정확도의 형제인 과적합이기 때문에 이것은 이해할 수 있습니다.

'극한'의 개념을 '극점'(함수에 도함수가 없는 지점)과 혼동하는 경우가 많습니다.

평평한 표면에도 극한이 있습니다.

또 다른 한 가지는 FF는 항상 FF 표면이 가능한 한 매끄럽고 전역 극한이 유일한 방법을 선택하려고 노력한다는 것입니다. 유일한 전역 극한은 문제의 유일한 명확한 해결책이어야 합니다.

FF의 극한값이 유일한 극한값이 아니며, 더구나 미분값이 없다면 FF(모델 평가 기준)를 잘못 선택했음을 의미합니다. 이를 잘못 이해하면 "과적합"이라는 용어가 생기고, 이를 잘못 이해하면 모호한 국부 극한값을 찾게 됩니다.

우리는 비유를 그릴 수 있습니다. 전문가 (의사)가 훈련을 받고 자격 시험 (FF)이 인증을 위해 개발되었으며 의사에게는 "과잉 훈련"또는 "과잉 적합"이라는 개념이있을 수 없으며 의사가 최대 점수를 얻지 못하면 훈련이 부족하다는 것을 의미합니다. 그리고 여러분에 따르면, 좋은 의사는 항상 훈련이 부족한 저성과자이어야 합니다.

다시 한 번, "과잉 훈련"의 문제는 모델을 평가하기위한 잘못된 기준 선택입니다. 그런 멋진 전문가들이 포럼에 참석하는 것 같지만 그들은 같은 실수를 반복해서 반복합니다. 올바른 추정 기준의 개발은 예측 변수 선택만큼 중요하지 않으며, 그렇지 않으면 모델을 적절하게 추정하는 것이 불가능합니다.

이의 제기가 쇄도할 것으로 예상하지만 괜찮아요, 익숙합니다. 누군가에게 유용하다면 좋고, 유용하지 않은 사람은 상관없으니 이대로도 괜찮다고 생각합니다.

 
Andrey Dik #:

'극한'의 개념을 '날카로운 피크'(함수에 미분이 없는 지점)와 혼동하고 계십니다.

평평한 표면에도 극한이 있습니다.

또 다른 한 가지는 FF는 항상 FF 표면이 가능한 한 매끄럽고 전역 극한이 유일한 극한이 되도록 선택하려고 노력한다는 것입니다. 유일한 전역 극한은 문제의 유일한 명확한 해결책이어야 합니다.

FF의 전역 극한이 유일한 극한이 아니며, 더구나 도함수가 없다면 이는 FF(모델 평가의 기준)를 잘못 선택했음을 의미합니다. 이를 잘못 이해하면 "과적합"이라는 용어가 생기고, 이를 잘못 이해하면 모호한 국부 극값을 찾게 됩니다.

우리는 비유를 그릴 수 있습니다. 전문가 (의사)가 훈련을 받고 자격 시험 (FF)이 인증을 위해 개발되었으며 의사에게는 "과잉 훈련"또는 "과잉 적합"이라는 개념이있을 수 없으며 의사가 최대 점수를 얻지 못하면 훈련이 부족하다는 것을 의미합니다. 그리고 여러분에 따르면 좋은 의사는 항상 훈련을 받지 않은 비과학자이어야 합니다.

다시 한 번, "과잉 훈련"의 문제는 모델을 평가하기위한 잘못된 기준 선택입니다. 포럼에 그런 멋진 전문가들이 있는 것 같지만 그들은 같은 실수를 반복해서 반복합니다. 올바른 추정 기준을 개발하는 것은 예측 변수를 선택하는 것보다 중요하지 않으며, 그렇지 않으면 모델을 적절하게 추정하는 것이 불가능합니다.

이의 제기가 쇄도할 것으로 예상하지만 괜찮아요, 익숙합니다. 누군가에게 유용하다면 좋고, 유용하지 않은 사람들은 신경 쓰지 않으니 이대로 괜찮다고 생각하겠죠.

엔티티를 혼동하고 있습니다. 최적화를 근사치에 맞추려고 하거나 그 반대의 경우도 마찬가지입니다.

근사치와 최적화는 머신 러닝 문제를 해결하는 데 있어 서로 다른 접근 방식입니다.


근사화는 입력 데이터와 출력 데이터 간의 관계를 근사화하는 모델을 구축하는 것을 말합니다. 예를 들어, 데이터를 가장 잘 설명하는 선형 또는 비선형 함수를 구축하는 것이 근사화입니다. 근사화는 해결하고자 하는 목표나 문제를 고려하지 않고 데이터에 가장 잘 맞는 모델을 구축하는 것만을 추구합니다.


반면 최적화는 특정 목표나 문제를 달성하기 위한 최적의 모델 매개변수를 찾는 것을 말합니다. 이 경우 모델은 근사화의 경우보다 더 복잡하고 더 많은 매개변수를 포함할 수 있습니다. 최적화는 목표 또는 목적을 고려하여 가능한 최상의 결과를 얻기 위해 모델 매개변수를 조정합니다.


일반적으로 근사치와 최적화는 효과적인 머신 러닝 모델을 구축하기 위해 함께 사용되는 경우가 많습니다. 먼저 근사화를 수행하여 모델을 구축한 다음 최적화를 수행하여 원하는 목표나 작업을 달성하기 위해 해당 모델의 매개 변수를 조정합니다.

 
신경망은 FF를 신경 쓰지 않습니다. 기성 데이터로 작업을 수행합니다. 여기서 논의하는 것은 이러한 모델의 분산과 편향 사이의 균형을 찾는 방법입니다. 미트라마일즈는 NS의 두 번째 끝에 다른 FF를 배치했습니다. 모두 동일한 적합도를 얻었습니다.

기본적으로 이미 설정된 목표 f-i를 찾는 것에 대해 작성합니다.

여전히 그 차이를 깨달아야 합니다.
 
그렇기 때문에 위에서 전문 지식이나 알고리즘 결정에 기반한 적절한 마크업 또는 오라클의 중요성에 대해 설명한 것입니다. 그것이 바로 선험적으로 모델에 가져오는 것입니다. FF는 거기서 당신을 구해줄 수 없습니다.

이 문제는 이미 여러 차례 논의된 바 있습니다. 구체적인 논의가 이루어지지 않으면 모두가 자기 편을 들게 됩니다.
 

제가 말했잖아요.

산치가 반격하기 시작하면 이해하겠지만 맥스....

FF는 평가입니다. 우리는 모든 것을 평가합니다. 우리가 하는 일을 잘못 판단한다고 해서 잘못하고 있다는 뜻은 아닙니다. 제대로 된 평가가 없으면 50 대 50이고 그들은 이렇게 말합니다 - 이것은 작동하지 않습니다, 저것은 작동하지 않습니다..... 저는 평가 설계의 전문가라고 주장하지 않습니다. 매우 어려운 작업이기 때문입니다.

"동그라미에서 말하는 것과 같은 것"-이것은 내 말이 아닙니다)))))) 여기서 평가 기준은 "단어 수"이며, 단어를 바꾸면 의미가 극적으로 바뀔 수 있기 때문에 올바른 평가가 아니기 때문에 단어를 변경하여 더 나쁘게 들릴 수 있습니다.

 
SSG보다 더 강력한 알고리즘이 발견되었다는 놀라운 소식을 전하지 않을 수 없습니다.
 
개념의 지속적인 대체가 있으며 의사 소통이 불가능합니다.
 
Maxim Dmitrievsky #:
개념의 지속적인 대체가 있으며 의사 소통이 불가능합니다.

동의합니다. 아무도 서로를 이해하지 못하며 진술과 그 의미 부하를 평가하는 단일 기준이 없습니다. 그 일화에서처럼 누가 무엇을 의미하는지 아무도 모릅니다:

- 무슨 뜻이죠?!

- 내 말이 무슨 뜻인지.

국방부도 마찬가지입니다.

사유: