트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3316

 
Maxim Dmitrievsky #:
내 마음속에 뭐가 있는지 모르겠어, 또 말도 안 되는 소리야
당신은 이미 다른 사람들로부터 당신이 전혀 생각하지 않고 있다는 것을 MO인 다른 사람들이 확인했습니다.
몇 번이나 빙글빙글 돌 수 있나요?

왜 안절부절못하고 안절부절못하나요?

녹색 선은 추적이고 빨간색 선은 유효성 검사입니다. 그리고 빨간색 원이 있는 마크는 유효성 검사 오류 그래프가 하강에서 상승으로 바뀌는 지점, 즉 글로벌 익스트림입니다! - 바로 이 지점이 훈련을 중단해야 하는 곳입니다. 제 질문에 대한 간단한 답이 보이시죠? 모든 학습은 글로벌 극한을 찾는 것이 최적화의 본질입니다. 모든 MO 방법은 바로 이것, 즉 어떤 평가 함수를 전역 극한으로 최적화하는 것(손실 함수의 최소화 또는 평가 함수의 최대화)으로 축소됩니다. 하지만 당신은 최적화 전문가가 아닌데 어떻게 그럴 수 있을까요? 의도적으로 하지 않더라도 MO 방법은 자동으로 최적화합니다.

 
Maxim Dmitrievsky #:
교사가 표시의 동의어라는 산치의 잘못된 해석을 모두가 인정하나요?

아니요, 둘은 같지 않으며 동의어가 아닙니다.

마크는 교사 역할을 할 수 있지만 작업에 따라 다릅니다. 그러나 그들 사이에 모호하지 않은 동등성을 두는 것은 불가능합니다.

 
Andrey Dik #:

왜 안절부절못하고 안절부절못하나요?

녹색 선은 추적이고 빨간색 선은 유효성 검사입니다. 그리고 빨간색 원이 있는 마크는 유효성 검사 오류 그래프가 하락에서 상승으로 바뀌는 지점, 즉 글로벌 익스트림입니다! - 바로 이 지점이 훈련을 중단해야 하는 곳입니다. 제 질문에 대한 간단한 답이 보이시죠? 모든 학습은 글로벌 극한을 찾는 것이 최적화의 본질입니다. 모든 MO 방법은 바로 이것, 즉 어떤 평가 함수를 전역 극한으로 최적화하는 것(손실 함수의 최소화 또는 평가 함수의 최대화)으로 축소됩니다. 하지만 당신은 최적화 전문가가 아닌데 어떻게 그럴 수 있을까요? 의도적으로 하지 않더라도 MO 방법이 자동으로 해줍니다.

귀하의 경우 재학습된 모델의 그래프입니다.
그리고 중단점 이후에는 복잡성이 증가하면 오버트레이닝이 증가하게 되는데, 이것이 바로 우리가 이야기했던 것입니다.
 
Valeriy Yastremskiy 데이터 구조 학습과 관련된 기타 작업에 사용됩니다.
  • 작업의 예

    • 교사와 함께 학습하기: 분류, 회귀, 예측, 사기 탐지, 객체 탐지, 기계 번역 등
    • 선생님 없이 학습하기: 클러스터링, 차원 축소(PCA, t-SNE), 연관 규칙, 데이터 시각화, 기타 여러 가지.
  • 모델 평가:

    • 교사와 함께 학습하기: 모델은 알려진 레이블과 비교하여 예측 또는 분류를 얼마나 잘 수행할 수 있는지에 따라 평가됩니다. 평가에는 정확도, F1 측정값, RMS 오류 및 기타 메트릭이 포함될 수 있습니다.
    • 교사 없이 학습: 비교할 수 있는 알려진 레이블이 없기 때문에 추정이 더 어렵습니다. 평가는 클러스터링 품질에 대한 육안 검사, 다른 알고리즘과의 비교 또는 전문가의 분석을 기반으로 할 수 있습니다.
  • 두 가지 유형의 학습 모두 머신 러닝에 적용되며, 두 가지 중 어떤 것을 선택할지는 특정 작업과 사용 가능한 데이터에 따라 달라집니다. 때로는 더 나은 결과를 얻기 위해 지도자가 있는 학습과 없는 학습을 결합하는 하이브리드 방법도 사용됩니다.

    분명 문제가 있습니다.

    정의로 돌아갑니다.

    P.Z.

    끝이 멀지 않았습니다.

    허. 누군가 깨달음을 얻었군요!

     
    Andrey Dik #:
    실제로 비슷하지만 MO에서는 이 그래프의 의미와 표시가 다릅니다.)))

    혹시 알고 계셨는지 궁금해서요.)

     
    Maxim Dmitrievsky #:
    이것은 귀하의 경우 재학습된 모델의 그래프입니다.
    왜 '제 사례'인가요? 모든 사람이 마찬가지입니다. 빨간색 원 이후에 계속 훈련하면 과훈련된 모델을 얻게 됩니다. 따라서 몇 번의 반복을 통해 유효성이 증가하기 시작할 때까지 몇 번의 반복을 기다렸다가 훈련을 중단하고 빨간색 원이 전역 극한값인 결과를 선택하세요. 어떤 사람들은 그 전에 2, 3, 4, 그 이상의 반복에 대한 결과를 취할 수 있지만, 여전히 글로벌 극값을 찾아야 하기 때문에 본질은 변하지 않습니다.
     
    Andrey Dik #:
    왜 "내 것"인가요? 모두 다 그렇죠. 빨간색 원 이후에도 계속 훈련하면 과훈련된 모델을 얻게 됩니다. 따라서 몇 번의 반복을 통해 유효성이 증가하기 시작할 때까지 몇 번의 반복을 기다렸다가 훈련을 중단하고 빨간색 원이 전역 극한값인 결과를 선택합니다. 일부는 이전에 2, 3, 4, 그 이상의 반복에 대한 결과를 취할 수 있지만 본질은 변하지 않으며 여전히이 전역 극한값을 찾아야합니다.
    원 앞에 재훈련된 모델이 있습니다.
     
    Maxim Dmitrievsky #:
    ...
    그리고 어느 시점이 지나면 복잡성이 증가하면 과잉 훈련이 증가하게 되는데, 이것이 바로 우리가 이야기하던 것입니다.

    훈련 및 검증 그래프입니다. 복잡성은 그것과 아무 관련이 없습니다. 아무리 부인해도 MO에서 무엇을 하든 글로벌 극한을 찾고 있다면 당신은 최적화자라는 사실에 관한 것입니다.

     
    Maxim Dmitrievsky #:
    원 앞에 재훈련된 모델이 있습니다.
    이제 그만, 당신은 완전히 길을 잃었습니다. 그 반대를 증명하되 한 단어로 된 문구가 아니라 그림, 설명으로 증명하세요.
     
    Andrey Dik #:
    그만하세요, 완전히 망쳤습니다. 그 반대를 증명하되 한 단어로 된 문구가 아니라 그림, 설명으로 증명하세요.
    이것은 트레인과 샤프트의 각 반복에 대한 오류 그래프입니다. 각 반복/에포크마다 모델의 복잡성이 있습니다. Y축의 원 주위의 오차가 얼마인지, X축의 반복 횟수/에포크가 얼마인지 그려지지 않았습니다. 0.5이면 모델이 아무것도 학습하지 않은 것이고 재학습을 시작하는 것입니다. 그래프가 아무것도 없는 이유입니다.

    글로벌 최대/최소값은 오차가 0입니다.
    사유: