Maxim Dmitrievsky #: 내 마음속에 뭐가 있는지 모르겠어, 또 말도 안 되는 소리야
당신은 이미 다른 사람들로부터 당신이 전혀 생각하지 않고 있다는 것을 MO인 다른 사람들이 확인했습니다.
몇 번이나 빙글빙글 돌 수 있나요?
왜 안절부절못하고 안절부절못하나요?
녹색 선은 추적이고 빨간색 선은 유효성 검사입니다. 그리고 빨간색 원이 있는 마크는 유효성 검사 오류 그래프가 하강에서 상승으로 바뀌는 지점, 즉 글로벌 익스트림입니다! - 바로 이 지점이 훈련을 중단해야 하는 곳입니다. 제 질문에 대한 간단한 답이 보이시죠? 모든 학습은 글로벌 극한을 찾는 것이 최적화의 본질입니다. 모든 MO 방법은 바로 이것, 즉 어떤 평가 함수를 전역 극한으로 최적화하는 것(손실 함수의 최소화 또는 평가 함수의 최대화)으로 축소됩니다. 하지만 당신은 최적화 전문가가 아닌데 어떻게 그럴 수 있을까요? 의도적으로 하지 않더라도 MO 방법은 자동으로 최적화합니다.
녹색 선은 추적이고 빨간색 선은 유효성 검사입니다. 그리고 빨간색 원이 있는 마크는 유효성 검사 오류 그래프가 하락에서 상승으로 바뀌는 지점, 즉 글로벌 익스트림입니다! - 바로 이 지점이 훈련을 중단해야 하는 곳입니다. 제 질문에 대한 간단한 답이 보이시죠? 모든 학습은 글로벌 극한을 찾는 것이 최적화의 본질입니다. 모든 MO 방법은 바로 이것, 즉 어떤 평가 함수를 전역 극한으로 최적화하는 것(손실 함수의 최소화 또는 평가 함수의 최대화)으로 축소됩니다. 하지만 당신은 최적화 전문가가 아닌데 어떻게 그럴 수 있을까요? 의도적으로 하지 않더라도 MO 방법이 자동으로 해줍니다.
귀하의 경우 재학습된 모델의 그래프입니다.
그리고 중단점 이후에는 복잡성이 증가하면 오버트레이닝이 증가하게 되는데, 이것이 바로 우리가 이야기했던 것입니다.
왜 '제 사례'인가요? 모든 사람이 마찬가지입니다. 빨간색 원 이후에 계속 훈련하면 과훈련된 모델을 얻게 됩니다. 따라서 몇 번의 반복을 통해 유효성이 증가하기 시작할 때까지 몇 번의 반복을 기다렸다가 훈련을 중단하고 빨간색 원이 전역 극한값인 결과를 선택하세요. 어떤 사람들은 그 전에 2, 3, 4, 그 이상의 반복에 대한 결과를 취할 수 있지만, 여전히 글로벌 극값을 찾아야 하기 때문에 본질은 변하지 않습니다.
Andrey Dik #: 왜 "내 것"인가요? 모두 다 그렇죠. 빨간색 원 이후에도 계속 훈련하면 과훈련된 모델을 얻게 됩니다. 따라서 몇 번의 반복을 통해 유효성이 증가하기 시작할 때까지 몇 번의 반복을 기다렸다가 훈련을 중단하고 빨간색 원이 전역 극한값인 결과를 선택합니다. 일부는 이전에 2, 3, 4, 그 이상의 반복에 대한 결과를 취할 수 있지만 본질은 변하지 않으며 여전히이 전역 극한값을 찾아야합니다.
Andrey Dik #: 그만하세요, 완전히 망쳤습니다. 그 반대를 증명하되 한 단어로 된 문구가 아니라 그림, 설명으로 증명하세요.
이것은 트레인과 샤프트의 각 반복에 대한 오류 그래프입니다. 각 반복/에포크마다 모델의 복잡성이 있습니다. Y축의 원 주위의 오차가 얼마인지, X축의 반복 횟수/에포크가 얼마인지 그려지지 않았습니다. 0.5이면 모델이 아무것도 학습하지 않은 것이고 재학습을 시작하는 것입니다. 그래프가 아무것도 없는 이유입니다.
내 마음속에 뭐가 있는지 모르겠어, 또 말도 안 되는 소리야
왜 안절부절못하고 안절부절못하나요?
녹색 선은 추적이고 빨간색 선은 유효성 검사입니다. 그리고 빨간색 원이 있는 마크는 유효성 검사 오류 그래프가 하강에서 상승으로 바뀌는 지점, 즉 글로벌 익스트림입니다! - 바로 이 지점이 훈련을 중단해야 하는 곳입니다. 제 질문에 대한 간단한 답이 보이시죠? 모든 학습은 글로벌 극한을 찾는 것이 최적화의 본질입니다. 모든 MO 방법은 바로 이것, 즉 어떤 평가 함수를 전역 극한으로 최적화하는 것(손실 함수의 최소화 또는 평가 함수의 최대화)으로 축소됩니다. 하지만 당신은 최적화 전문가가 아닌데 어떻게 그럴 수 있을까요? 의도적으로 하지 않더라도 MO 방법은 자동으로 최적화합니다.
교사가 표시의 동의어라는 산치의 잘못된 해석을 모두가 인정하나요?
아니요, 둘은 같지 않으며 동의어가 아닙니다.
마크는 교사 역할을 할 수 있지만 작업에 따라 다릅니다. 그러나 그들 사이에 모호하지 않은 동등성을 두는 것은 불가능합니다.
왜 안절부절못하고 안절부절못하나요?
녹색 선은 추적이고 빨간색 선은 유효성 검사입니다. 그리고 빨간색 원이 있는 마크는 유효성 검사 오류 그래프가 하락에서 상승으로 바뀌는 지점, 즉 글로벌 익스트림입니다! - 바로 이 지점이 훈련을 중단해야 하는 곳입니다. 제 질문에 대한 간단한 답이 보이시죠? 모든 학습은 글로벌 극한을 찾는 것이 최적화의 본질입니다. 모든 MO 방법은 바로 이것, 즉 어떤 평가 함수를 전역 극한으로 최적화하는 것(손실 함수의 최소화 또는 평가 함수의 최대화)으로 축소됩니다. 하지만 당신은 최적화 전문가가 아닌데 어떻게 그럴 수 있을까요? 의도적으로 하지 않더라도 MO 방법이 자동으로 해줍니다.
작업의 예
모델 평가:
두 가지 유형의 학습 모두 머신 러닝에 적용되며, 두 가지 중 어떤 것을 선택할지는 특정 작업과 사용 가능한 데이터에 따라 달라집니다. 때로는 더 나은 결과를 얻기 위해 지도자가 있는 학습과 없는 학습을 결합하는 하이브리드 방법도 사용됩니다.
분명 문제가 있습니다.
정의로 돌아갑니다.
P.Z.
끝이 멀지 않았습니다.
허. 누군가 깨달음을 얻었군요!
실제로 비슷하지만 MO에서는 이 그래프의 의미와 표시가 다릅니다.)))
혹시 알고 계셨는지 궁금해서요.)
이것은 귀하의 경우 재학습된 모델의 그래프입니다.
왜 "내 것"인가요? 모두 다 그렇죠. 빨간색 원 이후에도 계속 훈련하면 과훈련된 모델을 얻게 됩니다. 따라서 몇 번의 반복을 통해 유효성이 증가하기 시작할 때까지 몇 번의 반복을 기다렸다가 훈련을 중단하고 빨간색 원이 전역 극한값인 결과를 선택합니다. 일부는 이전에 2, 3, 4, 그 이상의 반복에 대한 결과를 취할 수 있지만 본질은 변하지 않으며 여전히이 전역 극한값을 찾아야합니다.
...
훈련 및 검증 그래프입니다. 복잡성은 그것과 아무 관련이 없습니다. 아무리 부인해도 MO에서 무엇을 하든 글로벌 극한을 찾고 있다면 당신은 최적화자라는 사실에 관한 것입니다.
원 앞에 재훈련된 모델이 있습니다.
그만하세요, 완전히 망쳤습니다. 그 반대를 증명하되 한 단어로 된 문구가 아니라 그림, 설명으로 증명하세요.