NN에 대한 입력 값을 올바르게 구성하는 방법. - 페이지 24

 
Reshetov писал (а) >> 를 썼습니다.

그리고 마지막으로 NN의 보간 기능이 거래에 필요하다고 믿는 괴짜들을 위해 구체적인 반론을 제시할 수 있습니다. 다시 그리기 표시기 또는 오실레이터를 사용하면 신경망과 멋진 아키텍처 없이 기록에 대한 멋진 보간을 얻을 수 있습니다. 그루터기는 트레이더들이 칠면조를 다시 그리는 것을 꺼린다는 것이 분명합니다. 보간 또는 근사에 적합한 것이 비정상 조건의 외삽에 완전히 적합하지 않기 때문입니다.

일종의 이단... 다시 그리기 표시기가 보간 및 미래 예측과 어떻게 연결됩니까?

 
Reshetov писал (а) >> 를 썼습니다.

그리고 마지막으로 NN의 보간 기능이 거래에 필요하다고 믿는 괴짜들을 위해 구체적인 반론을 제시할 수 있습니다. 다시 그리기 표시기 또는 오실레이터를 사용하면 신경망과 멋진 아키텍처 없이 기록에 대한 멋진 보간을 얻을 수 있습니다. 그루터기는 트레이더들이 칠면조를 다시 그리는 것을 꺼린다는 것이 분명합니다. 보간 또는 근사에 적합한 것이 비정상 조건의 외삽에 완전히 적합하지 않기 때문입니다.

정확히 무엇을 근사화하는지 이해하지 못할 뿐입니다. 차원이 N인 입력 벡터 X와 차원이 M인 출력 벡터 Y가 있습니다. 신경망은 이들 사이에 연결을 설정합니다. 즉, 종속성 Y = F(X)에 가깝습니다. Y는 무엇이든 될 수 있습니다. 최소한 세 번 각성합니다. NN은 빌어먹을 것입니다. 훈련 세트에서 F(X)를 근사하는 문제를 정확히 해결합니다.

 

다시 그리는 것은 사람의 아편!! ))))

 
Mathemat писал (а) >> 를 썼습니다.
나는 이 조언을 더욱 강화할 것입니다. 우리는 10으로 나눕니다. 어떤 이유에서인지 확률적 공명(stochastic resonance)에 대한 분기가 떠오릅니다. 메시를 끝까지 훈련하면 목적 함수를 깊은 최소값으로 구동할 수 있습니다. 안정된 상태로. 안정 상태는 일반적으로 금융 시장의 특징이 아닙니다. 거기 - 준 안정, 즉. 사소한 "소음"의 영향으로 언제든지 재앙(추세)으로 발전할 준비가 되어 있는 사람들. 그러나 이것은 철학적 반성입니다 ...

제 생각에는 NN 상태의 특성에 대해 "과도한 훈련" 및 "과소 훈련된"으로 특징지을 수 있는 오해가 있습니다. 이 용어는 훈련 샘플의 길이, 주어진 신경망의 자유 매개변수(시냅스) 수, 테스트 세트의 일반화 오류 크기를 연결하는 기능을 나타냅니다. 샘플 길이가 조정 가능한 가중치의 수(한계가 작거나 같음)와 비슷하면 훈련 샘플에서 입력 벡터에 대한 NN 응답의 임의의 정확한 일치를 얻을 수 있지만 테스트 샘플에서는 완전한 넌센스! 이것은 과잉 훈련된 네트워크의 예입니다. 훈련 샘플의 길이가 너무 크면(별도의 질문은 얼마입니까) 훈련 샘플과 일치하지 않는 결과를 얻게 됩니다(한도 내에서는 샘플의 평균값만 결정함). 테스트 샘플에서 우리는 동일한 결과를 얻습니다. 즉, 평균입니다.

보시다시피 훈련 에포크의 수에는 문제가 없습니다. 게다가, 전역 최소값을 달성하기 위해(NN 학습), 비선형 방정식의 과결정 시스템(NN이 하는 일)을 풀기 위한 가능한 모든 옵션 중에서 가장 작은 누적 오류를 제공하는 옵션을 선택해야 합니다(최소한 그것은 시스템의 모든 방정식을 만족시킬 것입니다). 물론 이 조건은 한계에 이르는 경향이 있는 솔루션(시냅스의 발견된 가중치)에 의해 충족됩니다.

따라서 NN의 과적합 또는 과소적합을 훈련 에포크의 수와 혼동하지 마십시오. 후자는 항상 합리적으로 커야 합니다(구체적으로는 실험적으로 결정해야 하는 수).

나는 문헌에서 "조기 멈추는 문제"에 대한 논의를 보았지만, 저자들이 그들이 쓰고 있는 내용의 본질을 완전히 이해하지 못하고 있다는 인상을 받았습니다. 실제로 훈련 샘플의 길이가 최적의 길이보다 작은 상황을 취하면 훈련 과정에서 테스트 세트의 오류가 먼저 감소한 다음 추가 증가와 함께 상황이 발생합니다. 훈련기의 수는 다시 늘어나기 시작할 것이다... 글쎄, 이것은 또 다른 오페라에서 온 것이다, 동지들!

 

충분한 NN 거인이 여기에 모였기 때문에 나가겠습니다. 나는 신경망의 아마추어이기 때문에 내 의견은 무시할 수 있습니다.

입력 수와 자유도의 비율이 이론에서 권장하는 10보다 낮지 않다고 가정하고 이야기조차 하지 않았습니다. 방금 디지털 필터가 검증 섹션에서 최소값을 통과하는 순간에 대해 말했습니다. 내가 실수하지 않는다면 그것은 Shumsky가 아주 명확하게 설명한 것과 같습니다.

 
Mathemat писал (а) >> 를 썼습니다.

충분한 NN 거인이 여기에 모였기 때문에 나가겠습니다. 나는 신경망의 아마추어이기 때문에 내 의견은 무시할 수 있습니다.

입력 수와 자유도의 비율이 이론에서 권장하는 10보다 낮지 않다고 가정하고 이야기조차 하지 않았습니다. 방금 디지털 필터가 검증 섹션에서 최소값을 통과하는 순간에 대해 말했습니다. 내가 실수하지 않는다면 그것은 Shumsky가 아주 명확하게 설명한 것과 같습니다.

수학의 그랑디즈도 방해가 되지 않으니 제거하지 말아주세요:). 나머지는 요청에 참여할 것이라고 생각합니다.

 
Mathemat писал (а) >> 를 썼습니다.
나는 이 조언을 더욱 강화할 것입니다. 우리는 10으로 나눕니다. 어떤 이유에서인지 확률적 공명(stochastic resonance)에 대한 분기가 떠오릅니다. 메시를 끝까지 훈련하면 목적 함수를 깊은 최소값으로 구동할 수 있습니다. 안정된 상태로. 안정 상태는 일반적으로 금융 시장의 특징이 아닙니다. 거기 - 준 안정, 즉. 사소한 "소음"의 영향으로 언제든지 재앙(추세)으로 발전할 준비가 되어 있는 사람들. 그러나 이것은 철학적 반성입니다 ...

글쎄, 나는 같은 것에 대해 이야기하고 있습니다. 단지 "지속가능한"이라는 일반적인 민중 용어 대신에 "고정된"이라는 용어가 사용되었을 뿐입니다. 두 용어 모두 통계적(조정 가능한) 데이터가 확률적 데이터에 가깝다는 것을 의미합니다. 그러나 금융상품을 다뤄본 사람이라면 비정상성으로 인해 통계가 적용되지 않는다는 사실을 잘 알고 있다.


경험적으로 그리드를 약 3분의 1 정도 재학습해야 한다는 것을 알았습니다. 다시 말하지만, 입력의 적절성에 달려 있습니다. 다른 사람들은 10%만 훈련하면 경험적으로 얻을 수 있습니다.

 
Reshetov писал (а) >> 를 썼습니다.

글쎄, 나는 같은 것에 대해 이야기하고 있습니다. 단지 "지속가능한"이라는 일반적인 민중 용어 대신에 "고정된"이라는 용어가 사용되었을 뿐입니다. 두 용어 모두 통계적(조정 가능한) 데이터가 확률적 데이터에 가깝다는 것을 의미합니다. 그러나 금융상품을 다뤄본 사람이라면 비정상성으로 인해 통계가 적용되지 않는다는 사실을 잘 알고 있다.


경험적으로 그리드를 약 3분의 1 정도 재학습해야 한다는 것을 알았습니다. 다시 말하지만, 입력의 적절성에 달려 있습니다. 다른 사람들은 10%만 훈련하면 경험적으로 얻을 수 있습니다.


Haikin에 따르면 훈련 세트와 테스트 세트에 대한 전체 훈련 결과 간의 불일치는 패턴 수가 충분히 크지 않은 경우에만 발생할 수 있습니다.

충분한 패턴이 있고 전체 교육을 통해 초기 중단점보다 테스트 세트에서 더 나은 결과를 얻을 수 있습니다. 이는 위에서 이미 언급했습니다.

내 경험에 비추어 볼 때 나는 이러한 결과를 믿는 경향이 있습니다.



선형 신경망의 경우-그것의 도움으로 긍정적인 결과를 얻을 수 있을 만큼 충분히 확실하게 밝혀졌다면 단 하나의 결론만 있을 수 있습니다. 신경망은 실제로 필요하지 않습니다.

 
TheXpert писал (а) >>

일종의 이단... 다시 그리기 표시기가 보간 및 미래 예측과 어떻게 연결됩니까?

친애하는, 보간이 미래와 관련이 있다고 어디에서 말했습니까? 오컬티스트에게 가서 글을 잘 읽고, 표현을 흩트리지 마세요. 나는 외삽이 미래를 위해 필요하다는 것을 영재를 위해 말했고 다시 반복합니다.


내 게시물은 rip 님 의 게시물 에 대한 응답이었습니다.


------------------ 인용문 ------------------------


14.07.2008 00:01
Reshetov 는 (a) >>를 썼습니다.

바르게. 일반 입력이 있는 아키텍처는 더 이상 선택하는 문제가 아닙니다. 입구는 전부이고 건축은 아무것도 아닙니다.


여기에서 신사들은 일반 입력을 선택하고 MTC "Combo"로 해당 결과를 얻었습니다.

어떤 면에서는 동의합니다. 그러나 네트워크 아키텍처는 큰 역할을 합니다. 예를 들어 RBF 네트워크는 일부 보간 문제를 해결하는 데 훨씬 뛰어납니다.

 
TheXpert писал (а) >>

Khaikin에 따르면 훈련 세트와 테스트 세트에 대한 전체 훈련 결과 간의 불일치는 패턴 수가 충분히 크지 않은 경우에만 발생할 수 있습니다.

식물학자님, 평범한 사람들은 그들만의 두뇌와 경험이 있고, 괴짜들은 다른 괴상한 사람들의 말을 인용합니다. 그들만의 뇌는 없고 있을 수도 없기 때문입니다.


Khaykin은 고정된 환경에서 네트워크를 훈련했을 가능성이 높으므로 그러한 결론을 내렸습니다. 비정상성 조건에서 네트워크에 너무 많은 패턴이 주어지면 네트워크가 전혀 학습하지 않을 수 있습니다. 예를 들어 거래에서 패턴은 오늘 구매를 나타내고 다음에는 판매를 나타내기 때문입니다. 모든 입력에는 잘못된 신호의 가능성이 있기 때문입니다.