NN에 대한 입력 값을 올바르게 구성하는 방법. - 페이지 10

 
TheXpert писал (а) >>

상관없어요, 제가 틀렸다면 죄송합니다.

해당 게시물이 명확하지 않은 경우 이 교차 확인이 무엇인지 더 자세히 설명하기 위해 fsёtaki를 시도하겠습니다. 최소 오류에 대해 네트워크를 훈련한다고 가정해 보겠습니다. 2007년 네트워크를 훈련할 때 0.5라는 중간 결과를 얻었고 2008년에는 0.8을 확인했습니다. 이 네트워크를 기억하고 더 훈련합니다. 또한 2007년에는 0.4를 얻었고 2008년에는 0.7을 확인했습니다. 이전 네트워크는 버리고 이 네트워크를 기억하고 더 훈련합니다. 또한, 2007년 - 0.3, 2008년 - 0.6. 이전 네트워크는 버리고 이 네트워크를 기억하고 더 훈련합니다. 2007년 - 0.2, 2008년 - 0.8. 이 네트워크는 기억되지 않지만 이전 네트워크는 남아 있습니다. 그리고 계속 연습하세요. 2008년에 0.6 미만을 얻지 못하면 2008년에 0.6, 2007년에 0.3인 네트워크가 남고 2007년에 0.2 이하인 네트워크는 남지 않습니다. 사실, 추가 네트워크 교육은 재교육입니다. 따라서 오버트레이닝이 방지되지만 이것이 항상 저장되는 것은 아닙니다.

그리고 보시다시피 순방향 테스팅은 아무 관련이 없습니다......)))))

 
TheXpert писал (а) >>

...

코드는 어떻습니까? Neurosolutions 또는 Neuroshell 2는 코드를 MQL4로 이식합니까? 나는 여기 거주자들과 아마도 나를 위해 유용할 것이라고 생각하는 몇 가지 함수를 작성할 것입니다. 게다가 100줄의 코드를 작성하는 것은 1시간의 시간입니다.

아니요. dll/def 가져오기 또는 "c"로 다시 쓰기를 통해.

나는 여기 거주자들과 아마도 나를 위해 유용할 것이라고 생각하는 몇 가지 함수를 작성할 것입니다. 게다가 100줄의 코드를 작성하는 것은 1시간의 시간입니다.

특히 그들이 " 1. 입력 데이터 준비. (평균 이동, 역상관, 공분산 등화) "에 전념한다면 그것은 매우 멋지지만 ... MQL4에서 NN의 또 다른 구현이라면 ...

예를 들어, 코드에서 "입력의 의미", "입력의 상호 상관"이라는 아름다운 단어를 구현하는 것이 어떻게 가능한지 결코 이해할 수 없었습니다(더 아름다운 단어를 삽입할 수 있는 Yezhov가 없습니다). 즉, 공식/알고리즘을 알고 있지만 OHLC, 노이즈 또는 그 반대의 경우 DC 필터 및 단순히 "이산 값", 분은 웃기고 며칠은 너무 늦습니다. :)

 
SergNF писал (а) >> 를 썼습니다.

아니요. dll/def 가져오기 또는 "c"로 다시 쓰기를 통해.

특히 그들이 " 1. 입력 데이터의 준비. (평균의 편향, 역상관, 공분산 등화) "에 전념할 경우,

정확히

예를 들어, 코드에서 "입력의 의미", "입력의 상호 상관"이라는 아름다운 단어를 구현하는 것이 어떻게 가능한지 결코 이해할 수 없었습니다(더 아름다운 단어를 삽입할 수 있는 Yezhov가 없습니다). 즉, 공식/알고리즘을 알고 있지만 OHLC, 노이즈 또는 그 반대의 경우 DC 필터 및 단순히 "이산 값", 분은 웃기고 며칠은 너무 늦습니다. :)

그래서 무엇? 수식은 상관하지 않으며 1분 또는 1주일의 데이터를 제공합니다.

 
LeoV писал (а) >> 를 썼습니다.

해당 게시물이 명확하지 않은 경우 이 교차 확인이 무엇인지 더 자세히 설명하기 위해 fsёtaki를 시도하겠습니다. 최소 오류에 대해 네트워크를 훈련한다고 가정해 보겠습니다. 2007년 네트워크를 훈련할 때 0.5라는 중간 결과를 얻었고 2008년에는 0.8을 확인했습니다. 이 네트워크를 기억하고 더 훈련합니다. 또한 2007년에는 0.4를 얻었고 2008년에는 0.7을 확인했습니다. 이전 네트워크는 버리고 이 네트워크를 기억하고 더 훈련합니다. 또한, 2007년 - 0.3, 2008년 - 0.6. 이전 네트워크는 버리고 이 네트워크를 기억하고 더 훈련합니다. 2007년 - 0.2, 2008년 - 0.8. 이 네트워크는 기억되지 않지만 이전 네트워크는 남아 있습니다. 그리고 계속 연습하세요. 2008년에 0.6 미만을 얻지 못하면 2008년에 0.6, 2007년에 0.3인 네트워크가 남고 2007년에 0.2 이하인 네트워크는 남지 않습니다. 사실, 추가 네트워크 교육은 재교육입니다. 따라서 오버트레이닝이 방지되지만 이것이 항상 저장되는 것은 아닙니다.

그리고 보시다시피 순방향 테스팅은 아무 관련이 없습니다......)))))

즉, 훈련/최적화는 훈련 세트에서 오류가 최소일 때가 아니라 테스트 세트에서 오류가 증가하기 시작할 때 더 일찍 종료됩니다.

 
Erics писал (а) >> 를 썼습니다.

즉, 훈련/최적화는 훈련 세트에서 오류가 최소일 때가 아니라 테스트 세트에서 오류가 증가하기 시작할 때 더 일찍 종료됩니다.

글쎄, 일반적으로 그렇습니다. 이론에 따르면 테스트 샘플의 오류 값은 훈련 샘플의 오류가 감소함에 따라 먼저 떨어지고 훈련 샘플의 오류가 계속 감소함에도 불구하고 증가하기 시작하기 때문입니다. 그리고 트릭은 이 구멍을 잡는 것입니다. 이것은 오버트레이닝(네트워크의 경우) 또는 재최적화(TS의 경우)의 의미입니다.

 
LeoV писал (а) >> 를 썼습니다.

글쎄, 일반적으로 그렇습니다. 이론에 따르면 테스트 샘플의 오류 값은 훈련 샘플의 오류가 감소함에 따라 먼저 떨어지고 훈련 샘플의 오류가 계속 감소함에도 불구하고 증가하기 시작하기 때문입니다. 그리고 트릭은 이 구멍을 잡는 것입니다. 이것은 오버트레이닝(네트워크의 경우) 또는 재최적화(TS의 경우)의 의미입니다.

 
sergeev писал (а) >> 를 썼습니다.

확실히 맞아. 작은 메모 하나. 곡선이 이미 올라가고 있을 때 최소값도 있을 수 있지만 이론상(이론적으로) 이미 첫 번째 최소값보다 커야 합니다. 때로는 덜 발생하지만 (실제로) 드뭅니다.

 

그리고 여기 재교육 사진이 있습니다

 
LeoV писал (а) >> 를 썼습니다.

확실히 맞아. 작은 메모 하나. 곡선이 이미 올라가고 있을 때 최소값도 있을 수 있지만 이론상(이론적으로) 이미 첫 번째 최소값보다 커야 합니다. 때로는 덜 발생하지만 (실제로) 드뭅니다.

좋은 지적.

일반적으로 이 스레드에서 이미 많은 이론이 언급되었습니다(포럼에서 후보자를 변호할 수 있습니다.).

그리고 마음은 이제 실용적인 경험과 지식을 갈망합니다.

가능하다면 실무자들이 입력 값을 분석하고 컴파일하는 경험을 공유하게 하십시오. 구체적인 사례들입니다.

고맙습니다.

 
sergeev писал (а) >> 가능하면 실무자들이 입력 값의 분석 및 편집에 대한 경험을 공유하도록 하십시오. 구체적인 사례들입니다.

입력 값도 쉬운 질문이 아닙니다. 네트워크 입력에 적용할 사항은 여러 요인에 따라 다릅니다.

1. 어떤 종류의 신경망이 사용됩니까?

2. 신경망에서 무엇을 얻고자 합니까 - 가격이나 이동 방향, 반전 지점 또는 다음 캔들 또는 다른 것.

따라서 이러한 문제를 먼저 결정한 다음 입력으로 문제를 해결해야 합니다.