금융 시리즈의 신경 예측(한 기사 기준) - 페이지 7

 
Vizard :

블랙박스 이 nsh...

그렇구나..유. 좋아, 그것은 다소 안정적으로 작동하고 그래서 .... 젠장 .....
 
예를 들어 LeoV에게 알려주세요))
 
글쎄, 젠장, Leonid는 어떻습니까, 그 자신은 이것 또는 그 훈련의 선택으로 고통받습니다. 그래서 물론 NS에서의 그의 결과는 인상적이므로 그는 짧은 손으로 스티브 와드를 가지고 있습니다 .... 모든 깨진 NS에서 불안정 메커니즘이 활성화되는 것 같습니다. 어쨌든, 내가 그의 차트를 훈련시키려고 했을 때, 인용문이 같더라도 내 결과는 완전히 달랐습니다. 차이점은 그가 합법적인 NSH를 갖고 있다는 것이었습니다.
 
nikelodeon :


이름하지마...


이해했다. 유형은 "어제처럼" 생각하고 지금은 그렇지 않습니다.
 
Integer :

이해했다. 유형은 "어제처럼" 생각하고 지금은 그렇지 않습니다.

신경망은 배운 대로 생각합니다. 그리고 당신은 그녀에게 무엇이든 가르칠 수 있습니다. 및: 2 x 2 = 5

두 개의 입력이 있는 그리드를 수집합니다. 우리는 입력에서 2가 출력에서 5를 제공한다는 점을 제외하고 모든 것이 올바른 곱셈 테이블을 훈련합니다. 우리는 훈련하고 2 x 2 = 5인 신경망을 얻습니다.

 
Reshetov :

신경망은 배운 대로 생각합니다. 그리고 당신은 그녀에게 무엇이든 가르칠 수 있습니다. 및: 2 x 2 = 5

네트워크가 작동하는 방식이 아니라 네트워크와 관련하여 "어제처럼"이 의미하는 바가 밝혀졌습니다.

 
그리고 신경망에 예를 들어 셰익스피어의 작품에서 나온 일련의 영어 알파벳 문자를 제공하고 출력에서 다음 문자(물론 번호)를 제공하면 네트워크는 확률적으로 다음 문자를 발행하는 방법을 학습합니다 . 러시아어와 마찬가지로 영어에도 문자 순서에 패턴이 있습니다.
 
Integer :

네트워크가 작동하는 방식이 아니라 네트워크와 관련하여 "어제처럼"이 의미하는 바가 밝혀졌습니다.

어제 그리드는 추세와 거래하도록 배웠습니다. 오늘은 성공적으로 옆으로 병합됩니다. 이것은 드문 일이 아닙니다. 예를 들어 개입, 급격한 변동성 변화 등을 예측하기 위해 네트워크에 모든 것을 가르칠 수는 없습니다. 등.
 
Reshetov :
어제 그리드는 추세와 거래하도록 배웠습니다. 오늘은 성공적으로 옆으로 병합됩니다. 이것은 드문 일이 아닙니다. 예를 들어 개입, 급격한 변동성 변화 등을 예측하기 위해 네트워크에 모든 것을 가르칠 수는 없습니다. 등.

글쎄, 왜, 이 경우 신호는 무작위가 될 것입니다. 그것이 사실이라면.....그냥 운이 좋다, 말해보자. 하지만 최적화 과정에서 미래에 작동할 매개변수를 찾는 것은 확실히 어렵습니다.... 찾는 것도 어렵지 않고, 정확히 선택하는 것도 어렵습니다.....
 
nikelodeon :

글쎄, 왜, 이 경우 신호는 무작위가 될 것입니다.

트렌드 영역에서만 훈련된 신경망의 신호는 무작위가 아니지만 네트워크가 훈련된 것과 동일합니다 . 즉, 움직임을 따라 측면에서 병합합니다.