지뢰밭에서의 시장예절 또는 예의범절 - 페이지 27

 
:-)
 

부호를 예측할 수 있는 경우 100에포크면 충분합니까?

그리고 한 가지 더: 네트워크가 방금 초기화되었을 때 N개의 훈련 에포크가 필요하고 네트워크가 이미 훈련되었을 때, 즉 각 후속 단계(다음 예측 후)에서도 N epoch 또는 하나면 충분합니까?

 

좋은 질문입니다, paralocus .

추천만 드릴 수 있습니다. 따라서 내 실험 데이터에 따르면 이진 입력이 있는 NN의 훈련 에포크 수는 숨겨진 레이어의 2개 및 8개 뉴런에 대해 각각 10~100회 반복됩니다. 아날로그 입력의 경우 - 300-500. 모든 것은 실험적으로 테스트해야 합니다.

N epoch가 필요할 때마다.

 

분명한.

다음은 메쉬 코드입니다.

 код сюда не влез, поэтому в аттаче

부끄럽게도 나는 단순한 문제, 즉 신기원의 길이 계산에 여전히 혼란스러워합니다.

모든 것이 명확해 보입니다. - P = k*w^2/q, 여기서 k = (2...4); w는 시냅스 수, q는 입력 수입니다. 분명히, 나는 내 머리에 약간의 용어 혼란이 있습니다. 입력이라고 하는 것과 시냅스라고 하는 것.

이것을 한 번 더 명확히 해 주시겠습니까? 인생에서 가장 단순한 것이 가장 이해하기 어렵다는 것이 항상 밝혀졌습니다. :-)

파일:
nero2.mqh  7 kb
 

그것이 작동한다고 말하십시오 - :)


 

시냅스( w )는 뉴런이 왼쪽에 있는 것입니다. 입력( d )은 첫 번째(숨겨진) 레이어에서 각 뉴런에 대한 시냅스 수를 의미합니다. 하나의 뉴런으로 구성된 NN의 경우 시냅스 수는 입력 수와 같습니다. 두 개의 레이어로 구성되고 첫 번째(숨겨진) 레이어와 두 번째(출력) 레이어에 두 개의 뉴런을 포함하는 NN의 경우: w=2d+3. +1의 일정한 바이어스를 갖는 뉴런 입력은 정상 입력으로 간주됩니다. d = 100인 네트워크의 경우 시냅스 수는 w =2*100+3=203입니다. 훈련 벡터의 최적 길이 P=k*w^2/d =2*( 2d+3 )*( 2d+3)/d =(대략)=2*2 d *2=8 d =8*100= 800 샘플 .

 

고맙습니다!

입력을 바이너리로 변경했습니다. 모든 것이 훨씬 좋아졌습니다! 이제 다양한 입력 조합으로 테스터에서 그리드를 실행하고 있습니다. 신호. 재미있는 활동... -:)

 

좋은 아침,

여기서 기쁨을 나누고 싶습니다. 첫 번째 괜찮은 결과, 특히 당시 한 Neutron의 조언 덕분에 ... 파란색 부분은 새 데이터이고 세로좌표는 포인트입니다. 가로 좌표: 10.000 EURUSD60.

롱 포지션:

숏 포지션은 그다지 인상적이지 않습니다:

신경망, 13개의 입력, 은닉층 없음. 유전자 알고리즘 훈련

 

Neutron , 25개의 준비된 카운트에 대해 당신이 옳았던 것 같습니다... -:)

네트워크가 나에게서 배우지 못하는 것. 100 에포크 후에 가중치는 네트워크가 초기화될 때와 거의 동일합니다.

이와 관련하여 또 다른 어리석은 질문:

학습 벡터는 각 Epoch에서 동일합니까?

일반적으로 수정의 누적 제곱에 대한 누적 수정의 비율은 매우 빠르게 0이 되는 경향이 있습니다. 따라서 10회 반복 이후에는 훈련이 거의 중단됩니다.

 
YDzh писал(а) >>

신경망, 13개의 입력, 은닉층 없음. 유전자 알고리즘 훈련

멋지다, YJ !

내 결과는 훨씬 더 겸손합니다. 데모에 올려놓고 그리드가 잘릴지 확인해야 합니다.