시냅스( w )는 뉴런이 왼쪽에 있는 것입니다. 입력( d )은 첫 번째(숨겨진) 레이어에서 각 뉴런에 대한 시냅스 수를 의미합니다. 하나의 뉴런으로 구성된 NN의 경우 시냅스 수는 입력 수와 같습니다. 두 개의 레이어로 구성되고 첫 번째(숨겨진) 레이어와 두 번째(출력) 레이어에 두 개의 뉴런을 포함하는 NN의 경우: w=2d+3. +1의 일정한 바이어스를 갖는 뉴런 입력은 정상 입력으로 간주됩니다. d = 100인 네트워크의 경우 시냅스 수는 w =2*100+3=203입니다. 훈련 벡터의 최적 길이 P=k*w^2/d =2*( 2d+3 )*( 2d+3)/d =(대략)=2*2 d *2=8 d =8*100= 800 샘플 .
부호를 예측할 수 있는 경우 100에포크면 충분합니까?
그리고 한 가지 더: 네트워크가 방금 초기화되었을 때 N개의 훈련 에포크가 필요하고 네트워크가 이미 훈련되었을 때, 즉 각 후속 단계(다음 예측 후)에서도 N epoch 또는 하나면 충분합니까?
좋은 질문입니다, paralocus .
추천만 드릴 수 있습니다. 따라서 내 실험 데이터에 따르면 이진 입력이 있는 NN의 훈련 에포크 수는 숨겨진 레이어의 2개 및 8개 뉴런에 대해 각각 10~100회 반복됩니다. 아날로그 입력의 경우 - 300-500. 모든 것은 실험적으로 테스트해야 합니다.
N epoch가 필요할 때마다.
분명한.
다음은 메쉬 코드입니다.
код сюда не влез, поэтому в аттаче
부끄럽게도 나는 단순한 문제, 즉 신기원의 길이 계산에 여전히 혼란스러워합니다.
모든 것이 명확해 보입니다. - P = k*w^2/q, 여기서 k = (2...4); w는 시냅스 수, q는 입력 수입니다. 분명히, 나는 내 머리에 약간의 용어 혼란이 있습니다. 입력이라고 하는 것과 시냅스라고 하는 것.
이것을 한 번 더 명확히 해 주시겠습니까? 인생에서 가장 단순한 것이 가장 이해하기 어렵다는 것이 항상 밝혀졌습니다. :-)
그것이 작동한다고 말하십시오 - :)
시냅스( w )는 뉴런이 왼쪽에 있는 것입니다. 입력( d )은 첫 번째(숨겨진) 레이어에서 각 뉴런에 대한 시냅스 수를 의미합니다. 하나의 뉴런으로 구성된 NN의 경우 시냅스 수는 입력 수와 같습니다. 두 개의 레이어로 구성되고 첫 번째(숨겨진) 레이어와 두 번째(출력) 레이어에 두 개의 뉴런을 포함하는 NN의 경우: w=2d+3. +1의 일정한 바이어스를 갖는 뉴런 입력은 정상 입력으로 간주됩니다. d = 100인 네트워크의 경우 시냅스 수는 w =2*100+3=203입니다. 훈련 벡터의 최적 길이 P=k*w^2/d =2*( 2d+3 )*( 2d+3)/d =(대략)=2*2 d *2=8 d =8*100= 800 샘플 .
고맙습니다!
입력을 바이너리로 변경했습니다. 모든 것이 훨씬 좋아졌습니다! 이제 다양한 입력 조합으로 테스터에서 그리드를 실행하고 있습니다. 신호. 재미있는 활동... -:)
좋은 아침,
여기서 기쁨을 나누고 싶습니다. 첫 번째 괜찮은 결과, 특히 당시 한 Neutron의 조언 덕분에 ... 파란색 부분은 새 데이터이고 세로좌표는 포인트입니다. 가로 좌표: 10.000 EURUSD60.
롱 포지션:
숏 포지션은 그다지 인상적이지 않습니다:
신경망, 13개의 입력, 은닉층 없음. 유전자 알고리즘 훈련
Neutron , 25개의 준비된 카운트에 대해 당신이 옳았던 것 같습니다... -:)
네트워크가 나에게서 배우지 못하는 것. 100 에포크 후에 가중치는 네트워크가 초기화될 때와 거의 동일합니다.
이와 관련하여 또 다른 어리석은 질문:
학습 벡터는 각 Epoch에서 동일합니까?
일반적으로 수정의 누적 제곱에 대한 누적 수정의 비율은 매우 빠르게 0이 되는 경향이 있습니다. 따라서 10회 반복 이후에는 훈련이 거의 중단됩니다.
신경망, 13개의 입력, 은닉층 없음. 유전자 알고리즘 훈련
멋지다, YJ !
내 결과는 훨씬 더 겸손합니다. 데모에 올려놓고 그리드가 잘릴지 확인해야 합니다.