하이브리드 신경망. - 페이지 16 1...910111213141516171819202122 새 코멘트 gumgum 2009.10.12 10:10 #151 알고 싶습니다! RIP 2009.10.12 12:47 #152 gumgum >> : 나는 나를 알고 싶다! 에헴... 알 것 같아요 :) 처음 RPROp을 구현했을 때 오류가 커지기 시작하고 dEdW(그라디언트) 값이 +Inf로 충돌하는 상황을 만났습니다. 훈련 에포크의 수를 10-15로 제한하거나 코드에서 그라디언트의 상위 값에 대한 검사를 입력하면 다음 코드가 있습니다. if (수학::Abs(this->dEdW[j][k][i]) < 10e-25) { this->dEdW[j][k][i] = 0; } 이는 알고리즘이 로컬 최소값 영역에 빠졌거나 네트워크 재교육을 처리하고 있음을 의미합니다. gumgum 2009.10.12 14:09 #153 이해합니다. 훈련 세트의 모든 예제를 제출하고 각 dedw에 대해 합산을 계산합니다. 그런 다음 dedw를 훈련 횟수로 나눕니다. 예? 그래서 배치 모드가 작동합니까? Denis Timoshin 2009.10.12 14:12 #154 gumgum >> : 이해합니다. 훈련 세트의 모든 예제를 제출하고 각 dedw에 대해 합산을 계산합니다. 그런 다음 dedw를 훈련 횟수로 나눕니다. 예? 그래서 배치 모드가 작동합니까? 이 알고리즘의 단점은 이산적이라는 것입니다. RIP 2009.10.12 14:22 #155 gumgum >> : 이해합니다. 훈련 세트의 모든 예제를 제출하고 각 dedw에 대해 합산을 계산합니다. 그런 다음 dedw를 훈련 횟수로 나눕니다. 예? 그래서 배치 모드가 작동합니까? 예, 단일 뉴런과 dEdW에 대한 로컬 그래디언트를 혼동하지 마십시오. dEdW에는 뉴런만큼 많은 로컬 그래디언트가 있습니다. 기능의 임계값을 고려하여 많은 시냅스 연결이 있습니다. RIP 2009.10.12 14:26 #156 dentraf >> : 이 알고리즘의 단점은 이산적이라는 것입니다. 흠... 그리고 이산이란 무엇을 의미합니까? 이 알고리즘은 여러 가지 문제에 대해 어떤 기울기 방법보다 나쁘지 않습니다. 준 뉴턴 방법이나 LMA보다 열등합니다. 그러나 단순 그라디언트보다 빠르게 작동합니다. Denis Timoshin 2009.10.12 15:22 #157 rip >> : 흠... 그리고 이산이란 무엇을 의미합니까? 이 알고리즘은 여러 가지 문제에 대해 어떤 기울기 방법보다 나쁘지 않습니다. 준 뉴턴 방법이나 LMA보다 열등합니다. 그러나 단순 그라디언트보다 빠르게 작동합니다. 나는 속도에 대해 이야기하지 않았다. Petro Mohyla 2009.10.12 15:28 #158 신경망 - 이해할 수 있습니다. 어떻게 준비합니까? 어떤 데이터에서 작동합니까? 간격? gumgum 2009.10.12 15:31 #159 모두 감사합니다! gumgum 2009.10.12 16:30 #160 rip писал(а) >> 흠... 그리고 이산이란 무엇을 의미합니까? 이 알고리즘은 여러 가지 문제에 대해 어떤 기울기 방법보다 나쁘지 않습니다. 준 뉴턴 방법이나 LMA보다 열등합니다. 그러나 단순 그라디언트보다 빠르게 작동합니다. quasi-Newtonian 및 LMA에서 더 자세히 가능합니다. 1...910111213141516171819202122 새 코멘트 트레이딩 기회를 놓치고 있어요: 무료 트레이딩 앱 복사용 8,000 이상의 시그널 금융 시장 개척을 위한 경제 뉴스 등록 로그인 공백없는 라틴 문자 비밀번호가 이 이메일로 전송될 것입니다 오류 발생됨 Google으로 로그인 웹사이트 정책 및 이용약관에 동의합니다. 계정이 없으시면, 가입하십시오 MQL5.com 웹사이트에 로그인을 하기 위해 쿠키를 허용하십시오. 브라우저에서 필요한 설정을 활성화하시지 않으면, 로그인할 수 없습니다. 사용자명/비밀번호를 잊으셨습니까? Google으로 로그인
나는 나를 알고 싶다!
에헴... 알 것 같아요 :) 처음 RPROp을 구현했을 때 오류가 커지기 시작하고 dEdW(그라디언트) 값이 +Inf로 충돌하는 상황을 만났습니다.
훈련 에포크의 수를 10-15로 제한하거나 코드에서 그라디언트의 상위 값에 대한 검사를 입력하면 다음 코드가 있습니다.
if (수학::Abs(this->dEdW[j][k][i]) < 10e-25)
{
this->dEdW[j][k][i] = 0;
}
이는 알고리즘이 로컬 최소값 영역에 빠졌거나 네트워크 재교육을 처리하고 있음을 의미합니다.
이해합니다. 훈련 세트의 모든 예제를 제출하고 각 dedw에 대해 합산을 계산합니다. 그런 다음 dedw를 훈련 횟수로 나눕니다. 예? 그래서 배치 모드가 작동합니까?
이 알고리즘의 단점은 이산적이라는 것입니다.
이해합니다. 훈련 세트의 모든 예제를 제출하고 각 dedw에 대해 합산을 계산합니다. 그런 다음 dedw를 훈련 횟수로 나눕니다. 예? 그래서 배치 모드가 작동합니까?
예, 단일 뉴런과 dEdW에 대한 로컬 그래디언트를 혼동하지 마십시오. dEdW에는 뉴런만큼 많은 로컬 그래디언트가 있습니다. 기능의 임계값을 고려하여 많은 시냅스 연결이 있습니다.
이 알고리즘의 단점은 이산적이라는 것입니다.
흠... 그리고 이산이란 무엇을 의미합니까? 이 알고리즘은 여러 가지 문제에 대해 어떤 기울기 방법보다 나쁘지 않습니다. 준 뉴턴 방법이나 LMA보다 열등합니다. 그러나 단순 그라디언트보다 빠르게 작동합니다.
흠... 그리고 이산이란 무엇을 의미합니까? 이 알고리즘은 여러 가지 문제에 대해 어떤 기울기 방법보다 나쁘지 않습니다. 준 뉴턴 방법이나 LMA보다 열등합니다. 그러나 단순 그라디언트보다 빠르게 작동합니다.
나는 속도에 대해 이야기하지 않았다.
흠... 그리고 이산이란 무엇을 의미합니까? 이 알고리즘은 여러 가지 문제에 대해 어떤 기울기 방법보다 나쁘지 않습니다. 준 뉴턴 방법이나 LMA보다 열등합니다. 그러나 단순 그라디언트보다 빠르게 작동합니다.
quasi-Newtonian 및 LMA에서 더 자세히 가능합니다.