하이브리드 신경망. - 페이지 11

 
gumgum >> :

.......................

그리고 왜 이 모든 것입니까?

 
joo писал(а) >>

무슨 n?

 

죄송합니다, 검검 , 하지만 왜 그리고 왜 그런지 이해가 되지 않습니다. 내가 바보인지, 아니면 당신이 뭔가를 놓치고 있는지.

그런 간단한 기능을 최적화하는 요점은 무엇입니까?

 

오류를 원활하게 줄이려면 매우 작은 학습률을 선택해야 하지만 이 경우 훈련에 허용할 수 없을 정도로 오랜 시간이 소요될 수 있습니다.

그래서 학습 과정에서 학습률을 변경하는 것이 기능적이라면 생각합니다.

 
joo писал(а) >>

죄송합니다, 검검 , 하지만 왜 그리고 왜 그런지 이해가 되지 않습니다. 내가 바보인지, 아니면 당신이 뭔가를 놓치고 있는지.

그런 간단한 기능을 최적화하는 요점은 무엇입니까?

최적화할 필요는 없습니다.

 
Joo, 링크 주셔서 감사합니다, 매우 흥미롭습니다!
 
gumgum >> :

최적화할 필요는 없습니다.

사실, 그래디언트는 유용한 것이지만 항상 그것으로 문제를 해결할 수 있는 것은 아닙니다.

 
gumgum >> :

경사하강법을 말씀하시는 건가요? 어떻게 되는지, 그리고 무엇을 줄지 모릅니다.

나는 모든 최적화 방법에 대해 모든 것을 알지 못합니다. 나는 개가있는 것에 대해서만 이야기하고 있습니다. 그래서 나는 다른 사람들과 내 방법을 비교하고 새로운 것을 찾기 위해 ff를 운전할 것을 제안했습니다.

 
IlyaA писал(а) >>

더 명확하지 않았습니다 :-D. 친구가 되십시오. 다른 말로 처음부터 설명하십시오. 아니면 더 많은 단어를 사용하십시오.

오늘은 실험을 해볼께요.... 내일 올릴께요!

 
gumgum >> :

최적화할 필요는 없습니다.

당신의 사고 과정이 정확합니다! 그래서 그들은 신기원의 성장과 함께 학습 속도를 줄입니다.