신경망. 전문가를 위한 질문입니다. - 페이지 19

 

"작은" 문제가 있었습니다.

동일한 훈련 예(TS)가 동일한 네트워크에 공급되지만 훈련 전에 임의의 가중치로 초기화되는 경우,

그런 다음 매번 네트워크는 동일한 테스트 세트에서 다른 결과로 다르게 훈련될 수 있습니다.

FANN 라이브러리가 사용됩니다 .

비슷한 상황에서 "통계 6"이 어떻게 수행되는지 확인하기로 결정했습니다.

그리고 여기에서 동일한 아키텍처의 네트워크는 다른 결과를 제공합니다.

명확성을 위해 가장 다른 결과를 가진 두 개의 네트워크를 선택했습니다. 그들의 성능은 정반대임을 알 수 있습니다.


활성화 임계값 그래프는 동일한 OP에 있는 이 두 네트워크가 완전히 다르게 학습되었음을 확인합니다.

(첨부 파일에 있는 모든 샘플의 모든 네트워크 및 데이터에 대한 전체 결과)


...........................................................

신경망을 훈련하는 과정에서 안정성을 얻는 방법을 알려주십시오.

 
lasso :

"작은" 문제가 있었습니다...

그런 다음 동일한 테스트 세트에서 다른 결과로 네트워크를 다르게 훈련할 수 있습니다....

신경망을 훈련하는 과정에서 안정성을 얻는 방법을 알려주십시오.


글쎄요, 이것은 질문입니다) NN을 훈련시키기 위해 많은 방법이 사용되지만, 그들 모두는 명백한 이유 때문에 직접 열거와 다릅니다. 그리고 그들 모두는 하나의 공통된 중요한 단점을 가지고 있습니다: 마비 또는 국소 극단에 갇히는 것입니다. 관찰하고 있는 것) 학습 메커니즘/알고리즘의 품질을 개선하고 학습 시간(학습 에포크 수)을 늘리는 것 외에는 보편적인 솔루션이 없습니다. 그리고 각각의 경우에 다르게 결정됩니다.
 
lasso :

신경망을 훈련하는 과정에서 안정성을 얻는 방법을 알려주십시오.

GA를 사용합니다.
 
lasso :


신경망을 훈련하는 과정에서 안정성을 얻는 방법을 알려주십시오.


svm.

두 클래스의 예:

가능한 분리 평면 .... MLP BP는 그 중 하나를 찾아 중지합니다 .....

SVM 관련:

이 방법은 항상 하나의 분리 평면을 찾습니다....

또는 위에서 제안한 GA ....

행운을 빕니다 ....

 
Figar0 :

글쎄요, 이것은 질문입니다) NN을 훈련시키기 위해 많은 방법이 사용되지만, 그들 모두는 명백한 이유 때문에 직접 열거와 다릅니다. 그리고 그들 모두는 하나의 공통된 중요한 단점을 가지고 있습니다: 마비 또는 국소 극단에 갇히는 것입니다. 관찰한 것) 학습 메커니즘/알고리즘의 품질을 개선하고 학습 시간(학습 에포크 수)을 늘리는 것 외에는 보편적인 솔루션이 없습니다. 그리고 각각의 경우에 다르게 결정됩니다.

로컬 극한값에 갇히는 것에 관한 것이라면 이 경우 결과는 모두 "좋음"이어야 하고 특정 범위("더 좋음", "나쁨")에서만 달라야 한다고 생각합니다.

그러나 테스트 결과를 크게 변경하지 마십시오! 이해했나요?

다음은 1개월 동안의 테스트 기간에 대한 실행 결과입니다.

-9337

+5060

+14522

+7325

+12724

-3475

+10924

-9337

+5060

-3475

-9337

-3475

...........................................

여기에서 외국 동지 들은 네트워크 위원회를 사용하여 조언합니다 .

하지만 그것이 최선의 해결책은 아니라고 생각합니다...

또한 문제에서 제안한 OP 데이터는 선형 방법으로 매우 쉽게 분리된다는 점을 상기시켜 드리겠습니다.

그리고 NS의 형태로 간단하고 안정적인 솔루션을 찾는 것이 정말 불가능합니까?

 

GA에 대해 이해가 안되는데 무엇을 사용할지 검색하려면?

..............

즉, 국회가 아닌 국회 대신에 GA를 사용하는 것인가?

 
lasso :

GA에 대해 이해가 안되는데 무엇을 사용할지 검색하려면?

..............

즉, 국회가 아닌 국회 대신에 GA를 사용하는 것인가?


GA는 NS의 무게를 들 수 있고, 피트니스 기능으로 무엇이든 사용할 수 있습니다 ... 기억하는 한 EMA GA로 검색 할 수 있습니다 ...
하지만 솔직히 말해서, 나는 이 GA가 어떻게 당신을 도울 것인지 이해하지 못합니다. 그것은 또한 국회와 같은 다른 지점에서 멈출 수도 있습니다 ...

그리고 일반적으로 솔직히 말해서 이것은 정상적인 현상이며 가장 중요한 것은 크게 다르지 않다는 것입니다 ... (원하는만큼 이해하지 마십시오)

 
lasso :

로컬 극한값에 갇히는 것에 관한 것이라면 이 경우 결과는 모두 "좋음"이어야 하고 특정 범위("더 좋음", "나쁨")에서만 달라야 한다고 생각합니다.

그러나 테스트 결과를 크게 변경하지 마십시오! 이해했나요?


여기서 네트워크는 과도하게 훈련된 것이 아니라 과소 훈련된 것입니다. 그 이유는 분명히 고품질 아키텍처가 불충분하기 때문입니다.

과적합이 있을 수 있지만 - 네트워크 구조가 불필요하게 중복되고 초기 초기화가 무작위인 경우 매번 그리드가 서로 다른 극단에서 멈출 수 있으므로 결과에 큰 차이가 있습니다.

 
alsu :

여기서 네트워크는 과도하게 훈련된 것이 아니라 과소 훈련된 것입니다. 그 이유는 분명히 고품질 아키텍처가 불충분하기 때문입니다.

과적합이 있을 수 있지만 네트워크 구조가 불필요하게 중복되고 초기 초기화가 무작위인 경우 매번 그리드가 서로 다른 극단에서 멈출 수 있으므로 결과에 큰 차이가 있습니다.

걸림돌이 무엇인지 구체적으로 식별하려면 어떤 데이터 또는 결과를 제공해야 합니까?
 

그리고 더. 나는 실제 네트워크 출력 범위의 "협소함"에 놀랐습니다. 설명하겠습니다:

-- MLP 네트워크 1-7-1

-- 신경망의 입력에 제공되는 값은 [0;1] 범위에서 균일하게 분포되며, 훈련 예제의 출력은 값 1과 -1로 표시됩니다.

훈련 후 입력 값의 전체 범위가 네트워크를 통해 실행되면 네트워크 출력이 매우 좁은 범위에 있음을 알 수 있습니다. 예를 들어:

opt_max_act= -0.50401336 opt_min_act= -0.50973881 단계=0.0000286272901034

또는 심지어 그렇게

opt_max_real= -0.99997914 opt_min_real= -0.99999908 단계=0.00000010

...........................................

이게 맞나요 안 맞나요?