스크립트 형태의 신경망 - 페이지 10

 

공식 S[j] = Sum(i)(y[i]*w[i,j] - t[j])의 표기법을 적어 두십시오. 내가 알아들은 바로는:

t[j] - 임계값 가중치(-1과 동일한 신호로 곱함)

y[i]*w[i,j] - 입력에 자체 가중치를 곱한 값

S[j] - 로지스틱 함수를 적용하기 전의 결과

합(i)이란 무엇입니까?

 
sergeev писал (а) >> 를 썼습니다.

공식 S[j] = Sum(i)(y[i]*w[i,j] - t[j])의 표기법을 적어 두십시오. 내가 알아들은 바로는:

t[j] - 임계값 가중치(-1과 동일한 신호로 곱함)

y[i]*w[i,j] - 입력에 자체 가중치를 곱한 값

S[j] - 로지스틱 함수를 적용하기 전의 결과

합(i)이란 무엇입니까?

합계[i]는 i에 대한 합계입니다. 수식을 어떻게 쓰는지 모르겠습니다.


t[j] - 뉴런 임계값

y[i]*w[i,j] - 이전 종료 레이어 곱하기 바인딩 가중치

S[j] - 로지스틱 함수를 적용하기 전의 가중 합계

 
TheXpert писал (а) >>

합계[i]는 i에 대한 합계입니다. 수식을 어떻게 쓰는지 모르겠습니다.

원칙적으로 이 정도 금액인 줄 알았다.

----------

사실 임계값은 각 입력 값에 추가되는 것이 아니라 sigmoid에 공급되기 전 총량의 끝에서 추가됩니다. 즉, 이것은 개별 입력이 아니라 전체 출력에 대한 임계값입니다.

이러한 공식:

S[j]=합{y[i]*w[i,j]} - t[j]

유리처럼

 for ( i = 0 ; i < NUM_INP ; i ++ ) // входной слой
    { 
        sum = 0 ;
        for ( j = 0 ; j < NUM_INP ; j ++ ) sum += ipl_W [ i , j ] * Input [ j ] ;
        ipl_Out [ i ] = Sigmoid ( sum + ipl_Threshold [ i ]) ;
    }

그리고 원칙적으로 나는 문헌에서 그러한 기록을 보았기 때문에 이것에 동의합니다.

 
sergeev писал (а) >> 를 썼습니다.

원칙적으로 이 정도 금액인 줄 알았다.

--------------

사실 임계값은 각 입력 값에 추가되는 것이 아니라 sigmoid에 공급되기 전 총량의 끝에서 추가됩니다.

그것이 공식이다

S[j]=합{y[i]*w[i,j]} - t[j]

유리처럼

그리고 원칙적으로 나는 문헌에서 그러한 기록을 보았기 때문에 이것에 동의합니다.



아, 물론 맞습니다. 괄호를 잘못 배치했습니다.

 

2 엑스퍼트

글을 보니 국회에 정통하신 분인줄 알았습니다. 초보자에게 작동 원리를 익히기 위해 NN에서 분석을 시작할 위치를 조언해 주시겠습니까?

그리고 네트워크에서 피드백을 사용하는 것은 좋은 일입니까? 실무에서 얼마나 효과적이었습니까?

 
sergeev писал (а) >> 를 썼습니다.

2 엑스퍼트

글을 보니 국회에 정통하신 분인줄 알았습니다. 초보자에게 작동 원리를 익히기 위해 NN에서 분석을 시작할 위치를 조언해 주시겠습니까?

그리고 네트워크에서 피드백을 사용하는 것은 좋은 일입니까? 실무에서 얼마나 효과적이었습니까?


솔직히 말해서 나도 무슨 말을 해야 할지 모르겠다. 우리는 대학에서 NN에 대한 2개의 코스를 가지고 있었고 기본 뉴런 모델, 네트워크 분류, 학습 방법 등의 기초부터 시작했습니다. 그런 다음 퍼셉트론, 선형 및 비선형, 코호넨, 홉필드, 해밍, 순환, 순환 네트워크 ....



순환 네트워크의 경우 실제로 사용하지 않았습니다. IMHO, 플러스와 마이너스는 동시에 이전 상태에 의존한다는 것입니다. 정의상 교환에 적합합니다.

그러나 다시 IMHO, 나는 슬라이딩 윈도우의 원리에 대해 훈련을 받는다면 피드백 없이 퍼셉트론으로 비슷한 결과를 얻을 수 있다고 믿습니다. 이것은 또한 장점이 있습니다. 슬라이딩 창 방법을 사용하면 수신된 예측의 안정성/확률성(혼돈 이론 참조)을 약간의 혈액으로 평가할 수 있으므로 높은 시장 변동성과 예측할 수 없는 결과의 조건에서 크게 도움이 될 수 있습니다.

 
패턴(패턴)의 수에 대한 네트워크의 차원 및 "계층화" 의존성은 무엇입니까?
 
Andy_Kon писал (а) >>
패턴(패턴)의 수에 대한 네트워크의 차원 및 "계층화" 의존성은 무엇입니까?

Simon Haykin은 282페이지의 그의 책 "신경망"에서 하나의 은닉층이 있는 NN의 보편성에 대한 정리를 제공합니다. 결과는 다음과 같습니다.

하지만 "네트워크 차원"이라는 문구에 어떤 의미를 담았는지 이해하지 못했습니다. 은닉층에 있는 뉴런의 수입니까 아니면 NN 입력의 수입니까?

입력 개수인 경우 입력 개수와 훈련 샘플의 크기(패턴 개수)의 곱은 NN 가중치의 제곱과 같아야 합니다.

이것이 은닉층에 있는 뉴런의 수라면 그 수는 작업의 복잡성에 의해 결정되고 실험적으로 발견됩니다.

 

치수 및 레이어링

1. 차원 - 레이어의 뉴런 수입니다.

2. "레이어" - 레이어 수.

3. 이것으로부터 다음 질문이 이어집니다. 레이어의 뉴런을 레이어에서 레이어로 변경하는 것입니까?

4. 레이어 수, 차원 및 템플릿 수(패턴)에 대한 교육 주기 수 - (최적)?
 

"계층의 뉴런 변경"이란 NN을 훈련하는 동안 뉴런(뉴런)의 시냅스 가중치를 수정하거나 계층의 뉴런 수를 점진적으로 변경하여 NN의 최적 아키텍처를 찾는 과정입니다. 최적화?

음, 훈련 주기의 수는 일반화 오류의 최소 달성에 의해 결정되며 계층(및 기타 사항)의 수와 직접적으로 연관되지는 않지만 뉴런 수와 뉴런 수에 약하게 비선형적으로 의존합니다. 레이어. 이는 전역 최소값을 검색하기 위해 NN이 구축한 다차원 피쳐 표면의 "견고함"에 따라 다릅니다. 네트워크가 올바르게 작동한다면 50-100 epoch의 역전파 훈련이면 충분합니다. 사실, 그렇게 하려면 꽤 많이 퍼프해야 합니다.