신경망, 마스터하는 방법, 어디서부터 시작해야 할까요? - 페이지 12

 
Neutron >> :

국회를 왜곡하지 않는 방법, 그녀의 의견을 제시하지 않아도 기적은 일어나지 않습니다!

따라서 어떻게 됩니까? 한편으로 NN의 레이어가 클수록 예측력이 높아지지만 3개 이상의 레이어를 늘리는 것은 무의미합니다. 3-레이어 메쉬는 이미 보편적인 근사값입니다.

일반적으로 나는 논쟁하지 않을 것입니다. 피곤합니다.

NN이 계층화될수록 훈련할 때 더 많은 훈련 샘플을 사용해야 합니다. 훈련의 복잡성이 P^3만큼 커질 뿐만 아니라 데이터가 충분하지 않을 수 있습니다!


두 번째로 이 학위를 봅니다. 탁아, 계산하자.


네트워크 m - n - k를 예로 들어 보겠습니다. 문자는 각각 입력, 은닉 및 출력 레이어의 뉴런 수를 나타냅니다.

신호 전파의 복잡성은 O(m*n + n*k)이며 이는 완전히 연결된 시냅스에서 발생합니다.

역전파의 복잡성은 비슷합니다.

이제 같은 크기의 은닉층을 추가로 소개하겠습니다.

복잡도는 O(m*n + n*n + n*k)입니다.

관계식을 취하십시오. 결과는 (m + n + k)/(m + k)입니다.


또한 2차 히든 레이어를 도입하여 1차 히든 레이어의 크기를 구체적으로 줄일 수 있습니다.

이를 위해 Mathcad 환경에 1,2 및 3-레이어의 3개의 그리드를 추가하고 할당량 증가의 부호를 한 카운트 앞으로 예측한 결과를 비교했습니다(통계는 100개의 독립적인 실험에서 수집됨). 결과는 다음과 같습니다.

1 - p=올바르게 추측된 기호의 10%(확률=1/2+p).

2 - 15-16%

3 - 12%

여기에는 실제로 무료 매개변수가 있습니다. 입력의 차원과 레이어/레이어의 뉴런 수입니다. 첫 번째 매개변수는 모든 아키텍처에서 동일했고 두 번째 매개변수는 개인적으로 선택했습니다. 3-레이어 NN은 만병 통치약이 아니며 아마도 거래자로서 MTS 분석 블록에 대한 최상의 옵션은 최대 예측 정확도 및 학습을 위한 최소 요구 사항 측면에서 2-레이어 그리드입니다. 복잡성(RS 전원, 가용성의 위대한 역사 및 비구식).

이제 소수의 레이어가 있는 프랙탈 NN에 대해 생각할 시간입니다. :)) . 2.5가 딱 맞을겁니다.

 

NS 기술을 마스터하는 가상의 방법
1 단계.

하나의 구매/판매 출력으로 NS에 NS를 구축하고 공급합니다. 닫기[x] 차트를 보면 알 수 있습니다. 메쉬가 시끄럽습니다!
2 단계.

우리는 스레드가 원래 인용보다 더 부드럽다고 공급합니다. 이 NS는 어쨌든 소음을 냅니다.
에서 무엇을? 예, 선생님이 고르지 못하기 때문입니다. 손으로 요리하기에는 너무 게으르다. (여기서 대학원생이 필요합니다))
3단계.

우리는 Reshetov의 기사를 읽고, NS를 보내고, 테스터에서 훈련하고, 명시적인 오류 기능 없이 통지합니다.
그래서 Strategy Tester 는 purrs, 개발자 purrs, 똑똑한 Reshetov는 모든 것을 고려하여 실제 Teacher를 발명했습니다.
그러나 이제 Yu. Reshetov는 정의상 똑똑하지만 잘 수행되지 않는 MT-4용 컴퓨터가 있습니다. 하지만 MT-5는 어디에 있습니까?
예, 그리고 4개의 입력에서 이 "NS"는 다시 시끄럽습니다. 이제 과거 데이터가 고르지 않은 것으로 판명되었습니다. 여기에는 다양한 유형의 시장이 포함되어 있으며 어떤 유형의 시장인지 모릅니다)
....루프에서 1-3단계를 반복합니다.
4단계.

우리는 우리가 주기에 갇혀 있다는 것을 이해합니다. 우리는 네트워크를 성장시킬 수 없고 MQL이 느리고 뉴로패키지에서의 훈련은 거래와 거리가 먼 것 같습니다.
5단계.

갈림길에서의 생각 - 이제 우리는 이미 NN과 함께 작업하기 시작했으며 NN이 그다지 수학이 아니라는 것을 알고 있습니다. 얼마나 많은 기술
아마도 NS Trader가 당신을 구할 것입니다. 테스터가 더 좋습니다.
잘...
왜 이 모든?
6단계.

우리가 네트워크를 만들고 훈련시키면 이 과정에서 우리에게 정말로 필요한 것이 점점 더 명확해지며 이 실수는 NN 없이 실행됩니다.
NS없이 완전히.
그것은 밝혀
국회는 당신이 그녀에게 무언가를 설명하는 어리석은 동안 당신 자신이 설명된 것을 이해할 수 있도록 하기 위해서만 필요합니다)))

 
TheXpert писал(а) >>

탁아, 계산하자.

주제의 7페이지에 기사와 함께 아카이브를 게시했습니다. 학습의 복잡성에 대한 추정치가 있습니다(pp. 65-66): С=P*w^2=d*P^2=(w^4 )/d, 내가 약간 거짓말을 했고(약간의 임신) 복잡성은 d*P^2 또는 시냅스 수에 비례한다는 결론을 내릴 수 있습니다. (w^4)/d

또한 2차 히든 레이어를 도입하여 1차 히든 레이어의 크기를 구체적으로 줄일 수 있습니다.

이것은 어디에서 왔습니까?
 
Neutron >> :
이것은 어디에서 왔습니까?

엄격하지 않은 경우 조정 가능한 매개 변수의 수에서 간접적으로. 엄밀히 말하면 나이아실. 증거를 잘 못해요.

그리고 제 생각을 덧붙이자면, 속도의 비선형성의 수렴 측면에서 가장 멋진 퍼셉트론 구조는 아직 확인해보진 않았지만 크리스마스 트리라고 생각하고 있습니다. .

손이 닿을거야, 내가 그릴거야.


몇 가지 새해 생각 :)) .

 
Korey писал(а) >>
국회는 당신이 그녀에게 어리석은 것을 설명하는 동안 당신 자신이 설명 된 것을 이해할 수 있도록 만 필요합니다))))

당신이 거룩하게하고 싶지 않은 한 가지 중요한 점이 있습니다. 국회를 한 번 설명해야합니다 (동시에 올바르게 지적한대로 자신을 이해하게 될 것입니다). 그런 다음 선반처럼 변경 사항을 처리합니다. 세계 (kotir), 그녀가 의미하는 바를 완전히 이해할 수 있도록 실제로 신경 쓰지 않습니다!

엑스퍼트 작성 >>

퍼셉트론 구조 - 헤링본

우리는 무엇을 피우고 있습니까?

아, 알겠습니다! 글쎄, 그것은 확실히 나무처럼 보입니다. 나는 직관적 인 수준에서 동일합니다.

 
Neutron >> :

...

이것은 어디에서 왔습니까?

하이킨 -------> 항목 4.15를 읽으십시오. 네트워크 단순화 기법

 

훈련에 사용하는 알고리즘에는 차이가 없습니다. 결과는 여전히 동일합니다. :) 신경망 을 파헤칠 필요가 없으며 입력을 찾아야 합니다.

 
PraVedNiK писал(а) >>

하이킨 -------> 항목 4.15를 읽으십시오. 네트워크 단순화 기법

괜찮아요. 존경하자!

 

오늬 무늬! 직관은 그것과 아무 관련이 없으며 NS는 피라미드 인코더이며 + FFT와 유사합니다.
예를 들어 피라미드형 인코더 모델을 기반으로 최소 뉴런 수를 간단히 계산합니다.

저것들. 피라미드 인코더는 설계된 신경망의 최소 적용 범위입니다 .

 
Neutron >> :

우리는 무엇을 피우고 있습니까?

떨어졌다 :)

아, 알겠습니다! 글쎄, 그것은 확실히 나무처럼 보입니다. 나는 직관적 인 수준에서 동일합니다.