신경망, 마스터하는 방법, 어디서부터 시작해야 할까요? - 페이지 11

 
Integer >> :

3D 그래픽과 애니메이션을 하고 있다면 자신만의 3DStudioMAX를 작성하시겠습니까?

이것들은 다른 것들...


구체적인 예를 들었습니다... 좋아하는 신경망 프로그램에서 오류 기능을 변경해 보세요...


간단히 말해서 기능과 코드 크기 면에서 2DMAX가 Neuroshell과 같다고 말하고 싶습니까?

아 글쎄...

 
Solver.it писал(а) >> 좋아하는 신경망 프로그램에서 오류 기능을 변경해 보십시오...
그리고 당신은 다음과 같은 생각을 허용하지 않습니다. 이 프로그램의 도움으로 이익을 얻으려면이 오류 기능을 변경할 필요가 없습니까?
 
LeoV писал(а) >>
그리고 당신은 다음과 같은 생각을 허용하지 않습니다. 이 프로그램의 도움으로 이익을 얻으려면이 오류 기능을 변경할 필요가 없습니까?

귀하의 이 은혜로운 진술 덕분에 최고의 NS 전문가로부터 귀하의 kinshpekt에 최적화 개념이 없었고 전혀 없었음을 알게 되었습니다.
그리고 당신은 다음과 같은 생각을 허용하지 않습니다. 당신은 Yusei와 약간 다른 나라에 살고 있습니다.
따라서 NN 생성 및 사용 측면에서 본격적인 최적화를 위한 소프트웨어가 없어야 하는 것은 무엇입니까?

 
Korey писал(а) >>

귀하의 이 은혜로운 진술 덕분에 최고의 NS 전문가로부터 귀하의 kinshpekt에 최적화 개념이 없었고 전혀 없었음을 알게 되었습니다.

:-)

 
Korey писал(а) >>

당신이 쓴 것을 이해 했습니까? )))

 

국회를 왜곡하지 않는 방법, 그녀의 의견을 제시하지 않아도 기적은 일어나지 않습니다!

따라서 어떻게 됩니까? 한편으로 NN의 레이어가 클수록 예측력이 높아지지만 3개 이상의 레이어를 늘리는 것은 무의미합니다. 3-레이어 메쉬는 이미 보편적인 근사값입니다. 반면에 NN이라는 블랙박스가 하는 일은 시장에서 quasi-stationary 프로세스를 찾아 활용하는 것뿐이다. 다른 것은 주어지지 않습니다. 즉, quasi-stationary, not fixed 상태는 그냥 하고(시장에는 그런 제품이 없다) non-stationary(원칙적으로 그러한 프로세스는 악용될 수 없다). 나는 이미 NS - w 의 시냅스 수, 입력 차원 - d 및 훈련 샘플 P 의 최적 길이 사이의 최적 비율 유도에 대한 링크를 제공했습니다(주제의 4 또는 5 페이지) : w ^ 2 = P * d

NN이 계층화될수록 훈련할 때 더 많은 훈련 샘플을 사용해야 합니다. 훈련의 복잡성이 P^3만큼 커질 뿐만 아니라 데이터가 충분하지 않을 수 있습니다! 그러나 가장 큰 매복은 예상하지 못한 곳에 있습니다. 준 고정 프로세스(우리 NN이 kotir에서 감지한 다음 익스플로잇하는 프로세스)에는 특성 수명 이 있습니다(일반적으로 0과 다르고 일부보다 작음). 큰 훈련 샘플에서 선택한 프로세스를 변경할 확률이 더 높다는 것은 분명합니다... 알겠습니까? 훈련 샘플이 짧을수록 더 좋습니다. 시장 감정의 변화로 인해 중단될 가능성이 적습니다! 여기에서 "짧은 교육 프로그램이있는 2-layer NS와 3 대학이 뒤에있는 강력한 3 (내가 공부하는 동안 모든 것이 불필요 해짐)"이라는 질문에 대한 대답은 다음을 줄 것입니다. 간단한 실험.

이를 위해 Mathcad 환경에서 1,2 및 3-layer의 3개의 그리드를 던져 할당량 증가의 부호를 미리 예측한 결과를 비교했습니다(통계는 100번의 독립적인 실험에서 수집됨). 결과는 다음과 같습니다.

1 - p=올바르게 추측된 문자의 10%(확률=1/2+p).

2 - 15-16%

3 - 12%

여기에는 실제로 무료 매개변수가 있습니다. 입력의 차원과 레이어/레이어의 뉴런 수입니다. 첫 번째 매개변수는 모든 아키텍처에서 동일했고 두 번째 매개변수는 개인적으로 선택했습니다. 3-레이어 NN은 만병 통치약이 아니며 아마도 거래자로서 MTS 분석 블록에 대한 최상의 옵션은 최대 예측 정확도 및 학습을 위한 최소 요구 사항 측면에서 2-레이어 그리드입니다. 복잡성(RS 전원, 가용성의 위대한 역사 및 비구식).

 
Neutron писал(а) >>

국회를 왜곡하지 않는 방법, 그녀의 의견을 제시하지 않아도 기적은 일어나지 않습니다!

따라서 어떻게 됩니까? 한편으로 NN의 레이어가 클수록 예측력이 높아지지만 3개 이상의 레이어를 늘리는 것은 무의미합니다. 3-레이어 메쉬는 이미 보편적인 근사값입니다. 반면에 NN이라는 블랙박스가 하는 일은 시장에서 quasi-stationary 프로세스를 찾아 활용하는 것뿐이다. 다른 것은 주어지지 않습니다. 즉, quasi-stationary, not fixed 상태는 그냥 하고(시장에는 그런 제품이 없다) non-stationary(원칙적으로 그러한 프로세스는 악용될 수 없다). 나는 이미 NS - w 의 시냅스 수, 입력 차원 - d 및 훈련 샘플 P 의 최적 길이 사이의 최적 비율 유도에 대한 링크를 제공했습니다(주제의 4 또는 5 페이지) : w ^ 2 = P * d

NN이 계층화될수록 훈련할 때 더 많은 훈련 샘플을 사용해야 합니다. 훈련의 복잡성이 P ^ 3으로 증가할 뿐만 아니라 데이터가 충분하지 않을 수 있습니다! 그러나 가장 큰 매복은 예상하지 못한 곳에 있습니다. 준 고정 프로세스(우리 NN이 kotir에서 감지한 다음 익스플로잇하는 프로세스)에는 특성 수명이 있습니다(일반적으로 0과 다르고 일부보다 작음). 큰 훈련 샘플에서 선택한 프로세스를 변경할 확률이 더 높다는 것은 분명합니다... 알겠습니까? 훈련 샘플이 짧을수록 더 좋습니다. 시장 감정의 변화로 인해 중단될 가능성이 적습니다! 여기에서 "짧은 교육 프로그램이있는 2-layer NS와 3 대학이 뒤에있는 강력한 3 (내가 공부하는 동안 모든 것이 불필요 해짐)"이라는 질문에 대한 대답은 다음을 줄 것입니다. 간단한 실험.

이를 위해 Mathcad 환경에서 1,2 및 3-layer의 3개의 그리드를 던져 할당량 증가의 부호를 미리 예측한 결과를 비교했습니다(통계는 100번의 독립적인 실험에서 수집됨). 결과는 다음과 같습니다.

1 - p=올바르게 추측된 기호의 10%(확률=1/2+p).

2 - 15-16%

3 - 12%

여기에는 실제로 무료 매개변수가 있습니다. 입력의 차원과 레이어/레이어의 뉴런 수입니다. 첫 번째 매개변수는 모든 아키텍처에서 동일했고 두 번째 매개변수는 개인적으로 선택했습니다. 3-레이어 NN은 만병 통치약이 아니며 아마도 거래자로서 MTS 분석 블록에 대한 최상의 옵션은 최대 예측 정확도 및 학습을 위한 최소 요구 사항 측면에서 2-레이어 그리드입니다. 복잡성(RS 전원, 가용성의 위대한 역사 및 비구식).

NN을 사용하여 복권 번호를 예측한 사람이 있는지 궁금합니다.

 

gpwr , 당신은 모두를 놀리고 있습니다! - 로또번호를 예측하는 것입니다. 그리고 내 게시물의 인용문을 제거하십시오. 이렇게 하면 메시지에 더 많은 지역성을 추가할 수 있습니다 :-)

 
Neutron писал(а) >>

나는 이미 NS - w 의 시냅스 수, 입력 차원 - d 및 훈련 샘플 P 의 최적 길이 사이의 최적 비율 유도에 대한 링크를 제공했습니다(주제의 4 또는 5 페이지) : w ^ 2 = P * d

네트워크의 크기, 학습 및 인식 능력은 네트워크 아키텍처에 크게 의존합니다. 무슨 뜻이에요? 단어, 반복, VNS 또는 MGUA?
 
우리는 하나의 출력(구매-판매)을 가진 고전적인 다층 비선형 퍼셉트론에 대해 이야기하고 있습니다.