Neutron , 입력 수의 증가에 따른 평활화 효과는 자연스럽습니다. 그러나 지연은 이러한 입력의 부족과 네트워크의 불완전성(언더트레이닝)과 같은 많은 요인에 의해 결정될 수 있습니다. 또 다른 질문은 위 기준의 모든 "+"와 함께 이것이 지연을 제공하는지 여부입니다.
무화과에. 빨간색은 원래 시계열(VR)을 보여주고 파란색 - 선형 단일 레이어 네트워크보다 1bar 앞서 예측, 녹색 - 비선형 2계층 네트워크를 나타냅니다. 침지 깊이는 두 경우 모두 동일합니다. 이 인위적인 경우 VR의 추세 섹션에서 예측 데이터가 눈에 띄게 유지됨을 알 수 있습니다. 제 경험이 풍부한 동료가 이 효과를 가지고 있는지 궁금합니다. 그렇다면 어떤 관련이 있습니까?
네트워크가 어떻게 든 이상하게 작동합니다. 추세 섹션에서 동일한 입력 데이터 세트가 제공되고 이에 대해 다른 예측이 제공됩니다(차트에서 파선으로 표시되지만 직선이어야 함). 이와 관련하여 다음과 같은 질문이 있습니다.
1) 네트워크의 중간 계층에는 몇 개의 뉴런이 있습니까?
2) 얼마나 많은 입력이 있습니까?
3) 입력에 무엇을 공급합니까?
추세에 대한 예측의 지연에 대해. 이런 일이 일어났어야 했습니다. 약 30개의 훈련 벡터를 네트워크에 제출했는데, 여기서 값이 0.1씩 증가하면 0.1이 증가하고, 동일한 값이 연속으로 증가하면 3 감소하는 1개의 벡터를 제출했습니다. 일치하지 않는 데이터의 네트워크. 그래서 그녀는 당신의 31가지 상반된 예측을 평균화했습니다...
2레이어 NS도 구축했습니다. 3개의 입력과 3개의 중간 뉴런이 있습니다. 값의 증가가 입력에 적용되었습니다. 비교를 위해 한 번은 모든 데이터를 사용하여 이 네트워크를 훈련시켰고 두 번째에는 훈련에서 이상치를 제외했습니다. 입력에 너무 큰 값을 포함하는 모든 훈련 벡터, 즉 같은 급격한 붕괴 3. 차이점은 분명합니다.
네트워크가 어떻게 든 이상하게 작동합니다. 추세 섹션에서 동일한 입력 데이터 세트가 제공되고 이에 대해 다른 예측이 제공됩니다(차트에서 파선으로 표시되지만 직선이어야 함). 이와 관련하여 다음과 같은 질문이 있습니다.
1) 네트워크의 중간 계층에는 몇 개의 뉴런이 있습니까?
2) 얼마나 많은 입력이 있습니까?
3) 입력에 무엇을 공급합니까?
추세에 대한 예측의 지연에 대해. 이런 일이 일어났어야 했습니다. 약 30개의 훈련 벡터를 네트워크에 제출했는데, 여기서 값이 0.1씩 증가하면 0.1이 증가하고, 동일한 값이 연속으로 증가하면 3 감소하는 1개의 벡터를 제출했습니다. 일치하지 않는 데이터의 네트워크. 그래서 그녀는 당신의 31가지 상반된 예측을 평균화했습니다...
2레이어 NS도 구축했습니다. 3개의 입력과 3개의 중간 뉴런이 있습니다. 값의 증가가 입력에 적용되었습니다. 비교를 위해 한 번은 모든 데이터를 사용하여 이 네트워크를 훈련시켰고 두 번째에는 훈련에서 이상치를 제외했습니다. 입력에 너무 큰 값을 포함하는 모든 훈련 벡터, 즉 동일한 급격한 붕괴가 3입니다. 차이점은 분명합니다.
ds2와 답변해주신 모든 분들, 많은 관심과 조언 부탁드립니다. 많은 도움이 되었습니다. 사실 내 네트워크에서 예측 구성 속도를 높이기 위해 훈련 주기(이것을 Epoch라고 함)의 수를 100배로 엄격하게 제한했습니다. 물론 이것은 충분하지 않았고 결과적으로 네트워크가 제대로 훈련되지 않았습니다. 에포크 수를 1000으로 늘린 후 모든 것이 정확하게 제자리에 떨어졌습니다.
내 네트워크는 쌍곡선 탄젠트 형태의 비선형성이 있는 2층이며, 은닉층 2의 뉴런 수와 시냅스 수 d * 2 + 2입니다. 여기서 d는 NN 입력의 차원입니다. 나는 그림에 표시된 경우에 대해 d=2이고 훈련 벡터의 수는 6입니다. 훈련 샘플의 벡터 수는 시냅스의 수와 동일하지만 네트워크는 재훈련되지 않고 예측을 매끄럽게 하려고 하지 마십시오. 그러면 가격 상승을 보다 효율적으로 추적할 수 있습니다. 교육을 위해 입력에 값 증가 시퀀스도 제출했습니다. 나는 입력 데이터를 준비하는 미묘한 기술과는 거리가 멀지만("두 번째로 훈련에서 제외된 이상값"을 의미함) 이 지혜를 곧 이해하기를 바랍니다.
흥미로운 결과는 다음과 같습니다.
이것은 하나의 입력이 있는 단일 레이어 비선형 NN의 각 단계에서 재훈련으로 한 단계 앞서는 예측입니다! 훈련 샘플 = 각각 하나의 요소가 있는 2개의 벡터.
네트워크가 어떻게 든 이상하게 작동합니다. 추세 섹션에서 동일한 입력 데이터 세트가 제공되고 이에 대해 다른 예측이 제공됩니다(차트에서 파선으로 표시되지만 직선이어야 함). 이와 관련하여 다음과 같은 질문이 있습니다.
1) 네트워크의 중간 계층에는 몇 개의 뉴런이 있습니까?
2) 얼마나 많은 입력이 있습니까?
3) 입력에 무엇을 공급합니까?
추세에 대한 예측의 지연에 대해. 이런 일이 일어났어야 했습니다. 약 30개의 훈련 벡터를 네트워크에 제출했는데, 여기서 값이 0.1씩 증가하면 0.1이 증가하고, 동일한 값이 연속으로 증가하면 3 감소하는 1개의 벡터를 제출했습니다. 일치하지 않는 데이터에 대한 네트워크. 그래서 그녀는 당신의 31가지 상반된 예측을 평균했습니다...
2레이어 NS도 구축했습니다. 3개의 입력과 3개의 중간 뉴런이 있습니다. 값의 증가가 입력에 적용되었습니다. 비교를 위해 한 번은 모든 데이터를 사용하여 이 네트워크를 훈련시켰고 두 번째에는 훈련에서 이상치를 제외했습니다. 입력에 너무 큰 값을 포함하는 모든 훈련 벡터, 즉 같은 급격한 붕괴 3. 차이점은 분명합니다.
ds2와 답변해주신 모든 분들, 많은 관심과 조언 부탁드립니다. 많은 도움이 되었습니다. 사실 내 네트워크에서 예측 구성 속도를 높이기 위해 훈련 주기(이것을 Epoch라고 함)의 수를 100배로 엄격하게 제한했습니다. 물론 이것은 충분하지 않았고 결과적으로 네트워크가 제대로 훈련되지 않았습니다. 에포크 수를 1000으로 늘린 후 모든 것이 정확하게 제자리에 떨어졌습니다.
내 네트워크는 쌍곡선 탄젠트 형태의 비선형성이 있는 2층이며, 은닉층 2의 뉴런 수와 시냅스 수 d * 2 + 2입니다. 여기서 d는 NN 입력의 차원입니다. 나는 그림에 표시된 경우에 대해 d=2이고 훈련 벡터의 수는 6입니다. 훈련 샘플의 벡터 수는 시냅스의 수와 동일하지만 네트워크는 재훈련되지 않고 예측을 매끄럽게 하려고 하지 마십시오. 그러면 가격 상승을 보다 효율적으로 추적할 수 있습니다. 교육을 위해 입력에 값 증분 시퀀스도 제출했습니다. 나는 입력 데이터를 준비하는 미묘한 기술과는 거리가 멀지만("두 번째로 훈련에서 제외된 이상값"을 의미함) 이 지혜를 곧 이해하기를 바랍니다.
샘플을 개선하려면 다음 원칙에 따라 교육 시리즈를 확장하십시오.
시리즈의 두 개의 인접한 값이 있습니다 - x1,x2는 그들 사이에 x1,2 = (x1+x2)/2를 더합니다.
나는 아직 실제로 NN을 적용하려고 시도하지 않았지만(마지막 아이디어의 맥락에서 그것이 나를 그곳으로 데려가는 것처럼 보이지만), 인간의 관점에서 테스트 벡터는 매우 단순한 종속성(2차 또는 세 개의 매개변수) 및 매우 쉽게 조각별로 근사해야 합니다. 이것이 바로 NS가 하는 일이라고 생각합니다. 빠른 구조조정은 국회의 단순함, 즉 이 경우 짧은 기억이 곧 행복의 결과일 수 있다.
일반적으로 Candid, 나는 당신에게 동의하지만 더 깊이 파고 싶습니다 ... 예를 들어 NS (숨겨진 레이어)의 합병증이 얼마나 정당화되는지.
그리고 그냥 하세요. 사실 NN의 비선형성을 특정 형식으로 나타내면 가중치에 대한 정확한 분석 솔루션을 얻을 수 있습니다. 이것은 차례로 네트워크 훈련을 위한 Back Propagation of Error 방법을 포기하고 1000 Epoch 훈련 없이 한 번의 작업으로 가장 정확한 결과를 얻을 수 있음을 의미합니다!!!
추신: 저는 각 뉴런에서 일정한 수준의 흥분을 갖는 하나의 시냅스를 사용한다는 점을 경고하는 것을 잊었습니다.
이것은 두 개의 NN의 예측 능력을 테스트한 결과를 나타냅니다.
무화과에. 빨간색은 원래 시계열(VR)을 보여주고 파란색 - 선형 단일 레이어 네트워크보다 1bar 앞서 예측, 녹색 - 비선형 2계층 네트워크를 나타냅니다. 침지 깊이는 두 경우 모두 동일합니다. 이 인위적인 경우 VR의 추세 섹션에서 예측 데이터가 눈에 띄게 유지됨을 알 수 있습니다. 제 경험이 풍부한 동료가 이 효과를 가지고 있는지 궁금합니다. 그렇다면 어떤 관련이 있습니까?
네트워크가 어떻게 든 이상하게 작동합니다. 추세 섹션에서 동일한 입력 데이터 세트가 제공되고 이에 대해 다른 예측이 제공됩니다(차트에서 파선으로 표시되지만 직선이어야 함). 이와 관련하여 다음과 같은 질문이 있습니다.
1) 네트워크의 중간 계층에는 몇 개의 뉴런이 있습니까?
2) 얼마나 많은 입력이 있습니까?
3) 입력에 무엇을 공급합니까?
추세에 대한 예측의 지연에 대해. 이런 일이 일어났어야 했습니다. 약 30개의 훈련 벡터를 네트워크에 제출했는데, 여기서 값이 0.1씩 증가하면 0.1이 증가하고, 동일한 값이 연속으로 증가하면 3 감소하는 1개의 벡터를 제출했습니다. 일치하지 않는 데이터의 네트워크. 그래서 그녀는 당신의 31가지 상반된 예측을 평균화했습니다...
2레이어 NS도 구축했습니다. 3개의 입력과 3개의 중간 뉴런이 있습니다. 값의 증가가 입력에 적용되었습니다. 비교를 위해 한 번은 모든 데이터를 사용하여 이 네트워크를 훈련시켰고 두 번째에는 훈련에서 이상치를 제외했습니다. 입력에 너무 큰 값을 포함하는 모든 훈련 벡터, 즉 같은 급격한 붕괴 3. 차이점은 분명합니다.
글쎄, 당신은 이것을 이해하거나 이해하지 못하는 사람에 대해 오랫동안 논쟁 할 수 있습니다. 대화는 데이터 준비에 관한 것이었습니다. 여기 있는 누구도 이 문제를 논의하고 싶어하지 않는다는 것을 이해합니다. 불쌍해
NN 훈련을 위해 데이터를 준비하는 방법에 대한 강의를 읽었다면 이 포럼에서 해서는 안 된다고 생각합니다. 여기에서는 누구에게도 관심이 없을 것입니다.
글쎄, 당신은 헛되이! 실무자들의 경험을 읽어보는 것도 재미있을 것 같아요.
네트워크가 어떻게 든 이상하게 작동합니다. 추세 섹션에서 동일한 입력 데이터 세트가 제공되고 이에 대해 다른 예측이 제공됩니다(차트에서 파선으로 표시되지만 직선이어야 함). 이와 관련하여 다음과 같은 질문이 있습니다.
1) 네트워크의 중간 계층에는 몇 개의 뉴런이 있습니까?
2) 얼마나 많은 입력이 있습니까?
3) 입력에 무엇을 공급합니까?
추세에 대한 예측의 지연에 대해. 이런 일이 일어났어야 했습니다. 약 30개의 훈련 벡터를 네트워크에 제출했는데, 여기서 값이 0.1씩 증가하면 0.1이 증가하고, 동일한 값이 연속으로 증가하면 3 감소하는 1개의 벡터를 제출했습니다. 일치하지 않는 데이터의 네트워크. 그래서 그녀는 당신의 31가지 상반된 예측을 평균화했습니다...
2레이어 NS도 구축했습니다. 3개의 입력과 3개의 중간 뉴런이 있습니다. 값의 증가가 입력에 적용되었습니다. 비교를 위해 한 번은 모든 데이터를 사용하여 이 네트워크를 훈련시켰고 두 번째에는 훈련에서 이상치를 제외했습니다. 입력에 너무 큰 값을 포함하는 모든 훈련 벡터, 즉 동일한 급격한 붕괴가 3입니다. 차이점은 분명합니다.
ds2와 답변해주신 모든 분들, 많은 관심과 조언 부탁드립니다. 많은 도움이 되었습니다. 사실 내 네트워크에서 예측 구성 속도를 높이기 위해 훈련 주기(이것을 Epoch라고 함)의 수를 100배로 엄격하게 제한했습니다. 물론 이것은 충분하지 않았고 결과적으로 네트워크가 제대로 훈련되지 않았습니다. 에포크 수를 1000으로 늘린 후 모든 것이 정확하게 제자리에 떨어졌습니다.
내 네트워크는 쌍곡선 탄젠트 형태의 비선형성이 있는 2층이며, 은닉층 2의 뉴런 수와 시냅스 수 d * 2 + 2입니다. 여기서 d는 NN 입력의 차원입니다. 나는 그림에 표시된 경우에 대해 d=2이고 훈련 벡터의 수는 6입니다. 훈련 샘플의 벡터 수는 시냅스의 수와 동일하지만 네트워크는 재훈련되지 않고 예측을 매끄럽게 하려고 하지 마십시오. 그러면 가격 상승을 보다 효율적으로 추적할 수 있습니다. 교육을 위해 입력에 값 증가 시퀀스도 제출했습니다. 나는 입력 데이터를 준비하는 미묘한 기술과는 거리가 멀지만("두 번째로 훈련에서 제외된 이상값"을 의미함) 이 지혜를 곧 이해하기를 바랍니다.
흥미로운 결과는 다음과 같습니다.
이것은 하나의 입력이 있는 단일 레이어 비선형 NN의 각 단계에서 재훈련으로 한 단계 앞서는 예측입니다! 훈련 샘플 = 각각 하나의 요소가 있는 2개의 벡터.
그 자리에서 죽어요...
Nero Networks와 인공 지능은 단순하지 않지만 매우 간단합니다!
네트워크가 어떻게 든 이상하게 작동합니다. 추세 섹션에서 동일한 입력 데이터 세트가 제공되고 이에 대해 다른 예측이 제공됩니다(차트에서 파선으로 표시되지만 직선이어야 함). 이와 관련하여 다음과 같은 질문이 있습니다.
1) 네트워크의 중간 계층에는 몇 개의 뉴런이 있습니까?
2) 얼마나 많은 입력이 있습니까?
3) 입력에 무엇을 공급합니까?
추세에 대한 예측의 지연에 대해. 이런 일이 일어났어야 했습니다. 약 30개의 훈련 벡터를 네트워크에 제출했는데, 여기서 값이 0.1씩 증가하면 0.1이 증가하고, 동일한 값이 연속으로 증가하면 3 감소하는 1개의 벡터를 제출했습니다. 일치하지 않는 데이터에 대한 네트워크. 그래서 그녀는 당신의 31가지 상반된 예측을 평균했습니다...
2레이어 NS도 구축했습니다. 3개의 입력과 3개의 중간 뉴런이 있습니다. 값의 증가가 입력에 적용되었습니다. 비교를 위해 한 번은 모든 데이터를 사용하여 이 네트워크를 훈련시켰고 두 번째에는 훈련에서 이상치를 제외했습니다. 입력에 너무 큰 값을 포함하는 모든 훈련 벡터, 즉 같은 급격한 붕괴 3. 차이점은 분명합니다.
ds2와 답변해주신 모든 분들, 많은 관심과 조언 부탁드립니다. 많은 도움이 되었습니다. 사실 내 네트워크에서 예측 구성 속도를 높이기 위해 훈련 주기(이것을 Epoch라고 함)의 수를 100배로 엄격하게 제한했습니다. 물론 이것은 충분하지 않았고 결과적으로 네트워크가 제대로 훈련되지 않았습니다. 에포크 수를 1000으로 늘린 후 모든 것이 정확하게 제자리에 떨어졌습니다.
내 네트워크는 쌍곡선 탄젠트 형태의 비선형성이 있는 2층이며, 은닉층 2의 뉴런 수와 시냅스 수 d * 2 + 2입니다. 여기서 d는 NN 입력의 차원입니다. 나는 그림에 표시된 경우에 대해 d=2이고 훈련 벡터의 수는 6입니다. 훈련 샘플의 벡터 수는 시냅스의 수와 동일하지만 네트워크는 재훈련되지 않고 예측을 매끄럽게 하려고 하지 마십시오. 그러면 가격 상승을 보다 효율적으로 추적할 수 있습니다. 교육을 위해 입력에 값 증분 시퀀스도 제출했습니다. 나는 입력 데이터를 준비하는 미묘한 기술과는 거리가 멀지만("두 번째로 훈련에서 제외된 이상값"을 의미함) 이 지혜를 곧 이해하기를 바랍니다.
샘플을 개선하려면 다음 원칙에 따라 교육 시리즈를 확장하십시오.
시리즈의 두 개의 인접한 값이 있습니다 - x1,x2는 그들 사이에 x1,2 = (x1+x2)/2를 더합니다.
이 방법은 인접한 값의 상관 관계가 큰 시계열 에서 잘 작동합니다.
견적 흐름 케이스, 이것만...
흥미로운 결과는 다음과 같습니다.이것은 하나의 입력이 있는 단일 레이어 비선형 NN의 각 단계에서 재훈련으로 한 단계 앞서는 예측입니다! 훈련 샘플 = 각각 하나의 요소가 있는 2개의 벡터.
그 자리에서 죽어요...
훈련 벡터가 형성된 초기 데이터가 포함된 파일을 업로드하도록 요청할 수 있습니까?
파일 형식은 사용자가 읽을 수 있도록 표시되어야 합니다. 사실은 내가 직접 국회를 작성하고 ME에 편리한 형식으로 데이터를 사용한다는 것입니다.
Для улучшения выборки попробуйте расширить обучающий ряд, скажем по такому принципу:
시리즈의 두 개의 인접한 값이 있습니다 - x1,x2는 그들 사이에 x1,2 = (x1+x2)/2를 더합니다.
이 방법은 인접 값의 상관 관계가 큰 시계열에서 잘 작동합니다.
견적 흐름 케이스, 이것만...
이 경우는 양의 상관 계열에 적합합니다. 가격 VR은 인접 판독값 간에 눈에 띄는 음의 상관 관계가 있으므로 이 방법이 올바르지 않습니다.
그리고 더. 글쎄, 포럼의 존경받는 회원이 단일 레이어 ceteris paribus와 관련하여 2 레이어 NS의 더 나은 예측 능력에 찬성하여 합리적인 논거를 제시한다면.
옵션으로. 아래는 테스트 벡터가 있는 zip 아카이브로, 그림 1에 나와 있습니다. 적당하다고 생각되는 대로 직접 자르십시오.
그 자리에서 죽어요...
Nero Networks와 인공 지능은 단순하지 않지만 매우 간단합니다!
나는 아직 실제로 NN을 적용하려고 시도하지 않았지만(마지막 아이디어의 맥락에서 그것이 나를 그곳으로 데려가는 것처럼 보이지만), 인간의 관점에서 테스트 벡터는 매우 단순한 종속성(2차 또는 세 개의 매개변수) 및 매우 쉽게 조각별로 근사해야 합니다. 이것이 바로 NS가 하는 일이라고 생각합니다. 빠른 구조조정은 국회의 단순함, 즉 이 경우 짧은 기억이 곧 행복의 결과일 수 있다.
일반적으로 Candid, 나는 당신에게 동의하지만 더 깊이 파고 싶습니다 ... 예를 들어 NS (숨겨진 레이어)의 합병증이 얼마나 정당화되는지.
그리고 그냥 하세요. 사실 NN의 비선형성을 특정 형식으로 나타내면 가중치에 대한 정확한 분석 솔루션을 얻을 수 있습니다. 이것은 차례로 네트워크 훈련을 위한 Back Propagation of Error 방법을 포기하고 1000 Epoch 훈련 없이 한 번의 작업으로 가장 정확한 결과를 얻을 수 있음을 의미합니다!!!
추신: 저는 각 뉴런에서 일정한 수준의 흥분을 갖는 하나의 시냅스를 사용한다는 점을 경고하는 것을 잊었습니다.
추신.
휴대 휴대 휴대 ;-)
이것은 단일 레이어 비선형 NN의 가중치에 대한 "정확한" 분석 솔루션입니다.
그것은 나를 미소 짓게 했다.
그러나 전체 계산에는 1밀리초가 걸립니다.초보자 "신경 연구원"인 저에게 설명하십시오 ... 내가 이해하는대로 문제의 네트워크는 다층 퍼셉트론입니다.
그리고 이러한 유형의 네트워크는 어떤 고려 사항에서 선택되었습니까? Hopfield나 Kohonen 또는 다른 것이 아닌 이유는 무엇입니까?