Neutron>> : 글쎄, 너무 가혹하지 마십시오. 결국 네트워크는 때때로 재훈련되고(분석된 VR의 각 계정에 대해 이 작업을 수행함) 평균적으로 이 방법은 최소값을 찾습니다. 차원 축소와 관련하여 가격 유형 BP의 경우 불행히도 제출하는 정도까지는 작동하지 않습니다.
어떤 시간대를 사용하고 있습니까? 치수를 낮추는 것은 목적에 따라 다릅니다. 진부한 사전 처리라면 사전 고려 사항 없이 원하는 효과를 내지 못할 것입니다. 즉, 이미 충분한 데이터가 있고 결과만 개선하면 됩니다. 차원 축소를 다른 용도로 사용하고 있다면 무엇이든 가능합니다. ;)
첫 번째에 따르면 3계층 비선형 신경망(3개의 뉴런 계층으로 구성되며 각각에 대해 비선형 출력이 있음)은 범용 근사기입니다.
글쎄, 그것은 오랫동안 입증되었습니다. 3층 퍼셉트론이 임의의 작은 주어진 정확도로 모든 기능을 근사할 수 있다는 사실.
레이어 수의 추가 증가는 네트워크 용량을 추가하지 않습니다.
두 번째 정리에 따르면 네트워크의 컴퓨팅 성능은 뉴런의 출력에서 특정 유형의 비선형성에 의존하지 않습니다. (비선형성) 원칙적으로 중요하며, Sigmoid 또는 arc tangent가 정확히 무엇인지는 중요하지 않습니다.
내가 말한 것은 실제 실험의 결과입니다. 비선형성에 관해서는 ... 그러나 먼저 이러한 정리에 익숙해져야 합니다.
또한 참여하지 않은 데이터에 대한 예측 오차를 최소화한다는 의미에서 과거 데이터에 대한 훈련 샘플의 최적 길이, NN의 입력 차원 및 시냅스의 총 수 사이의 모호하지 않은 관계 네트워크 교육에서 입증되었습니다. 이렇게 하면 이 최적을 수동으로 선택하여 레닌주의에 참여하지 않을 수 있습니다. PC의 기존 용량으로 시간과 노력을 크게 절약할 수 있습니다.
조정 가능한 매개변수의 수를 의미합니까? 임계값도 포함됩니다. 그건 그렇고, 문서 증거도 해를 끼치 지 않을 것입니다. 그리고 신경망을 다루기 시작하는 사람들은 이 자료에 익숙해지는 것이 나쁘지 않을 것입니다.
그리고 어떤 곳에서는 5-layer가 사용됩니다. 퍼셉트론을 기반으로 하는 복잡한 네트워크(여러 출력 레이어와 복잡한 연결 포함)에 대해서는 당분간 침묵하겠습니다.
조정 가능한 매개변수의 수를 의미합니까? 임계값도 포함됩니다. 그건 그렇고, 문서 증거도 해를 끼치 지 않을 것입니다. 그리고 신경망을 다루기 시작하는 사람들은 이 자료에 익숙해지는 것이 나쁘지 않을 것입니다.
예, 우리는 NN의 가중치 수, 입력 수와의 관계 및 훈련 샘플의 최적 길이를 의미했습니다. 종속성의 결과는 64-65페이지의 Attach에 첨부된 기사에 나와 있습니다. 간단히 말해서, NN의 가중치 수가 w 이고 입력의 수는 d 이고 훈련 샘플의 길이가 Р 이면 최적에서 조건이 충족되어야 합니다. P = (w^2)/d
글쎄, 너무 가혹하지 마십시오. 결국 네트워크는 때때로 재훈련되고(분석된 VR의 각 계정에 대해 이 작업을 수행함) 평균적으로 이 방법은 최소값을 찾습니다. 차원 축소와 관련하여 가격 유형 BP의 경우 불행히도 제출하는 정도까지는 작동하지 않습니다.
어떤 시간대를 사용하고 있습니까? 치수를 낮추는 것은 목적에 따라 다릅니다. 진부한 사전 처리라면 사전 고려 사항 없이 원하는 효과를 내지 못할 것입니다. 즉, 이미 충분한 데이터가 있고 결과만 개선하면 됩니다. 차원 축소를 다른 용도로 사용하고 있다면 무엇이든 가능합니다. ;)
어떤 시간대를 사용하고 있습니까?
저는 TF를 사용하지 않습니다.
그 이유는 촛대가 모든 시간대에, 잡다하게 사용되기 때문입니다. 이 때문에 시가(또는 종가)를 기반으로 구축된 VR은 다른 방식(예: 기악 시간 등으로 전환).
감사 합니다 gpwr , arnautov !
Шаг 1: Выбираем входные данные. Например,
x1 = WPR Per1
x2 = WPR Per2
x3 = WPR Per3
주제에 더 가깝습니까? 괜찮아요! 먼저 뉴런을 작성한 다음 이를 네트워크로 결합해야 합니다. 그리고 멋진 프로그램은 나중에 있습니다. 다른 모든 조언은 헛소리입니다.
그리고 뉴런을 작성하면 단계로 분해될 수 있습니까?
잘? 예를 들어 이해하고 싶은 주제에 누가 썼습니까? 시작해 볼까요?
첫 번째 단계는 우리에게 보여졌고 고문은 다섯 번째 페이지에 있습니다...
나는 두 가지 정리가 얼마 전에 증명되었다는 것을 알고 있습니다.
나는 링크를 주셔서 감사합니다
첫 번째에 따르면 3계층 비선형 신경망(3개의 뉴런 계층으로 구성되며 각각에 대해 비선형 출력이 있음)은 범용 근사기입니다.
글쎄, 그것은 오랫동안 입증되었습니다. 3층 퍼셉트론이 임의의 작은 주어진 정확도로 모든 기능을 근사할 수 있다는 사실.
레이어 수의 추가 증가는 네트워크 용량을 추가하지 않습니다.
두 번째 정리에 따르면 네트워크의 컴퓨팅 성능은 뉴런의 출력에서 특정 유형의 비선형성에 의존하지 않습니다. (비선형성) 원칙적으로 중요하며, Sigmoid 또는 arc tangent가 정확히 무엇인지는 중요하지 않습니다.
내가 말한 것은 실제 실험의 결과입니다. 비선형성에 관해서는 ... 그러나 먼저 이러한 정리에 익숙해져야 합니다.
또한 참여하지 않은 데이터에 대한 예측 오차를 최소화한다는 의미에서 과거 데이터에 대한 훈련 샘플의 최적 길이, NN의 입력 차원 및 시냅스의 총 수 사이의 모호하지 않은 관계 네트워크 교육에서 입증되었습니다. 이렇게 하면 이 최적을 수동으로 선택하여 레닌주의에 참여하지 않을 수 있습니다. PC의 기존 용량으로 시간과 노력을 크게 절약할 수 있습니다.
조정 가능한 매개변수의 수를 의미합니까? 임계값도 포함됩니다. 그건 그렇고, 문서 증거도 해를 끼치 지 않을 것입니다. 그리고 신경망을 다루기 시작하는 사람들은 이 자료에 익숙해지는 것이 나쁘지 않을 것입니다.
그리고 뉴런을 작성하면 단계로 분해될 수 있습니까?
객체 지향 언어로 작성하는 것이 좋습니다.
NN을 작성할 때 뉴런은 너무 작은 개념입니다.
레이어는 동일한 뉴런의 연결이므로 뉴런을 별도로 고려하는 것은 의미가 없습니다.
내 라이브러리에서는 레이어와 가중치라는 두 가지 유형의 추상화만 사용했습니다.
가중치는 2개의 레이어를 연결하는 시냅스 블록입니다.
레이어에는 입력, 출력 및 오류 버퍼와 활성화 기능이 있습니다. 시냅스는 2차원 배열이며 레이어의 출력 버퍼를 다음 레이어의 입력과 연결합니다.
네트워크는 레이어와 레이어 간의 링크 모음입니다. 오류 버퍼에 0이 아닌 신호가 있는 모든 계층은 출력으로 간주될 수 있습니다.
글쎄, 그것은 오랫동안 입증되었습니다. 3층 퍼셉트론이 임의의 작은 주어진 정확도로 모든 기능을 근사할 수 있다는 사실.
정확도가 아니라 오류입니다.
이것이 분명하다면 왜 이러한 어려움이 있습니까?
엑스퍼트 작성 >>
많은 작업에서 4계층 퍼셉트론은 훨씬 더 나은 결과와 수렴을 보여줍니다.
그리고 어떤 곳에서는 5-layer가 사용됩니다. 퍼셉트론을 기반으로 하는 복잡한 네트워크(여러 출력 레이어와 복잡한 연결 포함)에 대해서는 당분간 침묵하겠습니다.
조정 가능한 매개변수의 수를 의미합니까? 임계값도 포함됩니다. 그건 그렇고, 문서 증거도 해를 끼치 지 않을 것입니다. 그리고 신경망을 다루기 시작하는 사람들은 이 자료에 익숙해지는 것이 나쁘지 않을 것입니다.
예, 우리는 NN의 가중치 수, 입력 수와의 관계 및 훈련 샘플의 최적 길이를 의미했습니다. 종속성의 결과는 64-65페이지의 Attach에 첨부된 기사에 나와 있습니다. 간단히 말해서, NN의 가중치 수가 w 이고 입력의 수는 d 이고 훈련 샘플의 길이가 Р 이면 최적에서 조건이 충족되어야 합니다. P = (w^2)/d
나는 정리에 대한 링크를 나중에 제공할 것입니다 - 그것들은 찾아야 합니다.
정확도가 아니라 오류입니다.
네.
이것이 분명하다면 왜 이러한 어려움이 있습니까?
간단합니다. 레이어를 추가하거나 아키텍처를 변경할 때 몇 번의 마우스 클릭이나 몇 줄의 코드로 완료되면 이러한 복잡성이 흥미로운 추가 기능으로 바뀝니다.
고맙습니다. 정리 증명은 어떻습니까? 아니면 적어도 정확한 문구?
뉴런의 비선형 함수의 적합성에 대한 정리는 구소련에서, 1980년대 후반 이후 미국 수학자 Vladik Kreinovich[1]에 의해 입증되었으며 주요 서구 신경망 저널 중 하나에 게재되었습니다.
1. Kreinovich VY 임의의 비선형성은 신경망으로 모든 기능 을 나타내기에 충분합니다. A theorem / Neural Networks, 1991, Vol.4, No.3. - pp.381-383.
추신 3 레이어의 충분성에 대해 - 나중에.
Gorban A.N.의 기사에서 3개 레이어의 충분성에 대한 엄격한 증거를 보았습니다. "..." - 못 찾겠 어.
충분하다는 사실에 대한 설명은 아래 39페이지에 첨부된 기사에서 확인할 수 있습니다.