"New Neural"은 MetaTrader 5 플랫폼용 신경망 엔진의 오픈 소스 프로젝트입니다. - 페이지 36

 
더엑스퍼트 :

EMNIP, 코그니트론은 비슷한 것입니다.

계속되기를 기대합니다 :)

후키시마의 코그니트론과 같다. HMAX와 cognitron은 시각 피질의 여러 층의 기능을 아주 밀접하게 설명합니다.
 
더엑스퍼트 :

에 대한 정보가 필요합니다.

- 켤레 경사하강법

-BFGS

한 번에 그는 직접 전파 네트워크를 훈련하는 거의 모든 방법을 자세히 연구했습니다. 나는 경사 하강법 중에서 Levenberg-Marquardt 방법이 최고라고 확신합니다( https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm ). 항상 BACKPROP 및 RPROP보다 더 나은 최소값을 더 빠르게 찾습니다. 내가 BPNN(일부 RPROP)에 올린 것은 LM에 비해 어린애 장난이다. BFGS는 더 많은 시간이 소요되며 결과는 LM보다 좋지 않습니다.
Levenberg–Marquardt algorithm - Wikipedia, the free encyclopedia
Levenberg–Marquardt algorithm - Wikipedia, the free encyclopedia
  • en.wikipedia.org
The LMA interpolates between the Gauss–Newton algorithm (GNA) and the method of gradient descent. The LMA is more robust than the GNA, which means that in many cases it finds a solution even if it starts very far off the final minimum. For well-behaved functions and reasonable starting parameters, the LMA tends to be a bit slower than the GNA...
 

이제 가격 패턴을 분석하기 위해 신경망 을 구축하는 아이디어를 제시하려고 합니다. 제 강의 2,3을 읽으신 분들은 바로 이해하실 겁니다. 요점은 가격 패턴을 Buy, Sell 또는 Hold로 분류하는 것입니다. 특정 기간(예: 100바)에 대한 가격은 간단한 S1 뉴런 레이어로 필터링됩니다. 이 뉴런의 입력 가중치는 필터의 임펄스 응답을 설명합니다. 시각 피질의 예에서 이러한 가중치는 2차원 이미지 공간에서 다양한 기울기와 길이의 직선 세그먼트를 나타냅니다. 인용문에는 시간과 가격이라는 2차원 공간도 있습니다. 우리의 경우 필터의 가중치 S1은 두 개의 가능한 기울기(위쪽과 아래쪽)의 시간-가격 공간에서 직선 세그먼트를 설명한다고 가정할 수 있습니다. 경사각은 각 필터의 길이에 따라 다릅니다. 이러한 길이는 예를 들어 4, 8, 16, 32개 막대와 같이 미리 선택할 수 있습니다. 각 필터는 모든 값의 합이 0이고 제곱합이 1이 되도록 정규화된 직선입니다(또는 다른 정규화). 다음 레이어에서는 S2라고 하고 레이어 S1의 세그먼트에서 더 복잡한 패턴이 형성되는 식입니다. 이 다층 따옴표 변환의 출력에는 현재 패턴을 설명하는 디지털 코드가 있으며 패턴 코드는 서로 비슷하지만 시간과 가격이 다르게 늘어납니다. 이 코드는 SVM(Support Vector Machine)의 입력에 입력되며, 이 시스템은 과거 패턴에 대한 매수, 매도 또는 보류 조건을 결정하도록 사전에 훈련됩니다. 여기서 문제는 레이어 S1, S2 등에서 필터의 모양을 결정하는 것입니다. 단순성을 위해 직선 세그먼트와 그 조합을 선택했습니다. 그건 그렇고, HMAX 시각 피질 모델에서 모든 형태의 공간 필터는 생물학적 실험을 기반으로 미리 선택됩니다. 이러한 필터를 자동으로 감지하는 알고리즘을 찾아야 합니다. 이러한 알고리즘은 이미 시각적 계층 V1(von der Malsburg, Linsker, Miller, LISSOM, Olshausen)을 위해 개발되었습니다. 우리는 가격 패턴 분류 문제를 위해 그것들을 빌릴 수 있습니다.

 
gpwr :
한 번에 그는 직접 전파 네트워크를 훈련하는 거의 모든 방법을 자세히 연구했습니다. 나는 경사 하강법 중에서 Levenberg-Marquardt 방법이 최고라고 확신합니다( https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm ). 항상 BACKPROP 및 RPROP보다 더 나은 최소값을 더 빠르게 찾습니다. 내가 BPNN(일부 RPROP)에 올린 것은 LM에 비해 어린애 장난이다. BFGS는 더 많은 시간이 소요되며 결과는 LM보다 좋지 않습니다.

동의한다! 예를 들어, NeuroSolutions에서 Levenberg-Marcadt 방법은 다른 방법이 극소값에 있는 곳에 수렴하고,

그러나 LM은 계산 집약적입니다. 한 번 더 지나갈 시간

 
gpwr :

...

각 필터는 모든 값의 합이 0이고 제곱합이 1이 되도록 정규화된 직선입니다(또는 다른 정규화).

...

지금은 증거가 없지만 내 직관은 이 이중 조건이 모순적이라고 말합니다.

합은 0이고 제곱합은 1입니다.

매우 제한된 수의 옵션에 대해 실행됩니다. 내가 틀렸다면 한 모금.

 
우크라이나 :

지금은 증거가 없지만 내 직관은 이 이중 조건이 모순적이라고 말합니다.

합은 0이고 제곱합은 1입니다.

매우 좁은 수의 옵션에 대해 실행됩니다. 내가 틀렸다면 한 모금.

아니요, 모순되지 않습니다. 예를 들어 값이 -0.707 및 +0.707인 2-바 필터는 정규화 조건을 충족합니다. 첫 번째 조건(값의 합이 0임)의 장점은 따옴표에서 평균을 제거할 필요가 없다는 것입니다. 두 번째 조건(제곱의 합이 0임)을 사용하면 price1*filter1+price2*filter2(이것은 필터의 출력) 합계를 특정 범위 내에서 제한할 수 있습니다. 이제 문제는 임의의 길이 N의 필터 값(filter1,filter2,...,filterN)을 정의하는 것입니다. -filterMAX와 +filterMAX 사이에 뻗어 있는 직선을 선택할 수 있지만 이는 단순화입니다. 정확도가 높을수록 필터는 PCA(Principal component of Quotes)와 유사합니다. 그러나 효율적이지 않을 것입니다. 이러한 구성 요소의 최소 수(희소성 조건)의 조건을 부과하는 독립 인용 구성 요소(ICA)로 필터의 형태를 찾으면 더 유망합니다. 나중에 나는 모든 것을 설명할 강의 4를 게시할 것입니다.
 
더엑스퍼트 :

분명한. 그러나 그것은 NN에 묶여 있습니다. 더 묶여있을 것입니다.

"AWVREMGVTW NN "과 같은 것이 작동하지 않을 것 같아 두렵습니다. :) 가장 중요한 것은 본질을 전달하는 것이며 뉘앙스는 그렇게 중요하지 않습니다.

메타 뉴로 솔루션?
 
메타 신경 엔진(MNE)
 
gpwr :
메타 신경 엔진(MNE)

Meta EngiNeuro (MEN) (c)

글쎄, 우리는 엔지니어를 의미합니다 :)

 
시원한. 좋아요.