"New Neural"은 MetaTrader 5 플랫폼용 신경망 엔진의 오픈 소스 프로젝트입니다. - 페이지 22

 
누가 SLTM 을 다루었습니까?
Long short term memory - Wikipedia, the free encyclopedia
Long short term memory - Wikipedia, the free encyclopedia
  • en.wikipedia.org
Long short term memory (LSTM) is a recurrent neural network (RNN) architecture (an artificial neural network) published1 in 1997 by Sepp Hochreiter and Jürgen Schmidhuber. Like most RNNs, an LSTM network is universal in the sense that given enough network units it can compute anything a conventional computer can compute, provided it has the...
 
gpwr :

당신은 한 번에 참조와 함께. 그리고 나는 당신을 완전히 이해하지 못합니다. 또는 약어 없이 :) .

그리고 IMHO, 모든 모델링 네트워크는 분류기가 될 수 있습니다.

 
더엑스퍼트 :
누가 SLTM 을 다루었습니까?

모든 뉴런이 다음과 같은 워크플로 구조를 가지고 있는지 여부를 묻고 싶었습니다.

in*wg
  +
 ...

이제 모든 것이 아니라는 것을 알았습니다. 이것을 고려하여 활성자의 유형뿐만 아니라 뉴런의 유형에 따라 다양한 알고리즘을 만들어야 합니다.

 
미첵 :
먼저 전문가의 요구 사항에 대한 일반적 또는 거의 일반적인 의견을 공식화하려고 시도합니다.
아니 아니. 이것은 황혼의 두 번째 수준이 아니라 세 번째 수준입니다.
 
미첵 :
먼저 전문가의 요구 사항에 대한 일반적 또는 거의 일반적인 의견을 공식화하려고 시도합니다.

개인적으로 Vladimir gpwr 이 저에게 적합합니다. 아마도 그의 동료 몇 명이 더 따라잡을 것이므로 아직 초대 대상자가 필요하지 않습니다.

또 다른 점은 사람들이 시간 주기로 움직여야 한다는 사실에 익숙해져 있다는 것입니다. 하지만 이것은 OpenSource입니다. 사람들은 시간이 있을 때 일하기 때문에 이러한 프로젝트는 훨씬 더 오래 지속될 수 있습니다.

 
더엑스퍼트 :
누가 SLTM 을 다루었습니까?
당신이 관심을 갖는 그녀에 대해 무엇입니까?
 
우크라이나 :
당신이 관심을 갖는 그녀에 대해 무엇입니까?
일반적으로 원칙에 익숙하지 않습니다. 그녀가 유일한 사람이 아닙니다. 더 많은 질문을 던질 수 있습니다. :)
 
더엑스퍼트 :

당신은 한 번에 참조와 함께. 그리고 나는 당신을 완전히 이해하지 못합니다. 또는 약어 없이 :) .

그리고 IMHO, 모든 모델링 네트워크는 분류기가 될 수 있습니다.

SVM = 서포트 벡터 머신

RBN = 방사형 기반 네트워크

다음은 몇 가지 링크입니다.

T. Serre, "피질과 유사한 메커니즘을 사용한 강력한 개체 인식", 패턴 분석 및 기계 지능에 대한 IEEE 트랜잭션

Bell, AJ, Sejnowski, TJ (1997).
자연 장면의 독립 구성 요소는 가장자리 필터입니다.
비교 Res., 37, 3327-3338.

Olshausen, BA, Field, DJ (1996).
자연 이미지에 대한 희소 코드를 학습하여 단순 셀 수용 필드 속성의 출현.
네이처, 381(6583), 607-609.

http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf

 
더엑스퍼트 : SLTM
일반적으로 원칙에 익숙하지 않습니다. 그녀가 유일한 사람이 아닙니다. 더 많은 질문을 던질 수 있습니다. :)

Wiki는 일반적인 계획에 추가하여 다음과 같이 씁니다.

in*wg
  +
 ...

뉴런은 여전히 입력의 곱셈을 사용하고 반환 신호(분명히 지연으로 인한 것)는 여전히 오류가 피드백에서 순환할 때 주요 BackProp 방법이 종종 중단된다는 것을 맹세하므로 GA로 학습 하이브리드를 수행하는 것이 좋습니다. Activator는 첫 번째 레이어에만 있고 모든 것이 선형이며 첫 번째 뉴런(또는 위원회가 실제로 이해하지 못한)은 입력을 변환하고 나머지는 필터의 역할(신호를 허용하거나 전달하지 않음)의 역할을 합니다.

복잡한 전달 기능을 가진 신경 블록과 단일 뉴런 모두라고 부를 수 있습니다. 네트워크가 이러한 블록으로 구성되어 있는지 확인하는 방법입니다.

 
더엑스퍼트 :
일반적으로 원칙에 익숙하지 않습니다. 그녀가 유일한 사람이 아닙니다. 더 많은 질문을 던질 수 있습니다. :)
던져, 조금씩 긁어 보자.