트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1967

 
mytarmailS :

xs .. 4번 읽었는데 이해가 안가서 선생님이 있을수도 있어요-강화?

+ 여전히 레이어의 투표가 있습니다.

글쎄요, LQV 의 메모리는 LQV 뉴런의 마지막 출력 형태이지만, 이것이 내가 기억하는 방법은 한 걸음 뒤로 물러난 것뿐입니다.

그러나 찻주전자와 커피에 대한 이 환상적인 비유는 어떻습니까? 이게 만렙이다..


그가 당신에게 그렇게 문자를 보내지 않았습니까?

젠장, 그들이 이것을 가르치는 곳이 흥미 롭습니다. 이미 사이버네틱스, 로봇 공학, AI ...

DataScientists는 이 기술 연구소의 물리적 교사일 뿐입니다)))


==================================================== ============

동적 LVQ -- dlvq도 있습니다.

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

세부

dlvq : DLVQ를 사용하려면 입력을 정규화해야 합니다.

DLVQ 교육: 각 클래스에 대해 평균 벡터(프로토타입)가 계산되어 (새로 생성된) 숨겨진 모듈에 저장됩니다. 그런 다음 네트워크는 가장 가까운 프로토타입을 사용하여 각 패턴을 분류하는 데 사용됩니다. 템플릿이 클래스 x 대신 클래스 y로 잘못 분류되면 클래스 y의 프로토타입이 템플릿에서 멀어지고 클래스 x의 프로토타입이 템플릿 쪽으로 이동됩니다. 이 절차는 분류에 더 이상 변경 사항이 없을 때까지 반복됩니다. 그런 다음 새 프로토타입이 새 은닉 유닛으로 각 클래스의 네트워크에 도입되고 해당 클래스에서 잘못 분류된 템플릿의 평균 벡터로 초기화됩니다.

네트워크 아키텍처: 네트워크에는 각 프로토타입에 대해 하나의 유닛을 포함하는 하나의 은닉 레이어만 있습니다. 프로토타입/히든 블록은 코드북 벡터라고도 합니다. SNNS는 자동으로 단위를 생성하고 미리 단위 수를 지정할 필요가 없기 때문에 SNNS의 절차를 동적 LVQ라고 합니다.

기본 초기화, 학습 및 업데이트 기능은 이러한 유형의 네트워크에 적합한 유일한 기능입니다. 학습 기능의 세 가지 매개변수는 평균 벡터를 계산하기 전에 두 가지 학습률(정확한/잘못 분류된 경우)과 네트워크가 훈련하는 주기 수를 결정합니다.

연결

코호넨, T.(1988), 자기조직화와 연상기억 , Vol.   8, Springer-Verlag.



==================================================== ======


젠장, 이 LVQ에 대해 읽는 중이야, 선생님만 있으면 거의 같은 코호넨(SOM)이야

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,those%20instances%20should%20look%20like.

그는 LVQ가 없지만 VQ가 있습니다.

대답하지 않는다

아마도 스파스 연결로 인해 어떻게 든 모든 뉴런이 항상 활성화되는 것은 아니므로 메모리를 더 오래 저장할 수 있습니다. 또한 연관 메모리(어떤 기능 집합이 어느 클러스터에 속하는지)가 있습니다. 이른바 코드북.

글쎄, 이것은 모두 경영 이론에서 나온 것입니다. 그들은 아마도 대학에서 가르칠 것입니다. 원본 기사는 일부 중국인의 2015년으로 거슬러 올라갑니다. 액세스 권한이 없습니다. 아마도 이것은 이미 리메이크 일 것입니다.

 
막심 드미트리예프스키 :

그는 LVQ가 없지만 VQ가 있습니다.

대답하지 않는다

아마도 스파스 연결로 인해 어떻게 든 모든 뉴런이 항상 활성화되는 것은 아니므로 메모리를 더 오래 저장할 수 있습니다. 또한 연관 메모리(어떤 기능 집합이 어느 클러스터에 속하는지)가 있습니다. 이른바 코드북.

글쎄, 이것은 모두 경영 이론에서 나온 것입니다. 그들은 아마도 대학에서 가르칠 것입니다. 원본 기사는 일부 중국인의 2015년으로 거슬러 올라갑니다. 액세스 권한이 없습니다. 아마도 이것은 이미 리메이크 일 것입니다.

벡터는 베어 데이터에서 먼저 양자화 된 다음 결과를 고려하여 결과가 더 정확하다는 것이 밝혀졌습니다. 적어도 부정적인 결과에 대한 필터가 나타납니다. 다른 클러스터에 대한 기능 세트는 시리즈를 다른 안정적인 영역으로 나누는 것과 같습니다.

 
발레리 야스트렘스키 :

벡터는 베어 데이터에서 먼저 양자화 된 다음 결과를 고려하여 결과가 더 정확하다는 것이 밝혀졌습니다. 적어도 부정적인 결과에 대한 필터가 나타납니다. 다른 클러스터에 대한 기능 세트는 시리즈를 다른 안정적인 영역으로 나누는 것과 같습니다.

긴 기억이 어디에서 오는지 상상하기 어렵습니다. 예를 들어, 이전 반복에서 마지막 뉴런은 0을 제공했고 우리는 그것을 트레이스의 첫 번째 뉴런의 입력 벡터에 추가했습니다. 반복. 이것은 + 1 차원입니다. 기호를 새 공간에 배치하고 이전 작업에 따라 더 복잡한 조건부 상태를 얻었습니다. 첫 번째 뉴런이 작동하고 단위 벡터를 마지막 뉴런으로 전달했습니다. 그것은 다시 처음에 0 또는 1을 반환했습니다. 클러스터가 2개뿐이라고 가정해 보겠습니다. 한 걸음 뒤로 물러난 것보다 더 깊은 곳에서 기억이 어디에서 오는 것일까요?

다른 +1 값을 취하는 세 번째 뉴런이 있다고 가정해 보겠습니다. 훨씬 더 복잡한 조건부 상태입니다. 그래서 메모리를 늘리면 저장이 되는데... 상상하기 어렵네요 :)

 
막심 드미트리예프스키 :

.......... 어떤 메모리가 저장되어 있는지...상상하기 어렵네요 :)

나에게는 더 어렵다)

====


연관 네트워크

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


같은 클러스터링이죠? 연관 이미지는 클러스터의 프로토타입입니다.

 
mytarmailS :

나에게는 더 어렵다)

두 번째 계층에서는 순환 링크의 형태로 메모리를 추가할 수도 있지만 그렇지 않아도 작동합니다. 1st에서 모두 동일한 저장을 의미합니다.

 
mytarmailS :

나에게는 더 어렵다)

====


연관 네트워크

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


같은 클러스터링이죠? 연관 이미지는 클러스터의 프로토타입입니다.

네, 하지만 에이전트의 이전 작업에 대한 기억이 없습니다. 이것은 다릅니다.

내가 가서 족보를 다시 읽고 코드를 고를게

 
막심 드미트리예프스키 :

네, 하지만 에이전트의 이전 작업에 대한 기억이 없습니다. 이것은 다릅니다.

내가 가서 족보를 다시 읽고 코드를 고를게

글쎄, 그것에 대해 생각하자)

에이전트의 행동은 이미지, 패턴(클러스터)

일련의 작업(클러스터)은 메모리입니다.


에이전트 작업 또는 무엇이든 클러스터 시퀀스로 나타낼 수 있습니다.

그리고 여기에 "커피 붓기"와 같은 패턴이 있지만 동시에 "커피는 이미 양조되어야 합니다"


전환 패턴으로 나타낼 수 있습니다.


 
mytarmailS :

봐, 생각하자)

에이전트의 행동은 이미지, 패턴(클러스터)

일련의 작업(클러스터)은 메모리입니다.

에이전트 작업 또는 무엇이든 클러스터 시퀀스로 나타낼 수 있습니다.

확실히 그런 방식은 아닙니다. 에이전트의 이전 작업 + 환경 상태(기능 집합)는 패턴(조건부 상태)입니다. 그리고 이전 작업과 기능은 1 벡터로 밀어 넣습니다.

그러나 뉴런에는 전달된 패턴의 순서에 대한 명시적인 정보가 없으며 출력 신호의 보존을 통해서만 보입니다. 그리고 1개의 (현재) 패턴만 처리되었습니다. 저것들. 더 복잡한 조건부 상태는 어떻게든 뉴런 그룹에 의해 인코딩됩니다.

 

막심 드미트리예프스키 :

그리고 이전 작업과 기능은 1 벡터로 밀어 넣습니다.

그러나 뉴런에는 시퀀스에 대한 명시적인 정보가 없는 것 같습니다. 출력 신호의 보존을 통해서만 가능합니다. 그리고 1개의 패턴만 처리되었습니다.

글쎄, 그것은 하나의 벡터, 동일한 umap으로 축소될 수 있습니다. 그런 기능을 2k 짜봤습니다)

 
mytarmailS :

글쎄, 그것은 하나의 벡터, 동일한 umap으로 축소될 수 있습니다. 그런 기능을 2k 짜봤습니다)

글쎄, 그것은 이 레이어가 다음과 같은 일을 한다는 것을 의미합니다

사유: