지뢰밭에서의 시장예절 또는 예의범절 - 페이지 58

 
gpwr >> :

저를 또 오해하신 것 같아요.

오류(즉, 훈련)의 전역 최소값을 찾기 위해 이 다항식의 계수에 대해 어떻게 행동할지 정말 이해가 되지 않습니다. 훈련된 뉴런의 척도를 보여드리겠습니다.


하나의 벡터에 대한 세 가지 실험. 가장 많이 기도한 경험이 가장 성공적이었습니다. 저것들. 기성 토폴로지가 있으면 그러한 계수를 선택하는 것이 (이론적으로) 어렵지 않다는 것을 이해합니다. 이 다항식은 이 토폴로지를 아주 아름답게 매끄럽게 만들지만 아직 훈련되지 않은 이 토폴로지(이미 훈련된 메시)를 계산하는 방법을 나에게 설명하십시오. 즉, 학습 오류 함수의 감소로 이어지는 계수에 영향을 미치는 알고리즘은 무엇입니까? 그가 당신에게 알려져 있습니까?

 
Neutron >> :

당신을 위해 특별히 제작:

FZ가 항상 발생하고 kotir의 날카로운 움직임에서 시각적으로 명확하게 볼 수 있음을 분명히 알 수 있습니다.

Seryoga, 나는 그 사소함과 완전한 비자발성을 고려하여 더 이상 이 주제를 당신과 논의하지 않을 것입니다. 재료를 배우고 다음에 또 다른 Super-Duper Brilliant Idea가 떠오를 때 구현을 위해 하나 또는 두 개의 연구 기관과 RS 클러스터가 필요하다고 생각하면 잠시 생각하십시오. 아마도 당신은 무언가를 모르거나 이해하지 못할 수 있습니다. 결국 이것은 모든 것이 당신 앞에서 짓밟힌 지역에서 "획기적인 발견"보다 가능성이 더 큽니다.


음, 두 가지 경우에 대해 위상 지연(이 용어)이 존재한다고 가정합니다.



솔직히, 그리고 나는 당신에게 지쳤습니다 :o)

 
HideYourRichess >> :

이 동일한 80%를 보여주는 알고리즘을 보고 놀랐습니다. 나는 실수를 찾고 있습니다. 모든 것이 매우 쉽습니다. 그런 일은 일어나지 않습니다.

내가 수학이 아니라 내가 했는지도 궁금하지 않으니, 전문가들에 대해 이야기해 보세요! :에 대한)))

 

중성자 에게


High/Low와 Close 사이에 위상 지연이 있습니까? :o))) 시각적 방법에 따르면 다음과 같습니다.




그녀는 어디에서 올 수 있습니까?


수정 및 추가 사항 : 아무도 보지 않는 동안 약간의 수정을 가하겠습니다. 위의 Open and Close 사진에서 급하게 약간 실수를 했습니다. 한 신호는 다른 신호에 비해 지연되지만 이 특정 경우에는 위상 편이가 아닙니다.


위상 지연이 없습니다. 시프트를 발생시키는 수학 연산자가 실행되지 않았습니다 . 갑자기 위상 변이가 발생하지 않습니다. 대신, 우리가 이런저런 가치를 취하고 말하는 규칙인 프로세스의 선택이 있습니다. 이것은 프로세스입니다.


Open의 관점에서 "shift"를 고려하면 Open이 먼저이고 Close가 두 번째인 경우 예 - "shift"가 있습니다(이에 대해 이의를 제기하지 않겠습니다). 그러나 나는 이 특정한 경우에 어떤 수학적 방법이 변화를 "찾을지"조차 모릅니다. 이러한 신호는 서로를 대체합니다. 정확히 동일한 대안(H + L) 2 및 높음, 확실히 이동되지 않음.




음, 예측을 위해 닫기를 선택하려면 정확도 측면에서 놀라운 시스템이 필요합니다. 그리고 내 간단한 아이디어를 위해 그건 그렇고, 매우 "로봇"지연 (H + L) / 2는 절대 영향을 미치지 않습니다.


추신 : 주님, Seryoga Seryoga님, 이러한 과정은 절대적으로 단일합니다. 지금은 여기까지입니다. 행운을 빕니다

 

중성자에게

새로운 Matkad를 기다리는 동안 나는 의도한 대로 과거를 반복하고 있습니다. 나는 단일 레이어로 땜질하고 있습니다. 오류 벡터의 길이를 표시하도록 요청했는데 다음과 같은 일이 발생했습니다.


X 통계에 따르면 L 길이에 따라 (모든 것을 올바르게 이해했다면)

나는 이렇게 생각했다.


여기서 i 는 통계에 따른 주기입니다. X 는 입력 벡터입니다(현재 훈련 벡터의 전체 길이에 대해 합산됨). 제곱 오차는 훈련 벡터의 제곱 산포와 함께 전체 에포크에 걸쳐 누적됩니다.


그리고 시대가 끝나면 다음과 같이 간주됩니다.


여기서 n 은 에포크에 대한 주기입니다.

모든 것이 제대로 되었습니까?

 

그림으로 판단하면 어딘가에 오류가 있습니다. Epoch에서 Epoch로 이동할 때 네트워크의 점진적인 학습 (오류 벡터의 길이 감소)을 볼 수 있습니다. 이것은 보이지 않습니다. 이유는 항상 그렇듯이 마차와 작은 카트 일 수 있습니다. 예를 들어 그래프에서 epoch의 오류 벡터 값 대신 이 값이 이미 훈련된 네트워크(마지막 epoch)에 대해 독립 실험 횟수의 함수로 표시됩니다. - " X 통계로... ." - 무슨 통계? 여기에 입력하지 않는 것 같습니다. 그리고 여기 - "... by L length ", - L은 데이터 벡터의 길이로 정규화되고 1 근처에 있어야 하며 평가가 끝날수록 점차 감소합니다... 우리는 뭔가 다른 것을 봅니다.

다음과 같이 보일 수 있습니다.

여기에서 훈련 샘플의 오류 벡터 길이는 파란색으로 표시됩니다(우리는 그리드가 예측하는 방식이 아니라 그리드가 학습하는 방식을 보고 있습니다). 총 200개의 훈련 에포크가 사용되었고 명확성을 위해 k = 1이며, 이 특정 경우에 네트워크가 완전히 훈련되고(오류는 0) 단순히 훈련 샘플을 기억함을 보여줍니다. 훈련 없이도 정확히 동일한 결과를 얻을 수 있습니다. 네트워크, 그러나 가중치에 대한 선형 대수 방정식 시스템을 해결합니다. 더 빠릅니다. 문제는 이러한 가중치가 있는 테스트 샘플에서 가산기가 아프리카의 날씨를 표시한다는 것입니다. 그는 일반화하는 능력이 전혀 없습니다. 무화과에. 빨간색 선은 일련의 실험(n=50)에 대한 분산(산란)을 보여주고 파란색 선은 평균을 보여줍니다(나는 여전히 통계를 수집하지만, 나중에 당신과 다르게 그리고 더 많이 수집합니다).

마지막 두 식은 통계에 대한 색인이 없어야 한다는 점을 제외하고 거의 정확합니다(한 번만 실험하고 통계 집합 없이 새 코드가 필요함). 첫 번째 방정식을 이해하지 못했습니다. 어디야? 내 블록은 다음과 같습니다.

여기서 j 는 훈련 벡터에 대한 루프입니다. x 제곱에 대한 인덱스가 눈에 띄게 적습니다!

추신 그건 그렇고, 나는 가중치에 대한 압축 기능을 사용하는 것을 거부했습니다. 처음에는 단일 레이어에, 다음에는 2개 레이어에 사용했습니다. 그것 없이는 결과가 더 나빠지지 않고 번거로움이 줄어듭니다.

 
grasn >> :

내가 수학이 아니라 내가 했는지도 궁금하지 않으니, 전문가들에 대해 이야기해 보세요! :에 대한)))


이해했다. 내가 한 것은 AR의 원시 버전으로 간주될 수 있고, 그 반대의 경우 AR은 내가 한 것의 개선된 버전으로 간주될 수 있습니다.

 
Neutron >> :

마지막 두 식은 통계에 대한 색인이 없어야 한다는 점을 제외하고 거의 정확합니다(한 번만 실험하고 통계 집합 없이 새 코드가 필요함). 첫 번째 방정식을 이해하지 못했습니다. 어디야? 내 블록은 다음과 같습니다.

여기서 j는 훈련 벡터에 대한 루프입니다. x 제곱에 대한 인덱스가 눈에 띄게 적습니다!

추신 그건 그렇고, 나는 가중치에 대한 압축 기능을 사용하는 것을 거부했습니다. 처음에는 단일 레이어에, 다음에는 2개 레이어에 사용했습니다. 그것 없이는 결과가 더 나빠지지 않고 번거로움이 줄어듭니다.

첫 번째 방정식은 오류 벡터의 길이를 계산하고 이를 데이터 벡터의 길이로 정규화하는 것입니다.(즉, 현재 이해하고 있습니다.) 그 이유는 통계. 지금 할게요.

축소 기능은 어쩐지 당장 효과가 없어서(즉, 적용 결과가 불명확해서) 사용하지 않았다.

 
paralocus писал(а) >>

첫 번째 방정식은 오류 벡터의 길이를 계산하고 이를 데이터 벡터의 길이로 정규화하는 것입니다(즉, 현재 이해하고 있는 대로)

그러면 마지막 두 표현을 나타내는 것은 무엇입니까?

두 번째는 벡터 길이의 제곱을 구하는 것이고 세 번째는 정규화된 길이라고 생각했습니다. 그렇다면 왜 첫 번째 표현입니까?

 
HideYourRichess >> :

이해했다. 내가 한 것은 AR의 원시 버전으로 간주될 수 있고, 그 반대의 경우 AR은 내가 한 것의 개선된 버전으로 간주될 수 있습니다.

모델 식별 정보를 포함하지 않았습니다. 샘플 길이 및 모델 순서의 최적 결정. 그것들을 사용하면 최대 90%를 가져올 수 있다고 생각합니다. 나는 당신이 더 나쁘지 않고 더 나은 결과를 얻을 것이라는 데 절대 의심의 여지가 없습니다. ;)