지뢰밭에서의 시장예절 또는 예의범절 - 페이지 14

 
Neutron >> :

이것이 가장 큰 실수입니다. 시장은 당신의 오만함을 처벌할 것입니다!

시장과 그 규칙에 따라서만 플레이할 수 있습니다. 그리고 그가 게임을 좋아한다면, 그는 당신에게 보상을 줄 것입니다.

당신은 시장에 개인적인 자질을 부여합니까, 심지어 대문자로 표시합니까? :)

시장은 거친 요소이며 바다에 대한 비유는 나에게 꽤 성공적인 것 같습니다.

 

농담 이었어요:-)

나는 시장이 단지 무작위적이고 어딘가에 준 고정적인 과정이라는 것을 알고 있습니다. 그리고 TS의 작업은 최소한 일종의 정지 상태를 검색하고 작동하는 것으로 축소됩니다.

sealdo писал(а) >>

예를 들어 "일", "주" 등의 변동성에서 목표(TP, SL)를 계산하여 시장과 원활하게 변경할 수 있는 방법이 있는지 궁금합니다.

이러한 값은 시장을 특징짓고 TS를 히스토리에서 실행해야만 평가할 수 있습니다.
 
Neutron >> :

농담 이었어요:-)


네, 진지한 삼촌들이 많아요! 농담...-:)

Neutron, ORO에 대해 질문이 있습니다. 오류 값이 뉴런의 입력에 제공될 때 이 오류를 입력의 모든 가중치로 나눈다는 것을 올바르게 이해하고 있습니까?

즉, 오류 값 +/- Er을 취한 다음 들어오는 시냅스 Sw1 = SUM(w1+w2+w3+... wn)의 모든 가중치를 합산하고 각각의 몫(총 가중치에서)을 계산합니다.

Dw1 = w1/(Sw1/100) 그런 다음 총 가중치에서 차지하는 비율에 따라 모든 가중치 사이에 +/-Er을 분배합니다. wi = wi +/- Dwi *Er 그렇습니까? 그렇다면 이러한 분포를 선형이 아닌 지수함수적으로 만들 수 있습니까? 결국, 살아있는 시스템에서 "보너스"와 "뺨 때리기", 즉 오류와 보너스는 "첫 번째"와 "마지막" 사이에 분산되어 전혀 선형적이지 않습니다.

두 번째 질문:

오류 값은 어디에서 왔습니까? 이 값의 부호는 무엇입니까? 이전 거래에서 받은 손실 값이 "오류 값"이 될 수 있습니까?

 
paralocus >> :

오류 값이 뉴런의 입력에 제공될 때 이 오류를 입력의 모든 가중치로 나눈다는 것을 올바르게 이해하고 있습니까?

아니요, 나누지 않고 퍼집니다. 그리고 이것은 누군가가 그렇게 생각해서가 아니라 목적 함수를 최소화한 결과로 밝혀졌습니다.

이에 비추어 볼 때 --

그렇다면 그러한 분포를 선형이 아닌 지수함수적이라고 합시다. 결국, 살아있는 시스템에서 "보너스"와 "뺨 때리기", 즉 오류와 보너스는 "첫 번째"와 "마지막" 사이에 분산되어 전혀 선형적이지 않습니다.

이 가정은 느린 학습 또는 전체 오류의 발산으로 이어질 가능성이 있습니다.

 
TheXpert >> :

아니요, 나누지 않고 퍼집니다. 그리고 이것은 누군가가 그렇게 생각해서가 아니라 목적 함수를 최소화한 결과로 밝혀졌습니다.

이에 비추어 볼 때 --

이 가정은 느린 학습 또는 전체 오류의 발산으로 이어질 가능성이 있습니다.

예측 가능성이 증가합니까?

 
paralocus писал(а) >>

Neutron , ORO에 대해 질문이 있습니다. 오류 값이 뉴런의 입력에 제공될 때 이 오류를 입력의 모든 가중치로 나눈다는 것을 올바르게 이해하고 있습니까?

즉, 오류 값 +/- Er 을 취한 다음 들어오는 시냅스 Sw1 = SUM(w1+w2+w3+... wn) 의 모든 가중치를 합산하고 각각의 몫(총 가중치에서)을 계산합니다.

Dw1 = w1/(Sw1/100) 그러면 총 가중치에서 차지하는 비율에 따라 모든 가중치 사이에 +/- Er 을 분배합니다. w i = w i +/- Dw i *Er 이 맞습니까? 그렇다면 이러한 분포를 선형이 아닌 지수함수적으로 만들 수 있습니까? 결국, 살아있는 시스템에서 "보너스"와 "뺨 때리기", 즉 오류와 보너스는 "첫 번째"와 "마지막" 사이에 분산되어 전혀 선형적이지 않습니다.

두 번째 질문:

오류 값은 어디에서 왔습니까? 이 값의 부호는 무엇입니까? 이전 거래에서 받은 손실 값이 "오류 값"이 될 수 있습니까?

아니요, 그렇지 않습니다.

귀하와 같은 네트워크 위원회가 아니라 일반적인 2계층 그리드를 고려하십시오. 그러면 일반화할 수 있습니다.

길이가 n 샘플인 입력 신호 벡터(1차원으로 설정)가 있고 n + 1 샘플이 네트워크 교육 품질에 대한 테스트라고 가정합니다. 이 벡터( n 개 샘플)를 입력에 놓고 모든 가중치를 확률 밀도의 균일한 분포로 +/-1 범위의 임의 값과 동일시하고 그리드가 무엇을 낳는지 살펴봅니다 출력에서. 그녀가 +5.1을 주었다고 가정하고 테스트 n +1 카운트(훈련된 그리드가 이 훈련 벡터에 대해 노력해야 하는 값) +1.1 그런 다음 수신된 값과 원하는 +4의 차이를 취하고 이 값을 더합니다. 출력 뉴런의 각 가중치에 대한 부호를 유지하거나(FA가 없는 경우) 이 값에서 FA의 도함수 값을 찾아 마지막 뉴런 입력의 가중치에 추가합니다(있는 경우 FA)입니다. 등.

이 부분을 소화하면 오류를 첫 번째(입력) 레이어의 입력 가중치로 더 푸시하는 방법을 알려 드리겠습니다.

 
Neutron >> :

아니요, 그렇지 않습니다.

공식이 더 나을까요? 여기서 수학은 쉽습니다.

패럴로커스 >> :

예측 가능성이 증가합니까?

할 것 같지 않은.

 
TheXpert >> :

아니, 나누지 않고 퍼집니다. 그리고 이것은 누군가가 그렇게 생각해서가 아니라 목적 함수를 최소화한 결과로 밝혀졌습니다.

이에 비추어 --

이 가정은 학습 속도 저하 또는 전체 오류의 불일치로 이어질 수 있습니다.

그리고 Er = e(w1*x) + e(w2*x) + ... e(wn*x)인 경우 전체 오류에 불일치가 있어야 하는 이유는 무엇입니까? 아니요, 총 오류는 입력 오류와 같습니다.

 
TheXpert писал(а) >>

공식이 더 나을까요? 여기서 수학은 쉽습니다.

인터넷의 광대함에 가득 찬 문헌에서 공식을 직접 볼 수 있습니다.

서두르지 맙시다. 그리고 "비선형 학습" 등과 같은 온갖 종류의 종소리와 휘파람으로 당신의 삶을 복잡하게 만들려고 하지 마십시오. 이것은 악에서 온 것입니다. 단순함과 조화의 아름다움과 신뢰성!

 
Neutron >> :

이 부분을 소화하면 오류를 첫 번째(입력) 레이어의 입력 가중치로 더 푸시하는 방법을 알려 드리겠습니다.

요리를 하러 갔다...