신경망 - 페이지 11

 
StatBars писал(а) >>

가격이 도달하는 누아르 스퀘어가 제공된다고 가정할 수 있습니다.

오히려 각 열의 위쪽 및 아래쪽 사각형 숫자는 가격에 포함됩니다. 이 경우 수직을 따른 파티션의 이산성은 이해할 수 없습니다.

UPD: 어떤 의미에서는 이산성 자체가 아니라 분할 단계입니다.

 
마케팅 담당자 && StarBars : 저는 6기간 이동 평균 으로 평활화된 MPP(Ivanov의 졸업장에서 가져온)와 유사한 지표를 사용하여 네트워크를 훈련합니다. 고르게 분포된 교사 값이 네트워크에 좋다는 것을 읽었습니다. 나는 임계 값에 대해 약간 잘못되었습니다. 임계값이 아니라 X 변수를 사용하여 불필요한 신호의 선별기 출력> 0.5 + X이면 매수, 출력 < 0.5-X이면 매도합니다. 이것은 0.5-X와 0.5+X 사이의 "약한" 신호를 제거합니다. 그런 로부다를 사용하지 않습니까?
나는 2개의 출구 옵션에 대해 조금 거짓말을 했다. 그들 중 더 많은 것이 있습니다. 그러나 소수점 이하 넷째 자리까지 동일한 것이 많이 있습니다.
출력 분류기에 대해 이해하지 못했습니다. 그것에 대해 어디에서 읽을 수 있습니까?
어떤 유형의 네트워크를 사용합니까? 테스트 샘플에서 가장 작은 오류를 달성하기 위해 어떤 유형의 네트워크를 관리했습니까? 거래에서 어떤 결과가 가장 좋았습니까?
 
Burgunsky писал(а) >>
마케팅 담당자 && StarBars : 저는 6기간 이동 평균으로 평활화된 MPP(Ivanov의 졸업장에서 가져온)와 유사한 지표를 사용하여 네트워크를 훈련합니다. 고르게 분포된 교사 값이 네트워크에 좋다는 것을 읽었습니다. 나는 임계 값에 대해 약간 잘못되었습니다. 임계값이 아니라 X 변수를 사용하여 불필요한 신호의 선별기 출력> 0.5 + X이면 매수, 출력 < 0.5-X이면 매도합니다. 이것은 0.5-X와 0.5+X 사이의 "약한" 신호를 제거합니다. 그런 로부다를 사용하지 않습니까?
나는 2개의 출구 옵션에 대해 조금 거짓말을 했다. 그들 중 더 많은 것이 있습니다. 그러나 소수점 이하 넷째 자리까지 동일한 것이 많이 있습니다.
출력 분류기에 대해 이해하지 못했습니다. 그것에 대해 어디에서 읽을 수 있습니까?
어떤 유형의 네트워크를 사용합니까? 테스트 샘플에서 가장 작은 오류를 달성하기 위해 어떤 유형의 네트워크를 관리했습니까? 거래에서 어떤 결과가 가장 좋았습니까?

임계값은 종종 올바르게 인식된 이미지(pwin)의 비율을 증가하지만 이러한 이미지는 가격(이점)과 일부 스무딩 필터 사이에 불일치가 있는 위치에 있습니다. 간단히 말해서 임계값은 어떤 식으로든 도움이 되지 않지만 pwin 증가 ...

나는 그것을 약간 혼동했습니다. 목적 함수에 관한 것이지만 어쨌든 일부 구성이 적용되고 규칙이 최종 신호를 생성합니다 ...

Tsaregorodtsev의 웹 사이트에서 그의 기사.

드물게 NS2->Polynomial Net의 경우 MLP에서 필요한 거의 모든 것을 얻습니다.

거래의 결과와 아키텍처는 예를 들어 입력 정보 - 오류 - 거래만큼 강력하게 연결되지 않습니다. 아키텍처에서는 원칙적으로 1% 이하로 승리할 수 있습니다. 드문 경우지만(최근에 더 자주 보았습니다) 그리드 구조를 최적화해야 합니다...

 

StatBars:

pwin이 승률인가요?

아래 그림의 화살표가 같은 시간 간격에 위치하면 안 된다고 말해주세요. 위에서 쓴 바로 그 임계값(또는 "sifter")이 사용된 것입니까? 즉, 저격수가 없는 곳에서 Out of the network는 0.5-X 또는 0.5+X를 적중합니까?


 
Burgunsky писал(а) >>

StatBars:

pwin이 승률인가요?

아래 그림의 화살표가 같은 시간 간격에 위치하면 안 된다고 말해주세요. 위에서 쓴 바로 그 임계값(또는 "sifter")이 사용된 것입니까? 즉, 저격수가 없는 곳에서 Out of the network는 0.5-X 또는 0.5+X를 적중합니까?

질문이 명확하지 않은 이유는 ... 여전히 관련성이 있습니까?

있다면 자세히 설명해주세요...

일반적으로 신호가 저장되면 화살표가 복사되지 않습니다. 그렇지 않으면 각 막대가 일종의 화살표가 되어 편리하지 않습니다. 신호가 변경되면 해당 화살표가 동일한 막대에 배치됩니다. ..

pwin을 희생시키면서 - 예.

 
StatBars에: 화살표에 관해서는 명확합니다. 감사합니다. 이해가 되지 않습니다. 체를 사용하고 있습니까? 3계층 신경망 은 몇 개의 출력 옵션을 생성해야 합니까? 어떤 이유로 네트워크는 두 가지 옵션만 있을 때 테스트 샘플에서 최소 오류에 도달합니다. 이 때문에 이 스크리너의 작업을 구성할 수 없습니다. 출구는 항상 거래에서 조치를 취하고 결코 기다리지 않음을 나타냅니다. 가르칠 때 나는 모든 종류의 교사 가치를 사용합니다(2개 이상). 이유가 무엇인지 아십니까? 역전파 네트워크를 훈련할 때 사용하는 가장 좋은 값은 몇 개입니까? 네트워크의 각 뉴런의 출력은 활성화 함수를 통해 전달되어야 합니까?
 
xweblanser >> :

친애하는 전문가 여러분, 제가 신경망을 얼마나 오랫동안 노력해왔는지 도와주세요. 어떻게 작동하는지, 어떻게 해야 하는지, 어떻게 훈련해야 하는지 잘 모르겠습니다. 어렵지 않다면 가장 간단한 예를 설명과 함께 보여주세요. 무엇을 어떻게 ....


관심 있는 질문:

1. 내가 아는 한 네트워크의 각 뉴런은 동일한 기능입니다.. 그러나 동일한 기능이 동일한 데이터가 도착했을 때 어떻게 다른 값을 생성할 수 있는지 이해하지 못합니다.

2. 최소값과 최대값을 모른 채 따옴표를 정규화하는 방법???


더 많은 그래픽 정보와 학습 메커니즘이 내장된 신경망의 가장 간단한 예를 원합니다...



미리 감사드리며 도움이 되길 바랍니다..


기사는 도움이되지 않습니다. 수학을 이해해야 합니다.
 
Burgunsky писал(а) >>
StatBars에: 화살표에 관해서는 명확합니다. 감사합니다. 이해가 되지 않습니다. 당신은 체를 사용하고 있습니까? 3계층 신경망 은 몇 개의 출력 옵션을 생성해야 합니까? 어떤 이유로 네트워크는 두 가지 옵션만 있을 때 테스트 샘플에서 최소 오류에 도달합니다. 이 때문에 이 스크리너의 작업을 구성할 수 없습니다. 출구는 항상 거래에서 행동을 취하고 결코 기다리지 않음을 나타냅니다. 가르칠 때 나는 모든 종류의 교사 가치를 사용합니다(2개 이상). 이유가 무엇인지 아십니까? 역전파 네트워크를 훈련할 때 얼마나 많은 값을 사용하는 것이 더 낫습니까? 네트워크의 각 뉴런의 출력은 활성화 함수를 통해 전달되어야 합니까?

sifter는 임계 값입니까? - 아니요, 그렇지 않습니다. 하지만 동시에 사용할 필요가 없다는 의미는 아닙니다.

//------------------------------------------------ -------------------------------------------------- ----------------------------------//

네트워크는 원하는 만큼 많은 출력 신호를 생성할 수 있지만 필요한 만큼 많이 생성해야 하거나 필요한 각 신호에 대해 별도의 그리드를 개발해야 합니다.

//------------------------------------------------ -------------------------------------------------- ----------------------------------//

Action - Inaction - NON-Action 클래스가 고르지 않게 분포되어 있다고 생각합니다. 다른 클래스에 비해 Inaction 클래스의 예가 거의 없습니다. 아마도 이유가 다를 수 있습니다. 여기에서 훈련 샘플을 버리십시오.

//------------------------------------------------ -------------------------------------------------- ----------------------------------//

출력, 입력의 값은 무엇입니까?

뉴런 자체가 합산되어 시그모이드를 통과하며, 뉴런 사이에는 연결의 가중치만 남겨두는 것이 좋습니다 ...

 
나는 여전히 이 주제를 사랑합니다. :) 외환 이전에도 이 주제로 얼마나 많은 고통을 겪었는지. :)
 
registred писал(а) >> 나는 여전히 이 주제를 사랑합니다. :)

네, 무한히 토론할 수 있지만 제정신이 아닌 결과에 도달하지 않습니다 ......