지뢰밭에서의 시장예절 또는 예의범절 - 페이지 10

 

안녕하세요 paralocus , 여기에서 시작할 수 있다고 생각합니다.

그건 그렇고, 관심있는 모든 사람들에게 : "손실을 수정하고 이익을 늘리십시오"또는 "이윤을 수정하고 손실을 늘리십시오"(선택한 거래 범위에서 시장이 추세 또는 편평한지 여부에 따라 다름) - 자본을 재투자할 때 최적이 아닙니다. 이 경우 모든 단계에서 재투자로 수정하는 것이 더 유리합니다! 즉, 10개의 지속적인 수익성 있는 거래가 있는 경우 이 시간 동안 한 위치를 유지하고 스프레드를 절약하는 것보다 각각에 대해 DC에 수수료를 제공하고 재투자하는 것이 더 유리합니다.

여기에 거래의 Bernulization과 멀지 않은 역설이 있습니다. 그 후에는 매개 변수화 문제없이 Vince와 달리 분석 형식의 기본 거래 방정식을 효과적으로 사용합니다.

 
Neutron >> :

안녕하세요 paralocus , 여기에서 시작할 수 있다고 생각합니다.


고맙습니다!

입력에 3개의 퍼셉트론이 있습니다(지금까지 3개). 이것이 첫 번째 레이어입니다. 레이어의 구성은 다음과 같습니다.

RSI용 퍼셉트론 하나, CCI용 하나, 스토캐스틱용 하나. 모든 입력 및 출력은 정규화됩니다(-1 ; +1). 퍼셉트론은 가장 단순한 계획인 분할에 따라 유전학자에 의해 훈련됩니다.

이제 두 퍼셉트론의 두 번째 레이어를 추가하고 싶습니다. 그 중 하나는 구매 전용이고 두 번째 퍼셉트론은 판매 전용입니다. 문제:

두 번째 레이어의 퍼셉트론이 첫 번째 레이어의 동일한 데이터를 사용하면서 말하자면 각자의 전문 분야에서 학습하는 것으로 충분합니까?

첫 번째 레이어의 퍼셉트론도 구매와 판매를 위해 별도로 훈련해야 합니까?

 
paralocus писал(а) >>

고맙습니다!

그때까지!

실제로 paralocus , NN은 보편적인 가산기이며 수학적 관점에서 판매 및 구매를 위해 출력 레이어의 뉴런을 개별적으로 연마하거나 하이퍼탄젠트 활성화가 있는 단일 뉴런, 그 출력은 극성에서 구매 또는 판매를 나타내고 진폭은 성공 확률(네트워크의 신뢰)입니다. 이 관점에서 보면 첫 번째 계층의 뉴런을 강제로 특화할 필요가 없습니다. 훈련 과정에서 자체적으로 결정되며 2계층에서 이동할 때 신경망의 계산 능력이 증가하지 않는다는 점을 감안하면 3계층 구조로의 아키텍처(일부 특이한 경우 제외) 및 훈련 샘플의 길이가 네트워크의 모든 가중치의 제곱에 비례한다는 사실(및 가능한 경우 샘플은 순서대로 최소이어야 함) 시장 이벤트에 신속하게 대응하기 위해) 뿐만 아니라 Okama의 Razor(필요 없이 추가 엔터티를 생성할 필요가 없음) 원칙을 사용하는 가장 좋은 옵션은 하나의 은닉층과 하나의 출력 뉴런이 있는 2층 NN입니다.

PS 네, NN에 대한 입력 신호의 확률 밀도는 기대치가 0이고 +/-1 구간(선반)에 고르게 분포하는 것이 중요합니다. 이는 교육 및 네트워크 운영의 효율성을 크게 향상시킵니다.

 
Neutron >> :

안녕!

실제로 paralocus , NN은 보편적인 가산기이며 수학적 관점에서 판매 및 구매를 위해 출력 레이어의 뉴런을 개별적으로 연마하거나 하이퍼탄젠트 활성화가 있는 단일 뉴런, 그 출력은 극성에서 구매 또는 판매를 나타내고 진폭은 성공 확률(네트워크의 신뢰)입니다. 이 관점에서 보면 첫 번째 계층의 뉴런을 강제로 특화할 필요가 없습니다. 훈련 과정에서 자체적으로 결정되며 2계층에서 이동할 때 신경망의 계산 능력이 증가하지 않는다는 점을 감안하면 3계층 구조로의 아키텍처(일부 특이한 경우 제외) 및 훈련 샘플의 길이가 네트워크의 모든 가중치의 제곱에 비례한다는 사실(및 가능한 경우 샘플은 순서대로 최소이어야 함) 시장 이벤트에 신속하게 대응하기 위해) 뿐만 아니라 Okama의 Razor(필요 없이 추가 엔터티를 생성할 필요가 없음) 원칙을 사용하는 가장 좋은 옵션은 하나의 은닉층과 하나의 출력 뉴런이 있는 2층 NN입니다.

PS 네, NN에 대한 입력 신호의 확률 밀도는 기대치가 0이고 +/-1 구간(선반)에 고르게 분포하는 것이 중요합니다. 이는 교육 및 네트워크 운영의 효율성을 크게 향상시킵니다.

여기요! 뭔가 명확하지만 많은 새로운! 하나도 놓치지 않기 위해 바로 물어볼게...

1. 신경망은 본질적으로 보편적인 가산기이며, 수학적 관점에서 판매 및 구매를 위해 출력 레이어의 뉴런을 개별적으로 연마하거나 하이퍼탄젠셜 활성화를 사용하여 단일 뉴런에서 세 번째 레이어를 구성하는 것은 중요하지 않습니다. , 극성에서 구매 또는 판매를 나타내는 출력 및 진폭 - 성공 확률(네트워크의 신뢰).

나는 가산기에 대해, 하이퍼 탄젠트 활성화가 있는 뉴런에 대해 이해합니다. 이것은 어떤 종류의 동물입니까? 나는 입구와 출구를 시그모이드로 정규화하고 입구와 출구의 신호가 정확한지 확인하기 위해(-1< 최고 및 최저 < +1) Perseptron 표시기를 약간 재설계했습니다. 즉, 우리는 3개의 입력 뉴런을 취하고 출력을 네 번째 입력(초탄젠트 활성화 포함)에 던집니다. 출력은 표시된 방향으로 거래의 성공적인 결과에 대한 확률론적 평가로 매우 쉽게 고려할 수 있습니다. 활성 극성쪽으로) ... 맞습니까?


2. 이러한 관점에서 첫 번째 레이어의 뉴런을 강제로 전문화할 필요가 없습니다. 훈련 과정에서 자체적으로 결정됩니다.

즉, 입력 레이어의 뉴런은 단순히 입력 데이터를 "오른쪽"과 "왼쪽"으로 분리하도록 훈련되어야 합니다. 나는 "훈련 과정에서 그들 스스로가 결정된다"는 것에 대해 조금 이해하지 못했습니다. 이 하이퍼탄젠셜 출력 뉴런을 훈련하는 것을 의미합니까, 아니면 모든 출력 및 입력 뉴런을 한 번에 훈련하는 것입니까? 한 번에 모두, 유전학자는 동시에 8개 이상의 매개변수 최적화를 허용하지 않으며 그러한 그리드에는 그 중 적어도 12개가 있습니다(... 칠면조 매개변수는 계산하지 않음) - 무엇을 해야 합니까? 따로 훈련한다면 - 먼저 각 입력을 따로따로 입력한 다음 출력만 따로따로(지금 하고 있습니다), 그러면 이것이 실수가 아니겠습니까?


3. 훈련 샘플의 길이가 네트워크의 모든 가중치의 제곱에 비례한다는 사실(및 샘플은 가능한 경우 시장 이벤트에 빠르게 응답하기 위해 최소이어야 함)

어떤가요? 우리는 네트워크의 모든 가중치를 제곱한 다음 이 제곱을 합산하고 훈련 샘플의 길이가 비례해야 하는 길이를 얻습니다.

긴 샘플의 무익함에 관해서는 이미 알고 있습니다. 말하자면 "과학적 찌르기" 방법으로 왔습니다. 나는 심지어 날짜(2008.12.02)를 찾았는데, 그 데이터가 단순히 그리드에 쓸모가 없고 현재 시장 역학과 상관관계가 없는 것부터 시작합니다.


4. 가장 좋은 옵션은 하나의 은닉층과 하나의 출력 뉴런이 있는 2층 NN입니다.

여기, 내가 뭔가를 이해하지 못했습니다 ... 뉴런의 입력 레이어, 뉴런의 출력 레이어, 심지어 뉴런의 은닉 레이어가 있다면 이미 세 개가 있습니다. 네트워크가 2계층인 이유는 무엇입니까?


5. 예, NN에 대한 입력 신호의 확률 밀도는 기대치가 0이고 +/-1 간격(선반)에 고르게 분포되어 있어야 합니다. 이는 교육 및 네트워크 운영의 효율성을 크게 향상시킵니다.

나는 입력 신호를 (직관 수준에서) 정규화해야 할 필요성을 이해하므로 출력이 형태는 동일하지만 범위는 -/+1이 되도록 입력 신호를 변환합니다. 그러나 정규화된 RSI의 확률 밀도는 어떻게 분포되어 있습니까? 예를 들어 내 RSI 뉴런의 입력 신호는 다음과 같습니다.


이것으로 충분합니까, 아니면 다른 것이 필요합니까?

P/S 저는 면도기 괜찮습니다, 무엇을 자를지 이해하는 것이 가장 중요합니다.. :-)

 
paralocus писал(а) >>

1. 나는 가산기, 하이퍼탄젠트 활성화가 있는 뉴런에 대해 이해합니다. 이것은 어떤 종류의 동물입니까? 나는 입구와 출구를 시그모이드로 정규화하고 입구와 출구의 신호가 정확한지 확인하기 위해(-1< 최고 및 최저 < +1) Perseptron 표시기를 약간 재설계했습니다. 즉, 우리는 3개의 입력 뉴런을 취하고 출력을 네 번째 입력(초탄젠트 활성화 포함)에 던집니다. 출력은 표시된 방향으로 거래의 성공적인 결과에 대한 확률론적 평가로 안전하게 고려할 수 있습니다. 활성 극성) ... 맞습니까?

이것은 활성화 함수(FA)가 쌍곡선 탄젠트(값 범위 +/- 1)인 뉴런입니다. - 거래 결정을 내리는 데 편리합니다. - 매수/매도, |FA|<const - 시장에서 제외됩니다.

모든 NS 뉴런은 비선형 FA를 가져야 합니다(일부 예외는 있음 - 마지막 뉴런 제외). 학습률을 제외하고 특정 유형의 FA에 의존하는 것은 없습니다.

2. 이러한 관점에서 첫 번째 레이어의 뉴런을 강제로 전문화할 필요가 없습니다. 훈련 과정에서 자체적으로 결정됩니다.

즉, 입력 레이어의 뉴런은 단순히 입력 데이터를 "오른쪽"과 "왼쪽"으로 분리하도록 훈련되어야 합니다. 나는 "훈련 과정에서 그들 스스로가 결정된다"는 것에 대해 조금 이해하지 못했습니다. 이 하이퍼탄젠셜 출력 뉴런을 훈련하는 것을 의미합니까, 아니면 모든 출력 및 입력 뉴런을 한 번에 훈련하는 것입니까? 한 번에 모두, 유전학자는 동시에 8개 이상의 매개변수 최적화를 허용하지 않으며 그러한 그리드에는 그 중 적어도 12개가 있습니다(... 칠면조 매개변수는 계산하지 않음) - 무엇을 해야 합니까? 따로 훈련한다면 - 먼저 각 입력을 따로따로 입력한 다음 출력만 따로따로(지금 하고 있습니다), 그러면 이것이 실수가 아니겠습니까?

물론 한 번에 모든 사람을 훈련하십시오. 그렇지 않으면 "누가 숲에 있고 누가 장작을위한 것"이라는 문제가 있습니다. 나는 "유전학자"와 아무 관련이 없으므로 여기서 도움을 줄 수 없습니다.

3. 훈련 샘플의 길이가 네트워크의 모든 가중치의 제곱에 비례한다는 사실(및 샘플은 가능한 경우 시장 이벤트에 빠르게 응답하기 위해 최소이어야 함)

어떤가요? 우리는 네트워크의 모든 가중치를 제곱한 다음 이 제곱을 합하고 훈련 샘플의 길이가 비례해야 하는 길이를 얻습니다.

근사 오차와 일반화 오차의 최소 합에 도달하는 훈련 세트 P 의 최적 길이가 있습니다. 이 최적값은 네트워크의 시냅스 w 수와 입력 d 의 차원(네트워크 입력 수)에 의해 고유하게 결정됩니다.

Popt=k*w*w/d, 여기서 k 는 차수 1의 무차원 상수이며 시장 변동성을 고려합니다.

최적의 기준은 테스트 샘플과 훈련 샘플, 즉 정상적으로 훈련된 그리드에서 55%를 정확하게 추측하면 새 데이터에 대한 테스트에서 거의 동일한 결과가 표시됩니다. 더욱이, 그러한 신경망의 경우 ODP 방법의 반복 횟수 증가와 관련된 재훈련 문제가 없습니다. 오류의 로컬 최소값이 없습니다. 함수는 순간적이며 점근적으로 일정하게 경향이 있습니다.

4. 가장 좋은 옵션은 하나의 은닉층과 하나의 출력 뉴런이 있는 2층 NN입니다.

여기, 내가 뭔가를 이해하지 못했습니다 ... 뉴런의 입력 레이어, 뉴런의 출력 레이어, 심지어 뉴런의 은닉 레이어가 있다면 이미 세 개가 있습니다. 네트워크가 2계층인 이유는 무엇입니까?

이것은 용어의 문제입니다. 나는 입력 레이어를 특별한 것으로 표시하지 않습니다. 따라서 입력(숨겨져 있음)과 출력(하나의 뉴런으로 구성됨)이라는 두 개의 레이어만 있는 신경망을 의미했습니다.

그러나 정규화된 RSI의 확률 밀도는 어떻게 분포되어 있습니까? 이것으로 충분합니까, 아니면 다른 것이 필요합니까?

모르겠어요. RSI의 첫 번째 차이 계열의 확률 밀도 분포를 구축하고 그래프를 확인해야 합니다. 최대 진폭이 +/-1인 선반이 있어야 합니다.

 
Neutron писал(а) >>

나는 입력 레이어를 특별한 것으로 표시하지 않습니다. 따라서 입력(숨겨져 있음)과 출력(하나의 뉴런으로 구성됨)이라는 두 개의 레이어만 있는 신경망을 의미했습니다.

즉, 네트워크는 첫 번째 레이어에 여러 개의 병렬 퍼셉트론과 출력 레이어에 하나의 병렬 퍼셉트론으로 구성되어 있지만 출력 퍼셉트론의 입력 수는 첫 번째 레이어의 퍼셉트론 수와 같습니다.

 
Neutron >> :

물론 한 번에 모든 사람을 훈련하십시오. 그렇지 않으면 "누가 숲에 있고 누가 장작을위한 것"이라는 문제가 있습니다. 나는 "유전학자"와 아무 관련이 없으므로 여기서 도움을 줄 수 없습니다.


잘! 그리고 저는 그리드를 나중에 스스로 학습하는 그리드로 "마무리"하기를 바랐습니다...

받은 답변 소화 중... 이해한대로 그릴게

 
FION писал(а) >>

즉, 네트워크는 첫 번째 레이어에 여러 개의 병렬 퍼셉트론과 출력 레이어에 하나의 병렬 퍼셉트론으로 구성되어 있지만 출력 퍼셉트론의 입력 수는 첫 번째 레이어의 퍼셉트론 수와 같습니다.

그런거야.

그러나 각 퍼셉트론의 입력에는 +1의 일정한 바이어스에 대한 별도의 추가 입력이 있습니다. 이는 학습 속도를 높이고 네트워크의 성능을 높입니다.

 
Neutron писал(а) >>

그런거야.

그러나 각 퍼셉트론의 입력에는 +1의 일정한 바이어스에 대한 별도의 추가 입력이 있습니다. 이는 학습 속도를 높이고 네트워크의 성능을 높입니다.

분명한. 일정한 오프셋은 하이퍼탄젠트 곡선의 활성화 지점을 약간만 이동합니다.

 

중성자 작성 >>


제가 이해한 내용은 다음과 같습니다.

하이퍼탄젠트로 이해합니다. 지금까지는 시그모이드를 사용했고 그 이후의 결과에서 하나를 빼야 했고 th에서는 더 이상 필요하지 않습니다. 내가 당신을 이해할 수 있었던 한, 그림은 시장을 위한 최적의 NN 아키텍처를 보여줍니다. 입력의 수는 12이고 시냅스의 수는 4입니다. 즉, Popt=k*w*w/d 공식에 따르면 144/4 = 36...이 36개의 막대 또는 무엇입니까? 또는 가장 가까운 36개 매수/매도 상황? 내가 모든 것을 올바르게 이해 했습니까?