지뢰밭에서의 시장예절 또는 예의범절 - 페이지 11

 
Neutron >> :

그런거야.

그러나 각 퍼셉트론의 입력에는 +1의 일정한 바이어스에 대한 별도의 추가 입력이 있습니다. 이는 학습 속도를 높이고 네트워크의 성능을 높입니다.

또는 입력 레이어가 계산되지 않으면 다음과 같은 모든 사항을 고려합니다.



오류가 있으면 수정하십시오.

 
Neutron >> :

그런거야.

그러나 각 퍼셉트론의 입력에는 +1의 일정한 바이어스에 대한 별도의 추가 입력이 있습니다. 이는 학습 속도를 높이고 네트워크의 성능을 높입니다.

조정 가능한 매개변수의 수를 늘리지 않고 뉴런의 임계값을 대체하는 프릴과 같습니까? 멋지네요 처음보는데 맘에 들어요 :)

 

그리고 각 뉴런의 입력에서 일정한 편향은 어디에 있습니까?

paralocus писал(а) >>

내가 당신을 이해할 수 있었던 한, 그림은 시장을 위한 최적의 NN 아키텍처를 보여줍니다.

이것이 내가 생각하는 것입니다. 아마도 이것은 사실이 아닙니다. 그러나 수치 실험의 결과는 이 진술을 확인시켜줍니다.

입력의 수는 12이고 시냅스의 수는 4입니다. 즉, Popt=k*w*w/d 공식에 따르면 144/4 = 36...이 36개의 막대 또는 무엇입니까? 또는 가장 가까운 36개 매수/매도 상황? 내가 모든 것을 올바르게 이해 했습니까?

신중하게 고려하십시오. 아키텍처의 모든 시냅스 수: w=12+4=16

입력 수: d=3(4*3이 아니라 3).

훈련 샘플의 최적 길이: 각 시계열에 대한 Popt=k*w*w/d =4*16*16/3=340개 샘플(각 입력 뉴런에 4개 있음). 막대 또는 지표 값이 될 수도 있고 거래 카운트가 될 수도 있으며 예측 가능성을 높이는 데 가장 좋은 것을 결정하는 것은 사용자의 몫입니다... 예측 가능성은 MTS의 4승 수익률에 포함된다는 점을 기억하십시오! 매우 강한 의존성(처음에 주어진 주제 참조).

 
paralocus писал(а) >>

또는 입력 레이어가 계산되지 않으면 다음과 같은 모든 사항을 고려합니다.

오류가 있으면 수정하십시오.

이해하지 못했다!

왜 입력 레이어를 계산하지 않습니까? 그는 훈련에 참여하지 않고 예측하지 않습니까?

가장 최적의 레이어는 은닉(입력이라고도 함)과 출력의 두 가지 레이어입니다. 이 아키텍처에서는 w=4*4+5=21, d=4 및 P=4*21*21/4=440개의 샘플이 있습니다.

 
TheXpert писал(а) >>

조정 가능한 매개변수의 수를 늘리지 않고 뉴런의 임계값을 대체하는 프릴과 같습니까?

피온 >>

분명한. 상수 오프셋은 하이퍼탄젠트 곡선의 활성화 지점을 약간만 이동합니다.

일반적으로 맞는 말이지만, 다음 데이터 배치가 국회 입력에 도달했을 때 중앙에 있지 않다는 의미입니다(MO! = 0). 이를 위해 각 뉴런에 추가 상수 입력이 도입됩니다. 학습 과정에서 특정 뉴런은 입력 데이터의 가능한 편향을 보상하는 방식으로 이 입력에서 가중치 값을 선택합니다. 이를 통해 통계적으로 더 빠른(가상의 클라우드 중심에서) 학습이 가능합니다.

 
Neutron >> :

그리고 각 뉴런의 입력에서 일정한 편향은 어디에 있습니까?

이것이 내가 생각하는 것입니다. 아마도 이것은 사실이 아닙니다. 그러나 수치 실험의 결과는 이 진술을 확인시켜줍니다.

신중하게 고려하십시오. 아키텍처의 모든 시냅스 수: w=12+4=16

입력 수: d=3(4*3이 아니라 3).

훈련 샘플의 최적 길이: 각 시계열에 대한 Popt=k*w*w/d =4*16*16/3=340개 샘플(각 입력 뉴런에 4개 있음). 막대 또는 지표 값이 될 수도 있고 거래 카운트가 될 수도 있으며 예측 가능성을 높이는 데 가장 좋은 것을 결정하는 것은 사용자의 몫입니다... 예측 가능성은 MTS의 4승 수익률에 포함된다는 점을 기억하십시오! 매우 강한 의존성(처음에 주어진 주제 참조).

Popt=k*w*w/d, 여기서 k는 차수 1의 무차원 상수이며 시장 변동성을 고려합니다.

그러면 이 공식에서 d는 은닉층에 있는 한 뉴런의 입력 수이고 k는 은닉층에 있는 뉴런 수입니다. 죄송합니다. 어떤 이유에서인지 네트워크가 340개의 막대에서 학습할 수 있다는 것이 믿기지 않습니다. 이것은 매우 적습니다 ... 아마도 나는 무언가를 이해하지 못했습니다.

지금까지는 MT4 단말의 테스터에서 유전자 알고리즘에 의해 "훈련"되는 가장 단순한 퍼셉트론에 대해서만 알고 있었습니다. 따라서 최소한 중요한(2~3개월) 기록을 제거해야 합니다. 물론 나는 사실 유전학자가 퍼셉트론에게 아무 것도 가르치지 않는다는 것을 이해합니다. 그는 단순히 그에게 가장 적합한 계수를 선택하고 매우 적은 효율성으로 작업합니다. 맹인 행동. 어쨌든. 서정적인 탈선이었다.


단일 입력에도 자체 가중치 계수가 있어야 한다는 것을 올바르게 이해했습니까? 그리고 어떻게 입력을 "하얗게" 할 수 있습니까? 즉, 기대치가 이미 0.21인 하이퍼탄젠트로 정규화된 RSI가 있다고 가정해 보겠습니다. 내가 이렇게 하면: f(t) = th(RSI(i)*kf), 여기서 kf > 1은 입력 신호의 약간의 왜곡을 대가로 확률 밀도를 균등화하는 특별히 선택된 계수입니다. 이것이 정상입니까 아니면 아니다?

트랜잭션 수는 무엇입니까?

 
Neutron >> :


그건 그렇고, 관심있는 모든 사람들에게 : "손실을 수정하고 이익을 늘리십시오"또는 "이윤을 수정하고 손실을 늘리십시오"(선택한 거래 범위에서 시장이 추세 또는 편평한지 여부에 따라 다름) - 자본을 재투자할 때 최적이 아닙니다. 이 경우 모든 단계에서 재투자로 수정하는 것이 더 유리합니다! 즉, 10개의 지속적인 수익성 있는 거래가 있는 경우 이 시간 동안 한 위치를 유지하고 스프레드를 절약하는 것보다 각각에 대해 DC에 수수료를 제공하고 재투자하는 것이 더 유리합니다.

여기에 거래의 Bernulization과 멀지 않은 역설이 있습니다. 그 후에는 매개 변수화 문제없이 Vince와 달리 분석 형식의 기본 거래 방정식을 효과적으로 사용합니다.

이것은 역설이 될 일이 아니라 재투자가 있는 MM의 속성일 뿐입니다. 이 MM의 효율성은 무엇보다도 트랜잭션 수에 따라 다릅니다. 이 MM의 수익성은 거래 수의 기하학적 평균입니다. 적은 수의 거래로 단순 MM에 수익성 면에서 손해를 보지만, 많은 거래(장시간 플레이)에서 살아남을 수 있다면 수입이 더 높을 수 있습니다. 그러나 언제나처럼 쉬운 일은 없습니다. 레버리지의 비대칭성과 그 결과 - 일반적인 MM에 비해 장기간의 저소득으로 지불해야 합니다.

 
paralocus писал(а) >>

Popt=k*w*w/d, 여기서 k 는 차수 1의 무차원 상수이며 시장 변동성을 고려합니다.

그러면 이 공식에서 d 는 은닉층에 있는 한 뉴런의 입력 수이고 k 는 은닉층에 있는 뉴런 수입니다. 죄송합니다. 어떤 이유에서인지 네트워크가 340개 막대에서 학습할 수 있다는 것이 믿기지 않습니다. 이것은 매우 적습니다 ... 아마도 나는 무언가를 이해하지 못했습니다.

지금까지는 MT4 단말의 테스터에서 유전자 알고리즘에 의해 "훈련"되는 가장 단순한 퍼셉트론에 대해서만 알고 있었습니다. 따라서 최소한 중요한(2~3개월) 기록을 제거해야 합니다. 물론 나는 사실 유전학자가 퍼셉트론에게 아무 것도 가르치지 않는다는 것을 이해합니다. 그는 단순히 그에게 가장 적합한 계수를 선택하고 매우 적은 효율성으로 작업합니다. 맹인 행동. 어쨌든. 서정적인 탈선이었다.

단일 입력에도 자체 가중치 계수가 있어야 한다는 것을 올바르게 이해했습니까? 그리고 어떻게 입력을 "하얗게" 할 수 있습니까? 즉, 기대치가 이미 0.21인 하이퍼탄젠트로 정규화된 RSI가 있다고 가정해 보겠습니다. 내가 이렇게 하면: f(t) = th(RSI(i)*kf), 여기서 kf > 1은 입력 신호의 약간의 왜곡을 대가로 확률 밀도를 균등화하는 특별히 선택된 계수입니다. 이것이 정상입니까 아니면 아니다?

트랜잭션 수는 무엇입니까?

paralocus, 실수하는 것이 두려우신가요? 브로스테! - 이것 저것 시도하고 결과를 보십시오 - 모든 것이 제자리에 들어갈 것입니다.

k 는 뉴런 입력의 수가 아니라 시장의 경험적 특성 - 변동성이며 2에서 4까지의 범위에서 선택됩니다. 시장이 정상적이라면 k 는 10과 20을 모두 취할 수 있습니다. 학습 과정 네트워크에 대한 점근선. 불행히도 Market은 non-stationarity에서만 정상적이라고 할 수 있으므로 NN을 재교육하는 과정에 따라 계수를 가능한 한 낮게 취해야 합니다. 여기에서 k 에 대한 위의 범위가 나옵니다.

유전학자님, 이것은 경사하강법 요소를 사용하는 일종의 확률론적 학습 방법입니다(혼란하지 않은 경우). 나쁘지는 않은데 ORO 학습 속도 면에서 지는 것입니다. 역전파를 위해 유전학을 포기하십시오. 학습이 더 효율적이고 네트워크의 입력 및 시냅스 수에 제한이 없습니다.

단일 입력에는 고유한 계수가 있으며, 이는 일반 모드에서 훈련되며 다른 입력과 속성이 다르지 않습니다.

입력 미백은 입력 간의 상관 관계를 제거하는 것입니다. 이 절차를 사용하려면 먼저 바로 이와 같은 상관관계가 있음을 확인하십시오.

거래는 시장에서 자산을 사고 파는 행위입니다. 거래, 뇌물(범죄적 의미가 아님 :-)

 
Neutron >> :

역전파를 위해 유전학을 포기하십시오. 학습이 더 효율적이고 네트워크의 입력 및 시냅스 수에 제한이 없습니다.


모두 거절했습니다. ORO로 그리드를 작성하기 위해 앉았습니다. 아마도 ORO 자체에 대해 몇 가지 질문이 제기될 것입니다.

 
paralocus писал(а) >>

아마도 ORO 자체에 대해 몇 가지 질문이 제기될 것입니다.

괜찮아요!

그건 그렇고, 네트워크 아키텍처를 자세히 살펴보겠습니다.

출력 뉴런으로 연결된 3개의 독립적인 이중층 네트워크로 구성된 위원회가 있습니다(따라서 위원회). 위원회의 각 그리드에는 입력 뉴런이 하나만 포함되어 있습니다. 이는 정확하지 않습니다. 이러한 아키텍처는 단일 레이어 퍼셉트론과 컴퓨팅 성능이 다르지 않습니다. 이것이 12개가 아닌 3개의 입력(편향을 포함하여 4개)이 있는 이유입니다. 다시 한 번, 이사회의 아날로그를 만들었습니다. 여기서 의장은 일반 투표(출력 뉴런)에 의해 "정답"을 선택하고 각각의 유권자는 단 하나의 뉴런으로 표시됩니다. 이러한 아키텍처는 거래에 이점을 제공하지 않습니다. 맞습니다. 위원회의 각 구성원의 입력에 최소한 두 개의 뉴런을 제공하면 FA의 비선형성 속성을 최대한 활용할 수 있고 위원회의 예측력을 크게 높일 수 있습니다.

AI와 우리 사이에 얼마나 많은 공통점이 있는지 알 수 있습니다. 사실 Komsomol 회의에서 투표는 가장 적은 비용으로 목표를 가장 빨리 달성한다는 점에서 팀 행동의 최적 계획에 지나지 않습니다!

위원회의 출력에는 비선형 활성화 함수가 없으며 단지 가산기일 뿐이며 그 기능은 투표 결과에 따라 결정을 내리는 것입니다. 따라서 이 아키텍처는 귀하의 아이디어에 가장 가깝고 하나의 은닉층이 있는 2층 비선형 네트워크의 위원회입니다. 은닉층의 뉴런 수를 증가시켜 예측의 신뢰도를 높일 수 있지만 이 경우 훈련 샘플의 길이가 2차적으로 증가하고 곧 증가의 효율성이 증가하는 순간이 온다는 점을 기억해야 합니다. 감소하고 심지어는 네트워크의 예측 능력을 저하시킵니다. 내 수치 실험 결과에 따르면 최적은 은닉층에서 2-4개의 뉴런을 초과하지 않습니다.

주어진 아키텍처에서 훈련 샘플의 최적 길이는 Р=1500개 샘플입니다.

PS 아름답게 밝혀졌습니다. 나는 그림에 대해 이야기하고 있다. 미학적 즐거움을 얻는다!