지뢰밭에서의 시장예절 또는 예의범절 - 페이지 79

 
paralocus писал(а) >>

그건 그렇고, 내가 분을 수직으로 하나의 스프레드(3포인트)로 나누면 얻을 수 있는 여러 거래에 대한 많은 첫 번째 차이 분포의 특징적인 그림을 보십시오.

분포 기능을 구축하면 기능을 더 명확하게 나타냅니다. 당신이 가져온 것은 시간 척도 해상도로 위에서 FR을 보는 것입니다. 물론 흥미롭지 만 그렇게 분명하지는 않습니다.

이제 2(2.153)보다 약간 크며 H 에 따라 2에 접근한 다음 멀어지지만 항상 2보다 약간 큽니다.

아마도 시장의 특성이 유행이었을 것입니다. 큰 플롯에서 점수는 일반적으로 <2입니다.

 
Neutron >> :

분포 기능을 구축하면 기능을 더 명확하게 나타냅니다. 당신이 가져온 것은 시간 척도 해상도로 위에서 FR을 보는 것입니다. 물론 흥미롭지 만 그렇게 분명하지는 않습니다.

이제 2(2.153)보다 약간 크며 2에 접근한 다음 H에 따라 멀어지지만 항상 2보다 약간 큽니다.

아마도 시장의 특성이 유행이었을 것입니다. 큰 플롯에서 점수는 일반적으로 <2입니다.

오늘 건설하겠습니다. 사이트는 정말 작습니다. 한 달(20,000분)이 조금 넘었습니다. 제 DC에서는 더 긴 시간(분)의 기록을 업로드할 수 없습니다.



어젯밤에 아이디어가 있었는데 여기에서 말하고 싶습니다. 여러분 모두에게 적용됩니다.

SOI라고 부르자 (아무도 추측하지 않도록 ... -:) )


따라서 적절한 데이터 분석을 위해서는 명백한 이유로 사용할 수 없는 양호한(통계적으로 충분하고 간격이 없는) 틱 기록이 필요합니다.

아이디어의 본질은 가장 저렴한 비용으로 모든 거래자에게 최대의 이익을 제공하는 방법입니다. 솔루션은 간단합니다. 전용 서버(2개, 가급적이면 3개)를 임대하고 모든 기기 및 DC에 이러한 서버에 틱 수집기를 설치하는 것입니다. 뿐만 아니라 (나중에 더 자세히 설명). 한 사람의 경우이 기업은 매우 비싸지 만 아이디어는 무료가 아니라 저렴하고 안정적이며 실용적으로 수행하는 방법입니다.


계산해 봅시다:

****************************** 비용 ******************* ******

1. 현재 충분한 볼륨의 전용 가상 서버 1대를 임대하는 데 월 100달러(통신 채널을 통해 2개의 독립 서버 필요) 비용이 ... 200달러/월

2. 이 모든 것을 주시하고 이야기를 능숙하게 수정하려면 훌륭한 코더가 필요합니다.

물론 코더는 이 작업에 대해 일종의 돈을 받아야 합니다. 일이 많지 않아서 월 200불(단, 코더가 한 프로젝트에서 벌 수 있는 한도와는 거리가 멀다)

사실 여기에 모든 주요 비용이 있습니다! 한달에 400불.


또한 다음을 배치해야 하는 통합 인터넷 리소스가 필요합니다.

a) 틱 기록 판매를 위한 플랫폼.

b) 제안된 고문의 데모에 대한 현재 작업을 무료로 볼 수 있는 고문 판매 플랫폼

c) DC에 대한 건설적인 비판이 긍정적인 포럼.



****************************** 소득 ******************* * ******

1. 틱 기록 다운로드 수수료 - 모든 DC의 모든 상품에 대한 1개월 틱 - 1WMZ(계산은 WebMoney를 통해 편리하게 수행됨)

2. 원격 서버에서 어드바이저 호스팅 비용(실제 작업) - 주당 20WMZ(어드바이저가 많이 벌지 않으면 버리면 됩니다)

3. 데모에 고문 배치 비용 - 주당 5WMZ

4. 플랫폼을 통해 판매된 Expert Advisors의 비율 (수치로 말하기 어렵다)

************************************************** ***** ****************************************


일반적으로 프로젝트는 매우 수익성 있고 유용해 보입니다. SOI가 MT5 제품에 대해 좋은 PR을 할 것이기 때문에 MetaQuotes도 관심을 가질 가능성이 큽니다.

한마디로 DC 빼고 모두가 이긴다. 그러나 정직한 DC는 어느 쪽도 두려워하지 않습니다.

양보를 시작하려면 주주가 필요합니다. 개인적으로 100WMZ 정도의 지폐를 입금할 준비가 되어 있습니다. 그밖에 누가...?

 

1. 나는 필요에 따라 티키를 직접 수집합니다. 충분한.

2. 상업적 프로젝트 로서 이 프로젝트는 내 생각에 Forex 브랜드의 다른 프로젝트보다 열등합니다.

3. 틱이 분석에만 필요한 경우 먼저 프로젝트의 타당성을 보여줘야 합니다. 틱에 실제 수입을 표시하고 가격 시리즈를 표시하는 다른 방법에 대한 우월성을 증명하십시오. 당국에 대한 언급이 전달되지 않는다는 것은 분명합니다.

그리고 마지막. 모든 사람은 DC의 기록을 고유한 견적 필터로 거래합니다. 국회가 훈련되는 것은 특정 DC를 위한 것이다. 따라서 제안 된 프로젝트의 보편성에 의문의 여지가 없습니다! 당신 외에 누가 그것에 관심을 가질 것입니까? 1~2명 더...

 
예, 필터에 대해 생각하지 않았습니다. 어제보다 늦지 않았지만 나는 이것에 대해 썼습니다 ... 감사합니다.
 
입력을 일정한 분포로 정규화할 수 있었습니까? 방금 비슷한 문제를 겪었습니다. 배급의 본질을 예를 들어 설명하십시오. 귀하의 어려움을 올바르게 이해했는지 확인하고 싶습니다. 내가 올바르게 이해하면 솔루션을 제공할 수 있습니다.
 
다른 문제가 있습니다.
 

중성자paralocus 에 대한 질문입니다. Neutron 은 수정된 RPROP 방법으로 메시를 훈련하는 반면 paralocus 는 수정된 ORO(BPROP) 방법으로 메시를 훈련한다는 것을 알고 있습니다. 기존 ODP 방법에서 가중치 단계는 학습 오류 제곱(dE^2/dw = -delta*Neuron_Input)의 기울기를 학습률로 곱하여 계산됩니다. 이 방법은 한 훈련 세트에서 다른 훈련 세트로 이동할 때 국부적으로 적용하거나 모든 훈련 세트에 대한 오류 기울기를 누적한 다음 가중치 단계를 계산하여 획기적으로 적용할 수 있습니다. 수정 사항은 가중치 단계에 (1-L/N)*dw/sqrt(dwNorm)를 추가로 곱하는 것입니다. Neutron 은 RPROP에서와 같이 dw 증분만 사용합니다. 나는 거의 모든 다양한 ORO 방법(BPROP, RPROP, IRPROP+/-, SARPROP, GRPROP)을 시도했지만 결과는 매우 좋지 않았습니다. 임의의 숫자로 가중치를 초기화할 때(예: -0.5...0.5 범위), 초기 학습 오류가 매우 높고 학습 방법이 이를 성공적으로 줄입니다. 여기에는 문제가 없습니다. 그러나 가중치가 0 값으로 초기화되거나 매우 작은 임의의 값(eg -0.05...0.05)으로 초기화되면 초기 학습 오차는 작고 가중치가 "큰"으로 초기화될 때 최종 학습 오차와 같습니다. " 난수. 그러면 가중치가 0이면 무작위 초기 가중치를 사용하여 최종 학습 오류에 가까운 오류를 제공한다는 것을 알면 네트워크를 훈련하는 요점은 무엇입니까? 다음은 paralocus 와 같이 ODP 방식을 수정한 학습오차 그래프입니다.


내가 나열한 모든 훈련 방법은 거의 동일한 동작을 보여줍니다. 임의의 초기 가중치를 사용하여 신기원에서 신기원으로 학습 오류가 아름답고 고무적으로 감소합니다(기사 또는 논문을 작성할 수도 있음). 그리고 초기 가중치가 0이면 오류는 이미 충분히 작고 네트워크는 거의 개선하지 않습니다. 다음은 동일한 입력 데이터로 동일한 네트워크의 IRPROP+ 방법으로 훈련하는 예입니다.



학습 오류의 이러한 동작은 내 네트워크(2개의 레이어, 12개의 입력, 5개의 숨겨진 뉴런, 1개의 출력, 120개의 트레이닝 세트) 또는 입력 데이터(다른 지연에 따른 상대적 가격 증가)의 특성일 수도 있습니다. 귀하의 네트워크가 무작위 및 제로 초기 가중치로 어떻게 훈련되는지 보고 싶습니다. 어렵지 않다면 이 두 경우에 대한 epoch의 함수로 UNNORIZED 학습 오류의 플롯을 표시하십시오.

여기서 나는 내 결과에 대해 조금 생각했고 학습 과정에서 네트워크 가중치가 0인 경향이 있는 경우, 즉 0의 초기 가중치가 네트워크의 훈련된 상태에 가깝다면 네트워크가 다음을 설명하려고 한다는 결론에 도달했습니다. 매우 약한 상관 관계가 있는 입력 및 출력, 즉 예측이 불가능한 무작위 시장. 여기에서 그는 그러한 정리를 "발명"했습니다.


 
gpwr писал(а) >>

학습 오류의 이러한 동작은 내 네트워크(2개의 레이어, 12개의 입력, 5개의 숨겨진 뉴런, 1개의 출력, 120개의 트레이닝 세트) 또는 입력 데이터(다른 지연에 따른 상대적 가격 증가)의 특성일 수도 있습니다. 귀하의 네트워크가 무작위 및 제로 초기 가중치로 어떻게 훈련되는지 보고 싶습니다.

Epoch 번호에 따라 2계층 NN의 학습 오류를 줄이는 프로세스는 다음과 같습니다.

네트워크에는 5개의 입력, 4개의 은닉층 뉴런 및 1개의 출력 뉴런이 있습니다. 표준편차로 정규화된 EURUSD1h의 시가는 훈련 벡터로 사용되었습니다. 무화과에. 원은 입력 벡터의 길이로 오류를 정규화하지 않고 50번의 수치 실험을 통해 평균한 표준 편차로 발견된 학습 오류를 보여줍니다. 가는 선은 1/e 수준에 대한 통계적 산포를 보여줍니다. 파란색 - 0 범위에서 가중치의 초기 무작위화를 위한 이 프로세스의 구현. 빨간색 - 선반 모양 분포로 +/-1 범위.

가중치가 0에서 시작하는 것과 비교하여 초기에 무작위 변수로 초기화되는 경우 NN이 눈에 띄게 더 잘 학습함을 알 수 있습니다. 또한 가중치의 초기 무작위화 범위가 증가하면 일반적으로 최종 학습 오류가 감소합니다. 그러나 이것은 필요한 에포크 수의 증가를 수반합니다(전체가 맨 위로 올라가는 그래프).

 
Neutron >> :

Epoch 번호에 따라 2계층 NN의 학습 오류를 줄이는 프로세스는 다음과 같습니다.

네트워크에는 5개의 입력, 4개의 은닉층 뉴런 및 1개의 출력 뉴런이 있습니다. 표준편차로 정규화된 EURUSD1h의 시가는 훈련 벡터로 사용되었습니다. 무화과에. 원은 입력 벡터의 길이로 오류를 정규화하지 않고 50번의 수치 실험을 통해 평균한 표준 편차로 발견된 학습 오류를 보여줍니다. 가는 선은 1/e 수준에 대한 통계적 산포를 보여줍니다. 파란색 - 0 범위에서 가중치의 초기 무작위화를 위한 이 프로세스의 구현. 빨간색 - 선반 모양 분포로 +/-1 범위.

가중치가 0에서 시작하는 것과 비교하여 초기에 무작위 변수로 초기화되는 경우 NN이 눈에 띄게 더 잘 학습함을 알 수 있습니다. 또한 가중치의 초기 무작위화 범위가 증가하면 일반적으로 최종 학습 오류가 감소합니다. 그러나 이것은 필요한 에포크 수의 증가를 수반합니다(전체가 맨 위로 올라가는 그래프).

고맙습니다. 그리고 왜 통계적 스프레드가 파란색 원 근처에 그려져 있습니까? 가중치가 0에서 시작하면 통계적 스프레드가 없어야 합니다.

그리고 질문 하나 더. 표준 편차로 정규화된 EURUSD1h 시작 가격이 사용된 경우 평균은 0이 아닙니다. 아니면 중간을 선택하셨나요?