트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1116 1...110911101111111211131114111511161117111811191120112111221123...3399 새 코멘트 Yuriy Asaulenko 2018.10.18 18:22 #11151 마이클 마르쿠카이테스 : OOS의 섹션을 선택하는 것을 제외하고 훈련 전에 데이터가 혼합되면 왜 시간이 필요합니까 ... 걱정하지 마십시오. 결과를 더 잘 보여주십시오 ... 난 필요해. 결과. 내 스레드를 참조하십시오. 그들은 업무상 그곳에 있습니다. itslek 2018.10.18 18:23 #11152 마법사_ : itslek 은 validol을 위해 달렸습니다))) 42개의 예제 데이터셋! 42 칼! 나는 일반적으로 그 이후 시계열 에서 datetime에 대해 침묵합니다. СанСаныч Фоменко 2018.10.18 18:25 #11153 우리는 본다. 예측 변수를 두 부분으로 나눕니다. 한 부분은 한 클래스에 속하고 다른 부분은 다른 클래스에 속합니다. 우리는 각 절반의 히스토그램을 만들고 결합합니다. 그래서. 품질은 다르지만 모두 이전보다 훨씬 더 나은 예측 능력을 가집니다(기억에서). 히스토그램 사이의 거리 측정을 도입할 필요가 있는데, 이는 히스토그램 사이의 차이를 보다 사실적으로 보여줄 것이며, 이는 그림의 형태보다 더 정확할 것입니다. Mihail Marchukajtes 2018.10.18 18:26 #11154 이슬렉 : 42개의 예에 대한 데이터 세트 잘 이해가 안 가네요.... 1000개의 예제에서 학습할 수 있는 AI가 훌륭하다면 그러한 샘플은 너트와 같을 것입니다. 문제가 무엇입니까? СанСаныч Фоменко 2018.10.18 18:28 #11155 Mihail Marchukajtes 2018.10.18 18:28 #11156 산산이치 포멘코 : 우리는 본다. 예측 변수를 두 부분으로 나눕니다. 한 부분은 한 클래스에 속하고 다른 부분은 다른 클래스에 속합니다. 우리는 각 절반의 히스토그램을 만들고 결합합니다. 그래서. 품질은 다르지만 모두 이전보다 훨씬 더 나은 예측 능력을 가집니다(기억에서). 히스토그램 사이의 거리 측정을 도입할 필요가 있는데, 이는 히스토그램 사이의 차이를 보다 사실적으로 보여줄 것이며, 이는 그림의 형태보다 더 정확할 것입니다. 훌륭합니다...계속합니다. 훈련된 모델의 결과가 필요합니다. 데이터 분석도 좋지만 내가 틀리지 않는다면 가장 중요한 것은 이익이다. 그렇기 때문에 가능하면 거래를 요청하는 것입니다 ... itslek 2018.10.18 18:29 #11157 마이클 마르쿠카이테스 : 잘 이해가 안 가네요.... 1000개의 예제에서 학습할 수 있는 AI가 훌륭하다면 그러한 샘플은 너트와 같을 것입니다. 문제가 무엇입니까? 정반대... 더 나은 알고리즘은 더 좋지 않지만 멋진 알고리즘보다 더 많은 예가 있지만 데이터는 적습니다. 특히 시장에서는 1000으로도 충분하지 않습니다 ... Mihail Marchukajtes 2018.10.18 18:31 #11158 이슬렉 : 정반대... 동의합니다 .... 사용할 AI 도구에 따라 다릅니다. 일부의 경우 샘플 크기가 크게 필요하고 지원 벡터 벡터와 같은 일부의 경우 큰 샘플이 필요하지 않습니다. 이 방법은 리소스 집약적이고 큰 샘플의 경우 매우 오랜 시간이 걸리기 때문입니다. Yuriy Asaulenko 2018.10.18 18:32 #11159 마이클 마르쿠카이테스 : 동의합니다 .... 사용할 AI 도구에 따라 다릅니다. 일부의 경우 샘플 크기가 크게 필요하고 지원 벡터 벡터와 같은 일부의 경우 큰 샘플이 필요하지 않습니다. 이 방법은 리소스 집약적이고 큰 샘플의 경우 매우 오랜 시간이 걸리기 때문입니다. AI 란 무엇입니까? СанСаныч Фоменко 2018.10.18 18:32 #11160 예측 능력에서 나쁘지 않은 결과가 안정적인 모델의 구성으로 이어지지는 않을 것입니다. 말도 안 되는 수의 관찰 = 51이기 때문입니다. 최소한 10배는 더 필요하지만 100배는 더 좋습니다. 이 수의 관찰에 대해 모델을 구축하면 결과는 끔찍합니다. 예측 실제[0,0](0,1] 오류 [0.0] 42.9 28.6 40 (0.1] 28.6 0.0 100 전체 오차: 57.1%, 평균 클래스 오차: 70% 래틀 타임스탬프: 2018-10-18 21:29:39 사용자 ===================================================== ===================== Mic1.txt [validate](개수)의 선형 모델에 대한 오류 행렬: 예측 실제[0,0](0,1] 오류 [0.0] 1 4 80 (0.1] 2 0 100 Mic1.txt [validate](비율)의 선형 모델에 대한 오류 행렬: 예측 실제[0,0](0,1] 오류 [0.0] 14.3 57.1 80 (0.1] 28.6 0.0 100 전체 오차: 85.7%, 평균 클래스 오차: 90% 래틀 타임스탬프: 2018-10-18 21:29:39 사용자 ===================================================== ===================== Mic1.txt [validate](개수)의 신경망 모델에 대한 오류 행렬: 예측 실제[0,0](0,1] 오류 [0.0] 2 3 60 (0.1] 1 1 50 Mic1.txt [validate](비율)의 신경망 모델에 대한 오류 행렬: 예측 실제[0,0](0,1] 오류 [0.0] 28.6 42.9 60 (0.1] 14.3 14.3 50 전체 오차: 57.1%, 평균 클래스 오차: 55% 래틀 타임스탬프: 2018-10-18 21:29:39 사용자 Machine learning in trading: Sultonov의 회귀 모델(RMS) - Cost Averaging System 1...110911101111111211131114111511161117111811191120112111221123...3399 새 코멘트 트레이딩 기회를 놓치고 있어요: 무료 트레이딩 앱 복사용 8,000 이상의 시그널 금융 시장 개척을 위한 경제 뉴스 등록 로그인 공백없는 라틴 문자 비밀번호가 이 이메일로 전송될 것입니다 오류 발생됨 Google으로 로그인 웹사이트 정책 및 이용약관에 동의합니다. 계정이 없으시면, 가입하십시오 MQL5.com 웹사이트에 로그인을 하기 위해 쿠키를 허용하십시오. 브라우저에서 필요한 설정을 활성화하시지 않으면, 로그인할 수 없습니다. 사용자명/비밀번호를 잊으셨습니까? Google으로 로그인
OOS의 섹션을 선택하는 것을 제외하고 훈련 전에 데이터가 혼합되면 왜 시간이 필요합니까 ... 걱정하지 마십시오. 결과를 더 잘 보여주십시오 ...
난 필요해.
결과. 내 스레드를 참조하십시오. 그들은 업무상 그곳에 있습니다.
itslek 은 validol을 위해 달렸습니다)))
42개의 예제 데이터셋! 42 칼!
나는 일반적으로 그 이후 시계열 에서 datetime에 대해 침묵합니다.
우리는 본다.
예측 변수를 두 부분으로 나눕니다. 한 부분은 한 클래스에 속하고 다른 부분은 다른 클래스에 속합니다. 우리는 각 절반의 히스토그램을 만들고 결합합니다.
그래서.
품질은 다르지만 모두 이전보다 훨씬 더 나은 예측 능력을 가집니다(기억에서).
히스토그램 사이의 거리 측정을 도입할 필요가 있는데, 이는 히스토그램 사이의 차이를 보다 사실적으로 보여줄 것이며, 이는 그림의 형태보다 더 정확할 것입니다.
42개의 예에 대한 데이터 세트
잘 이해가 안 가네요.... 1000개의 예제에서 학습할 수 있는 AI가 훌륭하다면 그러한 샘플은 너트와 같을 것입니다. 문제가 무엇입니까?
우리는 본다.
예측 변수를 두 부분으로 나눕니다. 한 부분은 한 클래스에 속하고 다른 부분은 다른 클래스에 속합니다. 우리는 각 절반의 히스토그램을 만들고 결합합니다.
그래서.
품질은 다르지만 모두 이전보다 훨씬 더 나은 예측 능력을 가집니다(기억에서).
히스토그램 사이의 거리 측정을 도입할 필요가 있는데, 이는 히스토그램 사이의 차이를 보다 사실적으로 보여줄 것이며, 이는 그림의 형태보다 더 정확할 것입니다.
훌륭합니다...계속합니다. 훈련된 모델의 결과가 필요합니다. 데이터 분석도 좋지만 내가 틀리지 않는다면 가장 중요한 것은 이익이다. 그렇기 때문에 가능하면 거래를 요청하는 것입니다 ...
잘 이해가 안 가네요.... 1000개의 예제에서 학습할 수 있는 AI가 훌륭하다면 그러한 샘플은 너트와 같을 것입니다. 문제가 무엇입니까?
정반대...
더 나은 알고리즘은 더 좋지 않지만 멋진 알고리즘보다 더 많은 예가 있지만 데이터는 적습니다.
특히 시장에서는 1000으로도 충분하지 않습니다 ...
정반대...
동의합니다 .... 사용할 AI 도구에 따라 다릅니다. 일부의 경우 샘플 크기가 크게 필요하고 지원 벡터 벡터와 같은 일부의 경우 큰 샘플이 필요하지 않습니다. 이 방법은 리소스 집약적이고 큰 샘플의 경우 매우 오랜 시간이 걸리기 때문입니다.
동의합니다 .... 사용할 AI 도구에 따라 다릅니다. 일부의 경우 샘플 크기가 크게 필요하고 지원 벡터 벡터와 같은 일부의 경우 큰 샘플이 필요하지 않습니다. 이 방법은 리소스 집약적이고 큰 샘플의 경우 매우 오랜 시간이 걸리기 때문입니다.
AI 란 무엇입니까?
예측 능력에서 나쁘지 않은 결과가 안정적인 모델의 구성으로 이어지지는 않을 것입니다. 말도 안 되는 수의 관찰 = 51이기 때문입니다. 최소한 10배는 더 필요하지만 100배는 더 좋습니다.
이 수의 관찰에 대해 모델을 구축하면 결과는 끔찍합니다.
예측
실제[0,0](0,1] 오류
[0.0] 42.9 28.6 40
(0.1] 28.6 0.0 100
전체 오차: 57.1%, 평균 클래스 오차: 70%
래틀 타임스탬프: 2018-10-18 21:29:39 사용자
===================================================== =====================
Mic1.txt [validate](개수)의 선형 모델에 대한 오류 행렬:
예측
실제[0,0](0,1] 오류
[0.0] 1 4 80
(0.1] 2 0 100
Mic1.txt [validate](비율)의 선형 모델에 대한 오류 행렬:
예측
실제[0,0](0,1] 오류
[0.0] 14.3 57.1 80
(0.1] 28.6 0.0 100
전체 오차: 85.7%, 평균 클래스 오차: 90%
래틀 타임스탬프: 2018-10-18 21:29:39 사용자
===================================================== =====================
Mic1.txt [validate](개수)의 신경망 모델에 대한 오류 행렬:
예측
실제[0,0](0,1] 오류
[0.0] 2 3 60
(0.1] 1 1 50
Mic1.txt [validate](비율)의 신경망 모델에 대한 오류 행렬:
예측
실제[0,0](0,1] 오류
[0.0] 28.6 42.9 60
(0.1] 14.3 14.3 50
전체 오차: 57.1%, 평균 클래스 오차: 55%
래틀 타임스탬프: 2018-10-18 21:29:39 사용자