트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 377 1...370371372373374375376377378379380381382383384...3399 새 코멘트 Maxim Dmitrievsky 2017.05.26 19:07 #3761 블라디미르 페레르벤코 : train/test/valid로 분할한 후 train 을 섞 습니다. 다른 세트를 혼합하지 마십시오. 이것은 신경망에 의한 분류에 유효합니다. 또한 심층 신경망을 훈련할 때 각 미니배치는 신경망에 공급하기 전에 혼합됩니다. 행운을 빕니다 믹싱에 대해 읽을 수 있는 곳을 링크할 수 있습니까? 왜냐하면 순전히 직관적으로 이것은 말이 안 됨) 뿐만 아니라 예측자가 목표와 상관관계가 있다는 사실(이것은 슬픔을 반으로 나누면서 정리됨) Forester 2017.05.26 21:23 #3762 블라디미르 페레르벤코 : train/test/valid로 분할한 후 train 을 섞 습니다. 다른 세트를 혼합하지 마십시오. 이것은 신경망에 의한 분류에 유효합니다. 또한 심층 신경망을 훈련할 때 각 미니배치는 신경망에 공급하기 전에 혼합됩니다. 행운을 빕니다 ALGLIB의 앙상블 계산 함수에서 train과 valid를 혼합한 예를 찾았습니다. 분명히 이것은 방법 중 하나입니다. 혼성전용열차 훈련(80.0%) 세그먼트의 평균 오류 = 0.396 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 검증(20.0%) 플롯의 평균 오차 =0.391 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 전체 사이트(교육 + 검증): 평균 학습 오차=0.395 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 테스트(20%) 영역의 평균 오차 = 0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 모든 섹션의 오류가 동일해졌습니다. 혼합 기차의 경우와 같이 서로 유효합니다. 분명히 효과는 동일합니다. Machine learning in trading: "New Neural"은 MetaTrader 5 실질적인 조언을 구합니다. СанСаныч Фоменко 2017.05.26 21:49 #3763 도서관 : ALGLIB의 앙상블 계산 함수에서 train과 valid를 혼합한 예를 찾았습니다. 분명히 이것은 방법 중 하나입니다. 혼성전용열차 훈련(80.0%) 세그먼트의 평균 오류 = 0.396 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 검증(20.0%) 플롯의 평균 오차 =0.391 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 전체 사이트(교육 + 검증): 평균 학습 오차=0.395 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 테스트(20%) 영역의 평균 오차 = 0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 모든 섹션의 오류가 동일해졌습니다. 혼합 기차의 경우와 같이 서로 유효합니다. 분명히 효과는 동일합니다. 이들과 다른 파일의 오류는 무엇입니까? Forester 2017.05.26 22:02 #3764 산산이치 포멘코 : 이들과 다른 파일의 오류는 무엇입니까? 테스트 말씀이신가요? 테스트 (20%) 영역의 평균 오차 = 0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 아직 test2에 대한 플롯을 만들지 않았습니다. test1로만 필터링하겠습니다. (아마도 나는 미래에) СанСаныч Фоменко 2017.05.26 22:23 #3765 도서관 : 테스트 말씀이신가요? 테스트 (20%) 영역의 평균 오차 = 0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 아직 test2에 대한 플롯을 만들지 않았습니다. test1로만 필터링하겠습니다. (아마도 나는 미래에) 이 모든 선택 중에서 Forester 2017.05.26 22:23 #3766 산산이치 포멘코 : 이 모든 선택 중에서 아니오, 모든 데이터가 사용되었습니다. СанСаныч Фоменко 2017.05.26 22:26 #3767 도서관 : 아니오, 모든 데이터가 사용되었습니다. 소스 파일을 80/20으로 나눌 수 있습니까? 그런 다음 모든 운동의 80%를 수행하고 혼합 없이 20%를 수행합니다. Forester 2017.05.26 22:37 #3768 산산이치 포멘코 : 소스 파일을 80/20으로 나눌 수 있습니까? 그런 다음 모든 운동의 80%를 수행하고 혼합 없이 20%를 수행합니다. 혼합 시: 훈련(51.0%) 세그먼트의 평균 오류 = 0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 검증(13.0%) 플롯의 평균 오차 =0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 전체 사이트(교육 + 검증): 평균 학습 오차=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 테스트(16.0%) 세그먼트의 평균 오류 = 0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 테스트 2의 평균 오차(20.0%) = 0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 섞지 않고 훈련(51.0%) 세그먼트의 평균 오류 = 0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 검증(13.0%) 플롯의 평균 오차 =0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 전체 사이트(교육 + 검증): 평균 학습 오차=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 테스트(16.0%) 섹션의 평균 오류 = 0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 테스트 2의 평균 오차(20.0%) = 0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 속도를 위해 2주기의 재교육 ... 이미 자야 할 시간입니다) Machine learning in trading: Money management strategies. Martingale. 온라인 거래 고문. 의견 СанСаныч Фоменко 2017.05.27 08:57 #3769 도서관 : 혼합 시: 훈련(51.0%) 세그먼트의 평균 오류 = 0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 검증(13.0%) 플롯의 평균 오차 =0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 전체 사이트(교육 + 검증): 평균 학습 오차=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 테스트(16.0%) 섹션의 평균 오류 = 0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 테스트 2의 평균 오차(20.0%) = 0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 섞지 않고 훈련(51.0%) 세그먼트의 평균 오류 = 0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 검증(13.0%) 플롯의 평균 오차 =0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 전체 사이트(교육 + 검증): 평균 학습 오차=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 테스트(16.0%) 섹션의 평균 오류 = 0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 테스트 2의 평균 오차(20.0%) = 0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 속도를 위해 2주기의 재훈련 만 ... 이미 자야 할 시간입니다) 모델은 아무것도 배우지 않습니다. 모든 것이 불도저에서 나옵니다. 어딘가에서 무언가를 낚아채다가 아무 상관이 없다는 것이 밝혀졌습니다. 데이터마이닝으로 시작하세요. 대상, 대상과 관련된 예측 변수 검색, 특정 대상에 대해 선택된 예측 변수의 예측 능력 결정, 그 다음에는 모델 다른 모든 것은 숫자의 지적인 게임입니다. Maxim Dmitrievsky 2017.05.28 04:22 #3770 https://www.youtube.com/channel/UCLk-Oih8VlqF-StidijTUnw 주말에 할 일을 찾았습니다 :) ap for noobs 그러나 사람들은 알고리즘 거래에도 참여합니다. Основы анализа данных www.youtube.com Канал содержит курсы по анализу данных. Все курсы бесплатны и легки в освоении Прохожу обучение в бесплатной школе Дениса Коновалова http://superpartnerka.bi... 1...370371372373374375376377378379380381382383384...3399 새 코멘트 트레이딩 기회를 놓치고 있어요: 무료 트레이딩 앱 복사용 8,000 이상의 시그널 금융 시장 개척을 위한 경제 뉴스 등록 로그인 공백없는 라틴 문자 비밀번호가 이 이메일로 전송될 것입니다 오류 발생됨 Google으로 로그인 웹사이트 정책 및 이용약관에 동의합니다. 계정이 없으시면, 가입하십시오 MQL5.com 웹사이트에 로그인을 하기 위해 쿠키를 허용하십시오. 브라우저에서 필요한 설정을 활성화하시지 않으면, 로그인할 수 없습니다. 사용자명/비밀번호를 잊으셨습니까? Google으로 로그인
train/test/valid로 분할한 후 train 을 섞 습니다. 다른 세트를 혼합하지 마십시오.
이것은 신경망에 의한 분류에 유효합니다. 또한 심층 신경망을 훈련할 때 각 미니배치는 신경망에 공급하기 전에 혼합됩니다.
행운을 빕니다
믹싱에 대해 읽을 수 있는 곳을 링크할 수 있습니까? 왜냐하면 순전히 직관적으로 이것은 말이 안 됨) 뿐만 아니라 예측자가 목표와 상관관계가 있다는 사실(이것은 슬픔을 반으로 나누면서 정리됨)
train/test/valid로 분할한 후 train 을 섞 습니다. 다른 세트를 혼합하지 마십시오.
이것은 신경망에 의한 분류에 유효합니다. 또한 심층 신경망을 훈련할 때 각 미니배치는 신경망에 공급하기 전에 혼합됩니다.
행운을 빕니다
ALGLIB의 앙상블 계산 함수에서 train과 valid를 혼합한 예를 찾았습니다. 분명히 이것은 방법 중 하나입니다.
혼성전용열차
모든 섹션의 오류가 동일해졌습니다. 혼합 기차의 경우와 같이 서로 유효합니다. 분명히 효과는 동일합니다.
ALGLIB의 앙상블 계산 함수에서 train과 valid를 혼합한 예를 찾았습니다. 분명히 이것은 방법 중 하나입니다.
혼성전용열차
모든 섹션의 오류가 동일해졌습니다. 혼합 기차의 경우와 같이 서로 유효합니다. 분명히 효과는 동일합니다.
이들과 다른 파일의 오류는 무엇입니까?
이들과 다른 파일의 오류는 무엇입니까?
테스트 말씀이신가요?
테스트 (20%) 영역의 평균 오차 = 0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
아직 test2에 대한 플롯을 만들지 않았습니다. test1로만 필터링하겠습니다. (아마도 나는 미래에)
테스트 말씀이신가요?
테스트 (20%) 영역의 평균 오차 = 0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
아직 test2에 대한 플롯을 만들지 않았습니다. test1로만 필터링하겠습니다. (아마도 나는 미래에)
이 모든 선택 중에서
이 모든 선택 중에서
아니오, 모든 데이터가 사용되었습니다.
소스 파일을 80/20으로 나눌 수 있습니까? 그런 다음 모든 운동의 80%를 수행하고 혼합 없이 20%를 수행합니다.
소스 파일을 80/20으로 나눌 수 있습니까? 그런 다음 모든 운동의 80%를 수행하고 혼합 없이 20%를 수행합니다.
혼합 시:
훈련(51.0%) 세그먼트의 평균 오류 = 0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
검증(13.0%) 플롯의 평균 오차 =0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
전체 사이트(교육 + 검증):
평균 학습 오차=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
테스트(16.0%) 세그먼트의 평균 오류 = 0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
테스트 2의 평균 오차(20.0%) = 0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
섞지 않고
훈련(51.0%) 세그먼트의 평균 오류 = 0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
검증(13.0%) 플롯의 평균 오차 =0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
전체 사이트(교육 + 검증):
평균 학습 오차=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
테스트(16.0%) 섹션의 평균 오류 = 0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
테스트 2의 평균 오차(20.0%) = 0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
속도를 위해 2주기의 재교육 ... 이미 자야 할 시간입니다)
혼합 시:
훈련(51.0%) 세그먼트의 평균 오류 = 0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
검증(13.0%) 플롯의 평균 오차 =0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
전체 사이트(교육 + 검증):
평균 학습 오차=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
테스트(16.0%) 섹션의 평균 오류 = 0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
테스트 2의 평균 오차(20.0%) = 0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
섞지 않고
훈련(51.0%) 세그먼트의 평균 오류 = 0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
검증(13.0%) 플롯의 평균 오차 =0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
전체 사이트(교육 + 검증):
평균 학습 오차=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
테스트(16.0%) 섹션의 평균 오류 = 0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
테스트 2의 평균 오차(20.0%) = 0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
속도를 위해 2주기의 재훈련 만 ... 이미 자야 할 시간입니다)
모델은 아무것도 배우지 않습니다. 모든 것이 불도저에서 나옵니다. 어딘가에서 무언가를 낚아채다가 아무 상관이 없다는 것이 밝혀졌습니다.
데이터마이닝으로 시작하세요. 대상, 대상과 관련된 예측 변수 검색, 특정 대상에 대해 선택된 예측 변수의 예측 능력 결정, 그 다음에는 모델
다른 모든 것은 숫자의 지적인 게임입니다.
https://www.youtube.com/channel/UCLk-Oih8VlqF-StidijTUnw
주말에 할 일을 찾았습니다 :) ap for noobs
그러나 사람들은 알고리즘 거래에도 참여합니다.