트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1274

 
알렉세이 비아즈미킨 :

다시 말하지만, 나는 "당신이 개인적으로 마지막에 뭔가를했습니다"에 대한 질문을 이해하지 못합니다. 확장, 그러한 결과는 무엇이며, 개인적으로 무엇을 했습니까? ML 응용 프로그램에 대해 이야기하고 있다면 예, 여러 영역(모델 생성, 선택, 적용)에서 이 문제에 대해 작업하고 있습니다. 여기에서 내 성과에 대해 많이 썼습니다.

저것들. 당신은 이미 여기에서 말한 것을 사용하고 있습니다. 당신은 당신이 사용하는 링크를 줄 수 있습니다. 당신은 100500개의 신호를 가지고 있으며 아마도 그 중 하나가 하나일 것입니다.

 
파르하트 구자이로프 :

글쎄, 다음 게임의 경우 이 비표준 행동은 이미 봇에 의해 재생될 것입니다. 현재로서는 비표준 행동으로 인해 사람이 AI를 능가할 수 있지만 AI가 "말하는 즉시" "어떡해...."라고 하는 사람은 터프할 것입니다.

이 트릭이 투쟁의 수단으로 지속적으로 반복되면 예, 무언가를 할 것입니다. 그렇지 않으면 모델이 적절하게 반응하지 않아야 하는 정상적인 이상값입니다.

 
파르하트 구자이로프 :

저것들. 당신은 이미 여기에서 말한 것을 사용하고 있습니다. 당신은 당신이 사용하는 링크를 줄 수 있습니다. 당신은 100500개의 신호를 가지고 있으며 아마도 그 중 하나가 하나일 것입니다.

나는 나만의 방법론이 있는 Doc의 CatBoost와 "마법" 트리를 사용합니다. 현재로서는 실제 계정 에서만 테스트가 진행되고 있습니다. 예측 변수에 많은 문제가 있음이 밝혀졌습니다. 결과적으로 나무를 사용하여 처음부터 배워야 할 것입니다. 이것은 약 반년의 손실입니다. Catboost는 모델을 매우 빠르게 굽습니다. 모델 생성, 선택, 거래에서 모델 적용에 이르기까지 모든 것이 이미 실질적으로 자동화되어 있습니다. 그들은 특히 MQL의 모델 인터프리터와 함께 catboost에서 많은 도움을 받았습니다. 새로운 버그가 공개되지 않으면 봄까지 실제 돈으로 모델을 로드할 계획입니다. 모델을 일괄적으로 적용할 것입니다. 각 모델에 대해 1로트, 구매 및 판매를 위한 두 개의 계정이 있을 것입니다.

 
알렉세이 비아즈미킨 :

나는 나만의 방법론이 있는 Doc의 CatBoost와 "마법" 트리를 사용합니다. 현재로서는 실제 계정 에서만 테스트가 진행되고 있습니다. 예측 변수에 많은 문제가 있음이 밝혀졌습니다. 결과적으로 나무를 사용하여 처음부터 배워야 할 것입니다. 이것은 약 반년의 손실입니다. Catboost는 모델을 매우 빠르게 굽습니다. 모델 생성, 선택, 거래에서 모델 적용에 이르기까지 모든 것이 이미 실질적으로 자동화되어 있습니다. 그들은 특히 MQL의 모델 인터프리터와 함께 catboost에서 많은 도움을 받았습니다. 새로운 버그가 공개되지 않으면 봄까지 실제 돈으로 모델을 로드할 계획입니다. 모델을 일괄적으로 적용할 것입니다. 각 모델에 대해 1랏, 구매 및 판매를 위한 두 개의 계정이 있을 것입니다.

Doc의 "마법" 나무는 무엇입니까? 자세한 내용은 어디에서 볼 수 있나요?
 
도서관 :
Doc의 "마법" 나무는 무엇입니까? 자세한 내용은 어디에서 볼 수 있나요?

R에는 나무를 생성하기 위한 유전 알고리즘 이 있는 스크립트가 있으며, 엔트로피를 향상시키기 위해 세대가 선택됩니다. 그런 다음 최종 선택이옵니다. 최종 선택을 위해 모든 나무를 선택하고 MT5에서 별도의 추가 측정을 위해 잎을 추출합니다. 스크립트가 공개적으로 게시되지 않았으므로 자세한 설명은 없습니다. 겉보기에는 숲에서 가장 좋은 나무를 선택하는 방법이지만, 재훈련을 피하기 위한 깊이 제한이 있고, 마지막 샘플의 모든 코어에 대해 약 2일 정도 소요되며, 여기서 모든 막대가 아닌 진입 신호만, 모든 막대가 3년이면 계산은 1.5개월입니다. 계산이 끝나면 트리를 나눕니다. 나는 최고의 인구 트리의 루트 예측자가있는 열을 제거하고 모든 것을 다시 시작합니다. 그러한 절차 40에서도 아주 좋은 잎이 생성되는 것으로 나타났으므로 트리의 최고의 수학적 레이아웃은 다음과 같은 결론에 도달했습니다. 항상 가장 효과적인 것은 아니며, 하나의 정보가 표현을 방해하는 다른 하나는 나중에 동일한 CatBoost에서 사용되는 것으로 판명되었습니다. 예측자가 전체 샘플에서 무작위로 선택되어 하나의 트리를 구축할 때입니다.

 
알렉세이 비아즈미킨 :

그건 그렇고, 사람이 행동 실수로 길을 잃었지만 (비뚤어진 클릭 / 기술 활성화를 잊음) 비표준 전술적 움직임을 사용하여 이길 수있었습니다. 적의 기지 후방에서 그는 부대를 배치하여 기지를 공격할 수밖에 없었고, 그 결과 부대를 더 높은 수준으로 발전시킬 수 있는 시간을 주었습니다. 상대를 제압하고 경기에서 승리합니다.

이것은 예상치 못한 머리핀과 잘못된 탈주로 인해 거래자가 목표에서 멀어지는 방법입니다.

이것은 슬라이딩 창에 대한 조잡한 재작업으로 인해 발생했으며 프로그램이 창에서 혼동을 일으켰습니다. 문제

그 전에는 그런 방울이 쉽게 반격했습니다.

비디오를 주의 깊게 시청

 
알렉세이 비아즈미킨 :

R에는 나무를 생성하기 위한 유전 알고리즘 이 있는 스크립트가 있으며, 엔트로피를 향상시키기 위해 세대가 선택됩니다. 그런 다음 최종 선택이옵니다. 최종 선택을 위해 모든 나무를 선택하고 MT5에서 별도의 추가 측정을 위해 잎을 추출합니다. 스크립트가 공개적으로 게시되지 않았으므로 자세한 설명은 없습니다. 겉보기에는 숲에서 가장 좋은 나무를 선택하는 방법이지만, 재훈련을 피하기 위한 깊이 제한이 있고, 마지막 샘플의 모든 코어에 대해 약 2일 정도 소요되며, 여기서 모든 막대가 아닌 진입 신호만, 모든 막대가 3년이면 계산은 1.5개월입니다. 계산이 끝나면 트리를 나눕니다. 나는 최고의 인구 트리의 루트 예측자가있는 열을 제거하고 모든 것을 다시 시작합니다. 그러한 절차 40에서도 아주 좋은 잎이 생성되는 것으로 나타났으므로 트리의 가장 좋은 수학적 레이아웃이 항상 가장 효과적인 것은 아니며, 하나의 정보가 표현을 방해하는 다른 하나는 나중에 동일한 CatBoost에서 사용되는 것으로 판명되었습니다. 예측자가 전체 샘플에서 무작위로 선택되어 하나의 트리를 구축할 때입니다.

코드(또는 PM)를 첨부하세요. 흥미롭습니다. 어쩌면 새로운 것이 있을지도 모릅니다.

그건 그렇고, Alglib은 각 노드에서 분할을 선택하기 위해 임의의 예측 변수 세트(기본적으로 총계의 50%)를 사용합니다. 이것은 Random Forest 제작자의 표준 접근 방식인 것 같습니다. 결과는 다양한 나무입니다.
그러나 그들 중 가장 좋은 것을 찾기가 어렵습니다. 왜냐하면. 최종 오류의 차이는 1% 이하입니다. 저것들. 모든 트리는 거의 동일한 결과에 도달하지만 한 예측자에 대한 한 트리에서는 더 일찍 분할이 있었고 동일한 예측자에 대한 다른 트리에서는 나중에 분할되었습니다(이전에 분할 목록에서 제외되었기 때문에).


일반적으로 예측 변수의 선택에 문제가 있습니다. 나는 이미 100개의 예측 변수를 확인하려면 1을 추가하고 개선된 결과를 남겨 완전한 열거를 수행한다고 생각합니다. 복잡한 계산 후 루트 예측 변수를 40번 제거하면 전체 검색이 더 쉬울 수 있습니까? 아니면 거기에 수천 개의 예측 변수가 있습니까?

 
알렉세이 비아즈미킨 :

R에는 나무를 생성하기 위한 유전 알고리즘 이 있는 스크립트가 있으며, 엔트로피를 향상시키기 위해 세대가 선택됩니다 . 그런 다음 최종 선택이옵니다. 최종 선택을 위해 모든 나무를 선택하고 MT5에서 별도의 추가 측정을 위해 잎을 추출합니다. 스크립트가 공개적으로 게시되지 않았으므로 자세한 설명은 없습니다. 겉보기에는 숲에서 가장 좋은 나무를 선택하는 방법이지만, 재훈련을 피하기 위한 깊이 제한이 있고, 마지막 샘플의 모든 코어에 대해 약 2일 정도 소요되며, 여기서 모든 막대가 아닌 진입 신호만, 모든 막대가 3년이면 계산은 1.5개월입니다. 계산이 끝나면 트리를 나눕니다. 나는 최고의 인구 트리의 루트 예측자가있는 열을 제거하고 모든 것을 다시 시작합니다. 그러한 절차 40에서도 아주 좋은 잎이 생성되는 것으로 나타났으므로 트리의 최고의 수학적 레이아웃은 다음과 같은 결론에 도달했습니다. 항상 가장 효과적인 것은 아니며, 하나의 정보가 표현을 방해하는 다른 하나는 나중에 동일한 CatBoost에서 사용되는 것으로 판명되었습니다. 예측자가 전체 샘플에서 무작위로 선택되어 하나의 트리를 구축할 때입니다.

당신이 말도 안되는 짓을하고 있다는 것이 밝혀졌습니다. 스캐폴딩 및 부스팅 알고리즘이 작동하는 이유 이론을 읽는 대신 다시 모방합니다.

 
막심 드미트리예프스키 :

이것은 슬라이딩 창에 대한 조잡한 재작업으로 인해 발생했으며 프로그램이 창에서 혼동을 일으켰습니다. 문제

그 전에는 그런 방울이 쉽게 반격했습니다.

비디오를 주의 깊게 시청

불행히도,받은 정보를 분석하지 않고 댓글을 끄고 눈으로 확인하십시오.

이전에는 이러한 상황이 없었으므로 동영상을 주의 깊게 검토하십시오.

 
알렉세이 비아즈미킨 :

불행히도,받은 정보를 분석하지 않고 댓글을 끄고 눈으로 확인하십시오.

이전에는 이러한 상황이 없었으므로 동영상을 주의 깊게 검토하십시오.

alphastar의 알고리즘은 맵의 전체 보기에서 조각별 하나의 재대치를 위해 특별히 변경되었으며 모든 것을 올바르게 완료하지 못했습니다.

봇이 창 사이를 전환하고 프리즘이 어디에 있는지 이해하지 못하고 앞뒤로 움직이는 어리석은 것이 분명합니다.

이것은 버그입니다

당신과 전혀 의사 소통하기 위해 자신을 존중하지 마십시오

사유: