트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1275

 
막심 드미트리예프스키 :

당신이 말도 안되는 짓을하고 있다는 것이 밝혀졌습니다. 스캐폴딩 및 부스팅 알고리즘이 작동하는 이유 이론을 읽는 대신 다시 모방합니다.

당신은 다시 신중하게 읽지 않습니다. 특정 기준에 따라 루트 예측자를 버리고 동일한 CatBoost 가 무작위로 수행합니다.

사진 감사합니다. Doc과 소통할 기회가 생겼을 때였습니다.

 
알렉세이 비아즈미킨 :

당신은 다시 신중하게 읽지 않습니다. 특정 기준에 따라 루트 예측자를 버리고 동일한 CatBoost가 무작위로 수행합니다.

사진 감사합니다. Doc과 소통할 기회가 생겼을 때였습니다.

예, 적어도 어떤 이유로 든 폐기하십시오. 알고리즘은 이것에 전혀 의존하지 않습니다 .. 쓰레기로 고통 받고 있음) 기능별 분할 수의 중요성은 루트가 아닌 루트에 달려 있습니다.

 
막심 드미트리예프스키 :

alphastar의 알고리즘은 맵의 전체 보기에서 조각별 하나의 재대치를 위해 특별히 변경되었으며 모든 것을 올바르게 완료하지 못했습니다.

봇이 창 사이를 전환하고 프리즘이 어디에 있는지 이해하지 못하고 앞뒤로 움직이는 어리석은 것이 분명합니다.

이것은 버그입니다

당신과 전혀 의사 소통하기 위해 자신을 존중하지 마십시오

Maxim과 의사 소통하지 마십시오. 강요하지 않습니다. 나는 그들이 무례하기 시작할 때까지 모든 대담자를 존중합니다.

무대 뒤의 댓글을 다시 언급합니다. 무슨 일이 일어났는지 기술적으로 어떻게 상상하십니까? 전체 맵 컬렉션의 프레임 속도가 단순히 감소한 것 같지 않습니까? 네트워크의 눈으로 추정되는 일반 맵의 시각화는 화면 주변의 프레임 단위 빠른 이동으로 인해 발생하며 다른 옵션이 있을 수 없음이 확실합니다. 그리고 "사람이 보는 대로 만들어진다"는 말은 완전히 넌센스이며 사람이 보는 방식에 대한 환상만 반영할 수 있습니다.

봇은 알고리즘에 따라 유닛을 보고 적절하게 반응합니다. 기지를 보호합니다. 문제는 부대를 분리할 수 없다는 것입니다. 기지를 보호하고 공격합니다. 개발, 봇 병합.

 
막심 드미트리예프스키 :

예, 적어도 어떤 이유로 든 폐기하십시오. 알고리즘은 이것에 전혀 의존하지 않습니다 .. 쓰레기로 고통 받고 있음) 기능별 분할 수의 중요성은 루트가 아닌 루트에 달려 있습니다.

무지한 것 같습니다 ... 그런 방법이 책에 설명되어 있지 않으면 분명히 나쁜 것입니다 ...

 
알렉세이 비아즈미킨 :

무지한 것 같습니다 ... 그런 방법이 책에 설명되어 있지 않으면 분명히 나쁜 것입니다 ...

이것은 당신의 무지입니다 .. 논의되고 있는 것이 명확하지 않으며, 몇 가지 특별한 정의와 의미가 얼마나 영리하고 부여되었는지도 불분명합니다))

 
알렉세이 비아즈미킨 :

Maxim과 의사 소통하지 마십시오. 강요하지 않습니다. 나는 그들이 무례하기 시작할 때까지 모든 대담자를 존중합니다.

무대 뒤의 댓글을 다시 언급합니다. 무슨 일이 일어났는지 기술적으로 어떻게 상상하십니까? 전체 맵 컬렉션의 프레임 속도가 단순히 감소한 것 같지 않습니까? 네트워크의 눈으로 추정되는 일반 맵의 시각화는 화면 주변의 프레임 단위 빠른 이동으로 인해 발생하며 다른 옵션이 있을 수 없음이 확실합니다. 그리고 "사람이 보는 대로 만들어진다"는 말은 완전히 넌센스이며 사람이 보는 방식에 대한 환상만 반영할 수 있습니다.

봇은 알고리즘에 따라 유닛을 보고 적절하게 반응합니다. 기지를 보호합니다. 문제는 부대를 분리할 수 없다는 것입니다. 기지를 보호하고 공격합니다. 개발, 봇 병합.

Shurik, 당신은 바보, 미안 해요

 
막심 드미트리예프스키 :

Shurik, 당신은 바보, 미안 해요

왜 그렇게 몸을 가라앉히고 히스테리를 부리는지 모르겠어...

스스로 생각하는 것을 두려워하지 말고 행동하는 사람들을 판단하지 마십시오.

 
알렉세이 비아즈미킨 :

왜 그렇게 몸을 가라앉히고 히스테리를 부리는지 모르겠어...

스스로 생각하는 것을 두려워하지 말고 행동하는 사람들을 판단하지 마십시오.

신이시여 저를 용서해주세요

 
주제가 휴지통으로 바뀌었습니다 :).
 
도서관 :
코드(또는 PM)를 첨부하세요. 흥미롭습니다. 어쩌면 새로운 것이 있을지도 모릅니다.

그건 그렇고, Alglib은 각 노드에서 분할을 선택하기 위해 임의의 예측 변수 세트(기본적으로 총계의 50%)를 사용합니다. 이것은 Random Forest 제작자의 표준 접근 방식인 것 같습니다. 결과는 다양한 나무입니다.
그러나 그들 중 가장 좋은 것을 찾기가 어렵습니다. 왜냐하면. 최종 오류의 차이는 1% 이하입니다. 저것들. 모든 트리는 거의 동일한 결과에 도달하지만 한 예측자에 대한 한 트리에서는 더 일찍 분할이 있었고 동일한 예측자에 대한 다른 트리에서는 나중에 분할되었습니다(이전에 분할 목록에서 제외되었기 때문에).


일반적으로 예측 변수의 선택에 문제가 있습니다. 나는 이미 100개의 예측 변수를 확인하려면 1을 추가하고 개선된 결과를 남겨 완전한 열거를 수행한다고 생각합니다. 복잡한 계산 후 루트 예측 변수를 40번 제거하면 전체 검색이 더 쉬울 수 있습니까? 아니면 거기에 수천 개의 예측 변수가 있습니까?

사실은 그들이 전체의 50%를 차지하더라도 첫 번째 루트 분할에 대해 이 50%에서 이미 명확한 선택이 있다는 것입니다(또는 Alglib에서는 그렇지 않습니까?). CatBoost에는 예측 변수의 무작위 선택이 있을 뿐만 아니라 첫 번째 트리에서 무작위 분할(가중치는 계산에 무작위로 추가됨)도 있습니다.

나는 다른 결과를 얻었고 내 목표는 전체 모델을 평가하는 것이 아니라 높은 확률로 대부분의 샘플을 설명하는 잎을 얻는 것입니다. 그런 다음 이러한 잎사귀는 연도별로 역사를 확인하고 구성을 만들어 전체 시장을 설명하지 못할 수도 있지만 50 %의 확률로 추측하는 것보다 알고있는 것에 대한 정확한 답변이 더 낫다고 생각합니다. 대부분의 시간.

예측자는 이제 600의 영역에 있으므로 완전한 열거는 더 이상 실제가 아닙니다.

사유: