트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2741

 
Aleksey Vyazmikin #:

예, " 샘플에 대한 계산을 위해 R로 스크립트를 만들어 주실 수 있나요?"라고 질문했는데, 실험을 위해 스크립트를 만들어 실행하겠습니다. 실험을 통해 최적의 샘플 크기가 밝혀져야 합니다. "라고 말했지만 이는 이미 수행된 작업에 대한 응답입니다.

앞서 나는 "... 그리고 역학에서 어떻게 시청할 것을 제안하고 실현하는 방법은 무엇입니까? " -여기서는 역학에서 예측자 추정의 구현, 즉 일부 창에 의한 정규 추정에 대해 질문하고 있으며 각 새 샘플의 창인지 또는 각 n 샘플 이후의 창인지 명확하지 않습니다. 그렇게했다면 나는 그것을 이해하지 못했습니다.

게시하신 코드는 훌륭하지만 정확히 무엇을하는지 또는 본질적으로 무엇을 증명하는지 이해하기 어렵 기 때문에 추가 질문을하기 시작했습니다. 그래프가 있는 두 그림은 무엇을 의미하나요?

이 스크립트는 포리스트와 다른 두 가지 알고리즘으로 슬라이딩 창에서 예측 변수의 중요성을 계산합니다... 질문하신 것처럼요.
 
mytarmailS #:

슬라이딩 창에서 모델을 다시 훈련하고 기능의 중요성을 살펴보거나 좋은 기능 식별자를 가져와서 SK. Window.

...

또한 모든 취향에 맞는 다양한 기능 선택기, 아마도 R-ka에서 사용할 수있는 것의 5 %.

단계별로 부동하는 것이 아니라 효과적인 추정치를 얻기위한 부동 창 크기 또는 const , - 그게 문제입니다 - 각 반복에서 창 크기 만 조정 - 모델을 배우는 데 오랜 시간이 걸립니다 .... 그리고 주기적인 수동 재교육은 그 자체로 슬라이딩 창입니다! -- 여전히 주기적으로 (허용 가능한 st.dev를 넘어서는) 재훈련을 수행하게 되며, 자체 재훈련 일정이 있는 경우 이를 자동화할 수도 있습니다. 하지만 반복합니다 - 창 크기 또한 유동적입니다.

...

다른가요? - 여전히 알고리즘적으로 항상(!) 기능 매핑으로 귀결되며, 뭐라고 부르든 간에... 고유 한 뉘앙스와 고유 한 적용 분야 만 있습니다.

모든 사람이 상관관계라고 부르고 싶지 않더라도 말입니다.

산산치 포멘코 # :

저는 예측자-교사 상관 관계의 개념에 의존하고 있습니다. "연계"는 거의 모든 MOE 모델을 맞추는 데 있어 상관 관계 또는 예측자의 "중요성"이 아닙니다.

캐럿 링크 - 동일한 분류 및 회귀 훈련 - 사소한 MO, Python용 스크리런과 동일합니다.

다만 MO는 (기존의 확률 분포에 기반한) 확률적 모델뿐만 아니라 결정론적 모델과 동적 모델을 구축하기 위해 만들어졌지만... 그러나 확률의 일반화의 기초는 항상 (!) 통계 (상관 관계 포함)가 될 것입니다. 그렇지 않으면 편향된(!) 추정치를 얻게 됩니다. 즉, 모델이 목표가 아닌 다른 것을 (무작위로) 모델링하게 되는 것입니다.

 
mytarmailS #:
싸움을 멈추고 하나의 목표를 위해 단결하려면 어떻게 해야 할까요????????

좋은 질문입니다!

---

우리는 구매자가 더 많은지 판매자가 더 많은지 인식해야합니다.

하지만 유일한 문제는 가격이 내려가면 더 많은 구매자가 있다는 것입니다.

 
JeeyCi #:


캐럿 링크 - 동일한 분류 및 회귀 훈련 - 사소한 MO, Python용 스클런과 동일합니다.


자세히 읽어보시면 다음과 같은 내용을 만들어낼 필요가 없습니다.

 
mytarmailS #:
스크립트는 두 가지 다른 알고리즘을 사용하여 슬라이딩 창에서 예측자의 중요성을 계산합니다... 질문하신 것처럼요.

포레스트는 특정 알고리즘에서 예측자 사용 빈도를 제공하므로 대상과 관련이없는 예측자에게 높은 중요성을 쉽게 부여 할 수 있습니다.

 
СанСаныч Фоменко #:

더 자세히 읽고 내용을 지어내지 마세요.

캐럿의 철자가 실제로 그렇게 되어 있으면 더 자세히 읽을 수 없습니다.

 
СанСаныч Фоменко #:

포레스트는 특정 알고리즘에서 예측자의 사용 빈도를 제공하므로 대상과 관련이 없는 예측자에게 높은 중요도를 부여하기 쉽습니다.

반복합니다 : 수십 개의 기성품 피시 선택기가 있으며 모든 사람이 대상과의 연결을 찾고 있으며 모든 것이 이미 오래 전에 우리보다 먼저 발명되었습니다.

 
СанСаныч Фоменко #:

생존 분석의 적용에 대한 힌트를 본 것 같습니다. 이 방향에서 흥미로운 점이 있나요? 손절이 트리거되기 전에 거래 중 원하는 방향으로 최대 가격 변동이 발생한 시간을 분석 시간으로 대체하는 것과 관련된 몇 가지 아이디어가 있습니다. 기본 아이디어는 무작위 방황에 대한 동작에서 편차를 찾는 것입니다. 그런데 이 분야에서는 매트스탯(예를 들어 콕스 회귀) 및 MO의 적용도 매우 발달되어 있습니다.

 
JeeyCi #:

... 창 크기도 부동 창 크기입니다.

ML이 적합한 도구가 되지 못하는 이유는 다음과 같습니다.

ML은 (아마도 무작위적인) 정책을 사용하여 모델과 환경의 상호 작용에 의해 데이터가 생성되는 RL 컨텍스트에서 뚜렷한 문제에 직면합니다.

즉, 먼저 현재 환경을 모델링 한 다음 그 안의 fs와 그에 해당하는 동작, 즉 액터가 상태를 가져야합니다. 이것은 새 창으로 전환하기위한 기초입니다 (일명 플로팅 창 크기 고려) 따라서 새로운 환경 정책과 그 안의 액터의 해당 / 새로운 동작으로 전환합니다 ... 일반적으로 심층 강화 학습이 더 적합 할 수 있습니다.

트레이딩 에이전트를 훈련하려면 가격 및 기타 정보를 제공하고, 트레이딩 관련 행동을 제공하며, 포트폴리오를 추적하여 에이전트에게 그에 따른 보상을 제공하는 시장 환경을 만들어야 합니다.

예를 들어 게임 이론(행위자와 환경의 상호작용)과 정보 이론 (행위자의 반응과 환경의 반응, 즉 새로운 환경 조건이 형성되는, 일명 결과)이 있습니다.... - 그건 그렇고, 나는 SanSanych Fomenko가 정보 이론이라는 용어가 무엇을 의미하는지 이해하지 못했습니다 . .. 아니면 그의 논문이 다시 잘못 읽히고 있습니까?

추신 : 나는 예제를 직접 테스트하지 않았습니다....

machine-learning-for-trading/22_deep_reinforcement_learning at main · stefan-jansen/machine-learning-for-trading
machine-learning-for-trading/22_deep_reinforcement_learning at main · stefan-jansen/machine-learning-for-trading
  • stefan-jansen
  • github.com
Reinforcement Learning (RL) is a computational approach to goal-directed learning performed by an agent that interacts with a typically stochastic environment which the agent has incomplete information about. RL aims to automate how the agent makes decisions to achieve a long-term objective by learning the value of states and actions from a...
 
JeeyCi #:

캐럿이 정말 그 뜻이라면 이보다 더 조심스러울 수 없습니다.

classDist {캐럿}, 즉 캐럿 패키지의 일부인 특정 함수를 지정한다고 나와 있습니다.

제가 알기로는 R을 모르시는군요. 그렇다면 왜이 스레드와 일반적으로 MO에 시간을 낭비하고 있습니까?

R에 대한 숙달 없이는 MO에 대한 논의는 무의미합니다.