트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2738

 
Aleksey Vyazmikin #:

나는 일반적으로이 모든 것이 쓸모없고 샘플이 클수록 더 좋다고 생각하지만 테스트 할 준비가되어 있으며이를 위해 적절한 도구가 필요합니다. 처음에는 역사에서 시작하더라도 모델 훈련을위한 최적의 영역을 결정할 수있는 도구를 사용하여 미래를 보지 않고도 할 수 있는지 살펴 보겠습니다.

알렉세이, 이것은 당신이 좋아하는 것처럼 정상적인 오버 슈트를위한 작업입니다.
 
mytarmailS #:
이산화는 필터링(정보 압축)의 특수한 경우로, 유용하지 않다면 아예 존재하지 않을 것입니다.... 그것을 만지작 거리는 것은 바보가되는 것입니다.
모 교수님 아하하하.
여과라는 단어에 한곳에서 많은 화상과 수축이 있지만, 그들이 말했듯이 치매와 용기는 하나를 다른 것과 구별하지 못하게합니다.

최근에 학교를 졸업하고 비약적으로 과학에 뛰어 들려고한다면 맥주 한 잔을 마시면서 동료들 앞에서 빛나는 것 외에는 빠른 효과를 기 대해서는 안됩니다.

신경망도 필터라는 걸 잊었네요. 필터링되지 않은 정보를 남용하는 것 같네요.
 
Maxim Dmitrievsky #:
친구들에게 맥주 한 잔 마시며 과시하는 것 말고는 큰돈을 벌 수 있을 거라고 기대하지 마세요.
맞아요, 매일 밤 자기 전에 읽어보세요. 아무것도 모르는 곳에서 엉뚱한 짓 하지 마세요.

나는 모델을 개선하기 위해 재량권을 행사하는 방법을 알고 있고, 당신은 학교로 돌아갑니다!

모 교수님 아하하하))
 
Maxim Dmitrievsky #:
그리고 클로즈 가격의 노이즈는 어디에서 보셨고 어떻게 마쉬카보다 더 나쁜가요? 효과가 없습니다. 무작위로 나눈 값

아마도 MO를 처음 접하는 사람들이 가장 먼저 확인하려고 달려가는 방법 중 하나일 것입니다.

제가 거기에 썼듯이... 먼저 연구 대상과 그 속성을 정의한 다음 MO를 사용하여 인과 관계를 정의해야합니다 (있는 경우).

IO는 새로운 데이터로 가설을 테스트하는 고통없는 방법입니다. 그리고이 사람들은 아무것도 작동하지 않는다고 비명을 지르고 있습니다.

어떤 면에서는 MA가 더 낫습니다:

0. 종가는 틱의 노이즈를 상속받습니다. 말 그대로 바가 닫히기 전에 틱이 생성되었는지 여부, 타이머가 어딘가를 클릭했는지 여부에 관계없이 말입니다. 플러스 또는 마이너스 3 포인트. 증권 거래일에 중요한 개장/종가가 있습니다.

MA 그들은 이미 통합되어 있습니다 (예 - 평균).

2. 그들은 가격을 아주 적절하게 나타냅니다. (그래서 LWMA가 1/3 이상, 1/3 정도는 불필요한 노이즈없이 실제 평활화 된 가격이라고 지적한 이유입니다) 3.

3. 비교하기가 더 편리하고 정규화 할 수 있습니다.

---

마지막으로 - 연구 대상은 무엇인가요?

 
Maxim Kuznetsov #:

일부 포럼 관계자, 더 나아가 "수익성 있는 전문가 자문 및 신호"로 사이트를 채우는 것이 AI의 결과라는 의혹이 있습니다. 즉, NN은 거의 거래에 가까운 주제로 돈을 벌고 있습니다.

절대적으로 신경망과 빅 데이터는 소셜 네트워크의 추세 분석에서 수익을 (거래) 얻습니다. 그렇기 때문에 그들은 후원을 받고 있으며 따라서 다소 일방적이지만 우리의 능력을 넘어서는 것입니다 :-(

답변 감사합니다

 
Maxim Dmitrievsky #:
한 달에 한 번 이상 스레드를 가열하지 않으면 스레드가 죽고 포럼이 지루해집니다

예를 들어, SanSanych는 제 머릿속에도있는 흥미로운 생각을 표명했기 때문에 존경과 존경심을 표명하고 MoD의 전문가들로부터 암묵적으로 승인을 받았습니다.

물론 예측 변수와 결과 사이의 상관 관계를 찾는 목표는 분명한 목표입니다. 제가 발견한 유일한 새로운 점은 전체 훈련에서 약 200개의 유의미한 특징을 발견했지만 특정 데이터의 경우 그 중 5%만 사용한다는 것입니다.

이는 최신 데이터에 대해서만 더 중요한 예측자를 선택하기 위해 시리즈의 상태/속성을 빠르게 파악할 수 있는 몇 가지 방법이 있다는 의미로 이해됩니다. 물론 적절한 선택을 위해서는 데이터의 양이나 길이에 대한 문제가 발생합니다. 하지만 전체 대규모 학습에서 200개의 예측자만 찾아서 선택해도 효과가 있는 것으로 보입니다.

저는 이렇게 봅니다. 계열은 일부 지표에서 안정적인 속성을 가지고 있지만 이러한 지표와 그 수는 섹션마다 다릅니다. MO는 다양한 모델과 그에 따른 모델 설정인 예측자로 설명할 수 있는 계열의 충분한 안정성 기간에 대한 몇 가지 다른 상태를 찾습니다. 예측자의 총 개수는 여러 모델의 총 설정 개수이며, 따라서 모델을 정의하면 이전에 찾은 설정을 빠르게 찾을 수 있습니다.

광범위하게 개발하려면 총 예측자 수와 모델 수를 늘려야 합니다.

현재 사용 가능하고 처리할 수 있는 데이터는 인용문이며, 다른 데이터의 공식화는 유망하지만 과학이라는 SSF의 의견에 동의합니다.

 
Maxim Kuznetsov #:

어떤 면에서는 MA가 더 낫습니다:

0. 종가는 틱에서 노이즈를 상속받습니다. 말 그대로 - 막대가 닫히기 전에 틱이 생성되었는지 여부, 타이머가 어딘가를 클릭했는지 여부. 플러스 또는 마이너스 3 포인트. 증권거래소에서 시가와 종가가 크게 변동하는 날입니다.

MA 그들은 이미 통합되어 있습니다 (예 - 평균).

2. 그들은 가격을 아주 적절하게 나타냅니다. (그래서 LWMA가 1/3 이상 이동하면 1/3이 불필요한 노이즈가 없는 실제 평활화된 가격이라고 지적했습니다).

3. 비교하기 더 편리하고 정규화할 수 있습니다.

---

마지막으로, 연구 대상은 무엇인가요?

저는 Max의 의견에 동의합니다. 짧은 평균과 얇아진 데이터는 이산 사례에서 노이즈와 유용한 신호 측면에서 조사에 동일합니다.

내가 착각하지 않았다면 연구 대상은 증분입니다))))))

 
Valeriy Yastremskiy #:

물론 예측 변수와 결과 사이의 상관 관계를 찾는다는 목표는 분명한 목표입니다.

NF와 MD는 대상과 특성 간의 상관 관계에 대한 아이디어에 지쳤습니다. 하나는 오랫동안 아팠고 다른 하나는 이제 막 시작되었습니다....
기능 선택을위한 알고리즘이이를 수행한다는 사실은 그들에게 발생하지 않으며 이미 수십 개의 그러한 알고리즘이 있습니다 ... 정확히 ...
하지만... 프 투시 닉은 자신의 천재성을 믿고 자신이 새롭고 독특한 것을 창조하고 있다고 굳게 믿습니다.....
그리고 그들은이 아이디어를 발견으로, 지적 노동으로 가지고 있습니다.
CIRC... 모 교수))))

 
mytarmailS #:
NF와 MD는 대상을 기능에 연결한다는 아이디어에 아파하고 있으며, 그중 하나는 오랫동안 아팠고 다른 하나는 막 시작되었습니다 ...
기능 선택을위한 알고리즘이이를 수행한다는 것은 그들에게 발생하지 않으며 이미 수십 개의 그러한 알고리즘이 만들어졌습니다.....
하지만... 프 투시 닉은 자신의 천재성을 믿고 자신이 새롭고 독특한 것을 창조하고 있다고 굳게 믿습니다.....
CIRC... 모 교수))))

나는 여기 아무도 그의 천재성을 믿지 않기를 바라며 개인적인 교차는 단지 뱀파이어주의 심리적 일뿐입니다)))) 그리고 그것이 당사자에게 심리적 이익을 가져다 준다면 그 자리가 있습니다))))))

모든 사람의 툴킷은 거의 동일하고 데이터는 동일하며 인식은 ...

나는 큰 망치가 아니라 작은 망치가 있고 거대한 큰 망치가 전혀 없습니다)))))))

 
Valeriy Yastremskiy #:

도구는 모두 거의 동일하고 데이터는 지금까지 모두 동일하며 보기는 ...

++++
표현이 모든 것을 해결합니다.
사유: