트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3083

 
Maxim Dmitrievsky #:

귀찮은 매개변수를 함수로 바꾸려면 문서에서와 같이 RF의 출력 값 또는 기본 알고리즘을 사용할 수 있습니다. 전혀 모르는 분들을 위해: 선택한 파라미터의 값을 함수 값으로 바꾸세요. 그런 다음 선형 회귀 (또는 다른 알고리즘)가 트리트먼트 효과를 평가하는 메타 러너가됩니다. 이 모든 것이 작동하는 이유와 방법 - 수학을 배워보세요.

그것을 이해하려면 머리로 생각하기 시작할만큼 충분합니다. 그러나 Sanych는 생각없이 무언가를 말하고 싶기 때문에 다시 말도 안되는 말을하기 시작할 것입니다. Sanych, 당신의 이해 부족이 너무 커서 RF 매개 변수를 일종의 증거로 인용하는 것은 절대적으로 믿을 수 없습니다. 나는 당신에게 3 번 썼습니다-RF는 잊어 버리세요. 마지막으로 : 주제를 공부 한 다음 폭언하십시오. 그렇지 않으면 같은 배우지 않은 사람들이 당신을 맹목적으로 믿습니다.

그리고 내 게시물에 대해 아는 사람처럼 (성가신) 내 게시물에 응답하지 마십시오. 왜냐하면 당신은 아무것도 모르고 프 투슈 닉의 격찬처럼 보이기 때문입니다.

출처에 대한 모든 참조는 글에 명시되어 있습니다. 눈먼 새끼 고양이처럼 모든 단어를 찔러야 하나요? 아니면 여러분도 결국 어른인가요?

나는 주머니 속의 당신의 모습이 아니라 기사에 대해 논의하고 있었으며, 당신이 참조하는 문헌 목록에 따르면 많은 것이 있다고 생각합니다.

당신이 게시 한 기사에 대한 토론을 계속하고 싶은 불타는 욕망이 있다면 계속할 준비가되어 있지만, 기사와 내 주장 만, 그리고 당신의 무례 함을 배제하는 형태로 만 계속할 준비가되어 있습니다.


해당 기사에서는 RF에 대해 논의했습니다. 피팅 자체뿐만 아니라 피팅 오류를 계산하는 다른 기능은 보지 못했습니다. 따라서 기사의 텍스트를 가지고 이 아이디어를 반박하는 구체적인 인용문을 제공해 주시기 바랍니다.

 
Lilita Bogachkova #:

머신 러닝 전문가에게 질문이 있습니다. 한 캐릭터의 데이터를 학습에, 다른 캐릭터의 데이터를 검증에, 세 번째 캐릭터의 데이터를 테스트에 사용하는 경우 이것이 좋은 방법 인가요?

또한 테스트 데이터에서 녹색 셀은 매우 우수, 노란색 셀은 양호, 빨간색 셀은 평균이라는 결과를 얻습니다.


그리고 모델 학습을 위한 데이터 수정에 관한 질문도 있습니다. 제 경우에는 60 이상의 값과 40 미만의 값을 찾는 데 어려움을 겪고 있습니다.
그래서 훈련 데이터에서 60 이상의 값과 40 미만의 값을 찾아서 모델에 공급하기 전에 훈련 데이터에 추가로 추가하므로 극값에 대한 정보가 포함된 훈련 데이터를 늘려서 모델의 정확도를 향상시킬 수 있는지 질문합니다.

상품 간의 차이를 구분할 수 없다면 가능합니다. 또는 그 차이를 빼서 강제로 그런 상태로 만들 수도 있습니다.

두 번째 질문은 아마도 불가능할 것입니다. 다른 곳에서는 그라디언트를 자기쪽으로 끌어당기기 때문에 더 틀릴 것입니다. 그러나 그것은 모두 개별적입니다.
 
Maxim Dmitrievsky #:
악기 간의 차이를 구분할 수 없는 경우, 구분할 수 있습니다. 또는 그 차이를 빼서 해당 상태로 강제 설정할 수도 있습니다.

두 번째 질문에서는 아마도 불가능할 것입니다. 다른 곳에서는 그라데이션을 자기쪽으로 끌어당기기 때문에 더 틀릴 것입니다.

현재로서는 그렇게 보입니다.


하지만 이 아이디어를 포기하기 전에 다양한 도구(기호)를 혼합한 다음 극단적인 값만 포함된 데이터를 만들어 모델을 훈련하면 어떤 결과를 얻을 수 있는지 확인해 보겠습니다.

 
Lilita Bogachkova #:

시점에서 실제로 이렇게 보입니다.


하지만 이 아이디어를 포기하기 전에 다양한 악기(캐릭터)를 혼합한 다음 극단값만 포함된 데이터를 생성하여 모델을 훈련하면 어떤 결과를 얻을 수 있는지 확인해 보겠습니다.

한번 시도해 보세요. 하나만 사용했을 때와 여러 개를 사용했을 때의 차이를 느끼지 못했습니다.
 
Maxim Dmitrievsky #:
악기 간의 차이를 구분할 수 없는 경우, 구분할 수 있습니다. 또는 그 차이를 빼서 그 상태로 강제 전환할 수도 있습니다.

요즘에는 훈련, 검증 및 테스트를 위해 다양한 기호를 사용하여 연습하면 예측의 정확도를 높일 수 있습니다. 이 연습의 장점은 데이터 크기에 제한이 없기 때문에 검증이나 훈련에 필요한 만큼의 데이터를 제공할 수 있다는 점입니다.

세 번째 종목으로 테스트할 때 특정 종목에 국한된 좁은 시장 이벤트에 얽매이지 않고 모델이 보편적인 패턴을 찾을 수 있는지 즉시 확인할 수 있습니다.

 
Lilita Bogachkova #:

요즘에는 훈련, 검증 및 테스트를 위한 다양한 기호를 사용하여 예측의 정확도를 향상시킬 수 있습니다. 이 연습의 장점은 데이터 크기에 제한이 없으며 검증이나 훈련에 필요한 만큼의 데이터를 제공할 수 있다는 점입니다.

세 번째 기호로 테스트할 때 모델이 좁은 시장 이벤트에 의해 구동되는 것이 아니라 보편적인 패턴을 찾을 수 있는지 즉시 확인할 수 있습니다.

데이터에 큰 편향이 없는 경우. 심볼마다 신호의 분산이 다르기 때문에 모델이 표류하거나 아예 한 위치에 머물러 있을 수 있습니다. 적어도 부호가 심볼마다 속성을 바꾸지 않는다면 가능합니다.
 
연속으로 4회 이상 반복되는 값 등 여러 번 반복되는 값을 제거하여 학습 데이터를 수정하는 방법에 대한 의견을 듣고 싶습니다.
seq = remove_repeating_values(seq, 5)
제가 알기로는 평평한 시장의 경우 이러한 동일한 값이 수십 개에 이르는 경향이 있습니다. 제 생각에는 모델 학습에 방해가 됩니다.
 
Lilita Bogachkova #:
연속으로 4회 이상 반복되는 값 등 연속으로 여러 번 반복되는 값을 제거하여 학습 데이터를 수정하는 것에 대한 의견을 듣고 싶습니다.
제가 알기로는 평평한 시장의 경우 이러한 동일한 값이 수십 개에 이르는 경향이 있습니다. 이는 모델 트레이닝을 방해하는 요소라고 생각합니다.
일반적으로 모델은 연속이 아닌 무작위로 값을 가져옵니다. 그리고 샘플을 섞는 것은 좋은 판단의 신호입니다 :) LSTM을 폐기하고 샘플을 혼합할 수 있습니다.
 
Maxim Dmitrievsky #:
일반적으로 모델은 값을 연속적으로 나열하지 않고 무작위로 지정합니다.

맞아요,

X_train, X_val, y_train, y_val = train_test_split(inputs_unique, outputs_unique, test_size=test_size_value,
                                                    random_state=random_state_value)

하지만 동일한 값을 가진 숫자가 많으면 데이터의 전반적인 품질에 의문이 생깁니다.
예: seq = ([5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5]) = [5,5,5,5,5,5,5][5]; [5,5,5,5,5,5,5][5]; [5,5,5,5,5,5,5][5] ....
모델에 그러한 훈련 데이터를 공급하는 요점을 모르겠습니다;

그래서 나는 여전히 고유하지 않은 모든 데이터를 선별하고 있습니다.

inputs_unique, indices = np.unique(inputs, axis=0, return_index=True)
outputs_unique = outputs[indices]

제가 틀릴 수도 있지만 모델에 다음과 같은 훈련 데이터도 공급하는 것은 잘못된 것 같습니다:

[1,2,3,4,5] [5];

[1,2,3,4,5] [6];

[1,2,3,4,5] [7];

[1,2,3,4,5] [8];

...

 

안녕하세요 여러분. 이 사이트의 신경망에 관한 많은 기사 시리즈에서 가져온 전문가 조언자를 훈련 시키려고합니다. 나는 그들이 훈련 할 수 없다는 인상을받습니다. 기사 아래에서 저자에게 질문하려고했지만 불행히도 그는 실질적으로 대답하지 않습니다...(

따라서 포럼 회원에게 질문-신경망을 얼마나 훈련시켜야 (무작위가 아닌) 결과를 제공하기 시작할 수 있는지 알려주세요.

기사 27에서 마지막 기사까지 모든 EA를 시도했지만 결과는 동일합니다-무작위입니다. 저자가 지적한 대로 300회에서 1000회까지 훈련했습니다. 전문가 고문이 반복 만있는 경우, 나는 100,000에서 20,000,000 반복에서 2-3 개의 접근 방식으로 여전히 무작위로 수행했습니다.

얼마나 훈련해야합니까? 충분한 훈련 샘플의 크기는 얼마입니까(미리 생성된 경우)?

추신 : Google의 신경망에 대한 간단한 정보는 일반적으로 신경망으로 익숙합니다. 모두는 약 100-200 개의 에포크를 작성하고 이미 결과가 있어야합니다 (그림, 그림, 분류).

사유: