트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2962

 
Maxim Dmitrievsky #:
전 세계적으로 영향을 미치지 않습니다.

가장 중요한 것은 그것을 믿고 더 자주 반복하거나 그 반대의 경우도 마찬가지입니다.

 
mytarmailS #:

가장 중요한 것은 그것을 믿고 더 자주 반복하거나 그 반대의 경우도 마찬가지입니다.

무언가를 해냈는데 처음부터 무의미하다는 말을 들으면 실망스럽다는 것을 잘 알고 있습니다.)
최소한 어떤 일이 있었는지 컷을 보여주세요.
 
Maxim Dmitrievsky #:
어떤 일을 했는데 애초에 무의미한 일이었다는 말을 들으면 정말 답답하죠 :)
그럼 최소한 FFFtit에 있는 컷이라도 보여주세요.

제가 컷에 대해 자랑한 적이 있나요?

FF를 통한 훈련에는 한계가 없지만 타겟팅을 통한 훈련에는 한계가 있다는 말입니다....

 
mytarmailS #:

제가 컷에 대해 자랑한 적이 있나요?

FF로 훈련하는 데는 한계가 없지만 타겟팅으로 훈련하는 데는 한계가 있다는 말입니다.

저는 예를 들어 성배를 만들기 위해 실용적인 훈련을 하려고 노력하는 것뿐입니다.
 
mytarmailS #:

제가 컷에 대해 자랑한 적이 있나요?

FF를 통한 훈련에는 제한이 없지만 타겟팅을 통한 훈련에는 제한이 있다는 말씀입니다.

저와 말다툼을 시작한 건 당신이었고 포멘코가 그걸 알아차렸죠.)

마음이 바뀌었나요?

 
Maxim Dmitrievsky #:
예를 들어 성배를 만들기 위해 실용적인 방향으로 나아가고자 하는 것뿐입니다.

FF의 개념을 다른 각도에서 바라볼 필요가 있습니다. 오류를 최소화하는 것도 FF입니다.

사실 FF의 선택은 훈련 데이터의 선택만큼이나 중요합니다. FF는 모델이 해야 할 일과 하지 말아야 할 일, 즉 필요한 TC 동작은 극대화하고 불필요한 TC 동작은 최소화하는 것을 고려해야 합니다.

 
Andrey Dik #:

당신이 먼저 저와 논쟁을 벌였고, 포멘코가 그걸 알아차렸어요...)

그래도 마음이 바뀌었나요?

내가 FF가 표적보다 낫지 않다고 주장했었나요?

그건 어디서 나온 말이지?

헛소리 냄새가 나네

 
mytarmailS #:

그럼 FF가 타깃보다 낫지 않다는 말씀이신가요?

어디까지 했나요?

헛소리 냄새가 나네요.

저는 원래 모든 학습은 FF를 극대화하는 것이라고 말했죠.

당신과 포멘코는 그런 접근 방식이 과잉 훈련으로 이어질 것이라고 주장했고, 동시에 저는 과잉 훈련이 발생하면 FF가 제대로 설계되지 않았다고 말했죠.

무슨 뜻인지 모르겠습니다.)

낯선 사람을 '찌르는' 습관을 버리셨다니 이미 좋은 일입니다.

 
Andrey Dik #:

저는 원래 모든 학습은 FF를 극대화하는 것이라고 말씀드렸습니다.

당신과 포멘코는 그런 접근 방식이 과훈련으로 이어질 것이라고 주장했고, 동시에 저는 과훈련이 발생하면 FF가 제대로 설계되지 않았다고 말했죠.

무슨 뜻인지 모르겠네요.)))

낯선 사람을 '찌르는' 습관을 버리셨다니 이미 좋은 일입니다.

나는 오래 전에 대화가 조금 달랐고 지금은 일반적으로 상당히 다르고 다르다고 확신합니다 ....


네, 새해 전야 이후부터는 모든 사람을 "당신"이라고 부르기로 결정했습니다.

 
Andrey Dik #:

FF의 개념을 다른 각도에서 바라볼 필요가 있습니다. 오류를 최소화하는 것도 FF입니다.

사실 FF의 선택은 학습 데이터의 선택만큼이나 중요합니다. FF는 모델이 해야 할 일과 하지 말아야 할 일, 즉 필요한 TC 액션은 극대화하고 불필요한 TC 액션은 최소화하는 것을 고려해야 합니다.

제가 볼 수 있는 유일한 옵션은 훈련 외부, 테스트에서 최적화하고 훈련에서 MO를 훈련하는 것입니다. 이것은 다른 역사적 시대에서 공통된 것을 가져온다는 측면에서 여전히 어느 정도 의미가 있습니다.
사유: