트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1911

 
막심 드미트리예프스키 :
이동 중에 작성) 100개가 아닌 24개 열. 파일을 직접 요청했습니다. 오류가 없습니다(설명). 300개의 홀수 줄은 내가 당신에게 1년을 주었으므로 당신의 '발전기'가 셀 수 없도록 하기 위함입니다))) 하지만 계속하십시오. 끝내지는 못했지만 희망찬 시작입니다. 나중에 전체 리뷰를 올리겠습니다. 동영상 형식으로 답변해야 할 것 같습니다
네, 맥심, 죄송합니다. 귀하의 교육 파일은 아니지만 메시지의 의미는 분명하다고 생각합니다. 24개의 열은 2000개의 벡터를 반복 없이 설명할 수 없습니다. 물리적으로 불가능할뿐..
 
마이클 마르쿠카이테스 :

내 더티 파일은 24개 리그를 차지하는 7700개 열로 구성되어 있으므로 계속하지 말고 여기를 보세요. 여기 당신의 파일이 있습니다

그리고 여기 내꺼야

차이점은 무엇입니까???? 나는 게으르지 않을 것입니다. 주성분을 분석할 때 각 열이 고유한 좌표계인 경우 서로 다른 열의 점이 하나의 공통 좌표계에 표시될 수 있는 경우 해당 열을 그룹화할 수 있는 것이 중요합니다. 해석은 간단합니다. 수직 및 수평 벡터가 많을수록 좋습니다. 당신은 이 멍청하게 균일한 자리를 가지고 있습니다.

조금 알아냈어요. 사실 벡터 사이의 각도가 상관관계를 보여줍니다(90g = 0 상관관계). 나는 지연 증가를 제공합니다. 거기에는 상관 관계가 없습니다. 마치 백색 잡음과 같습니다.

50개의 훈련 예제(50줄)를 통해 얻을 수 있다는 사실은 놀랍습니다. 그리드가 얼마나 정밀해야 하는지입니다. 데이터를 설명할 수 있는 불필요한 기능(이상적으로는 최대 1개)을 버리려면 많은 예가 필요합니다.

 
마이클 마르쿠카이테스 :
네, 맥심, 죄송합니다. 귀하의 교육 파일은 아니지만 메시지의 의미는 분명하다고 생각합니다. 24개의 열은 2000개의 벡터를 반복 없이 설명할 수 없습니다. 물리적으로 불가능할뿐..


흔적에. 내가 춤을 추면

 
막심 드미트리예프스키 :

흔적에. 내가 춤을 추면

vtreet는 pc를 사용하지 않습니다. 전혀 그렇지 않습니다. 나는 그들이 무엇을 하고 있는지 이해하지 못했다.

누락된 값을 사전 처리합니다. 등 + 그들은 새로운 기능을 만들지만 기능 유도로 배치하지 않고 기능의 중요성도 고려하지만 기능 선택으로 배치하지 않으므로 그것이 무엇이며 어떻게 작동하는지 모릅니다.



"RSA는 선형이고 그냥 쓰레기통에 버릴 수 있다는 사실"에 대해

여기에서 나는 + - 98%의 정확도로 새로운 데이터에 대한 RSA 분해로부터 가격을 수집할 수 있다고 장담합니다.

나는 그것을 증명할 수 있습니다. 그래서 여기 당신이 틀렸습니다. 아마도 그것이 선형이라는 것이 멋질 수도 있습니다. 그렇지 않으면 나는 그것을 수집하지 않았을 것입니다.

 
막심 드미트리예프스키 :


흔적에. 내가 춤을 추면

일반적으로 열이 입력(변수 설명)이고 행이 학습 벡터 또는 예제라는 용어에 동의합니다. 일부 학습 알고리즘의 경우 열보다 행이 적을 때 이것이 중요할 수 있지만 열보다 행이 많을 때 모델을 재교육 영역으로 끌어들이는 동일한 예제가 근처에 있습니다. 24개의 설명 변수(열)로 350개의 예(행)를 설명하고 반복을 피하는 것은 불가능합니다.

일반적으로 저는 PCA를 어떤 식으로든 사용하지 않습니다. 다른 사용자를 위한 예시일 뿐입니다. 이를 통해 결과 집합을 어느 정도로 나눌 수 있는지 평가할 수 있습니다.


추신 Pod..eb에 노래가 포함되어 있습니다. 잘하셨어요!

 
즉, 이론적으로 가장 멋진 훈련 행렬은 열과 행의 개수가 같을 때 정방형입니다.... 흠... 그건 그렇고, 여기에서 훈련을 위해 이렇게 많은 예를 들어야겠다는 생각이 들었습니다. 전처리 후에도 같은 수의 열이 남는다 .... 이건 아이디어다... 그럼 .... 100% 정방행렬에는 반복이 없다 ....
 
마이클 마르쿠카이테스 :

일반적으로 열이 입력(변수 설명)이고 행이 학습 벡터 또는 예제라는 용어에 동의합니다. 일부 학습 알고리즘의 경우 열보다 행이 적을 때 이것이 중요할 수 있지만 열 보다 행이 많을 때 모델을 재훈련 영역으로 끌어들이는 동일한 예제가 근처에 있습니다 . 24개의 설명 변수(열)로 350개의 예(행)를 설명하고 반복을 피하는 것은 불가능합니다.

일반적으로 저는 PCA를 어떤 식으로든 사용하지 않습니다. 다른 사용자를 위한 예시일 뿐입니다. 이를 통해 결과 집합을 어느 정도로 나눌 수 있는지 평가할 수 있습니다.


추신 Pod..eb에 노래가 포함되어 있습니다. 잘하셨어요!

클래스 레이블의 수가 매우 다른 경우에만(클래스가 균형을 이루지 않음)

나는 당신과 함께 아무것도하지 못했습니다 .. 가장 유명한 마술사이자 마법사)))

 
마이클 마르쿠카이테스 :

모델을 재교육 영역으로 끌어들이는 동일한 예가 근처에 있습니다.

이러한 "동일한 예"는 통계적으로 중요한 구조를 생성할 뿐입니다. 통계란 무엇입니까? 이것은 무언가가 반복되고 이것으로부터 몇 가지 결론을 도출할 수 있을 때입니다.

마이클 마르쿠카이테스 :

24개의 설명 변수(열)로 350개의 예(행)를 설명하고 반복을 피하는 것은 불가능합니다.

반복에 대해 무엇을 좋아하지 않았습니까?

 
mytarmailS :

이러한 "동일한 예"는 통계적으로 중요한 구조를 생성할 뿐입니다. 통계란 무엇입니까? 이것은 무언가가 반복되고 이것으로부터 몇 가지 결론을 도출할 수 있을 때입니다.

반복에 대해 무엇을 좋아하지 않았습니까?

거짓말에는 거짓말, 저주받은 거짓말, 통계 의 세 가지 종류가 있습니다. — 마크 트웨인

반복은 암기로 이어지지만 네트워크를 일반화해야 합니다. 즉, 새로운 벡터가 누워 있는 벡터 근처에 나타날 때 네트워크가 적절하게 반응하도록 하나의 고유한 벡터를 제출해야 합니다. 세트에 근처 벡터 그룹이 있는 경우 네트워크는 단순히 이를 기억합니다....

즉, 알고리즘은 이 두 개의 가까운 벡터에 비합리적으로 큰 가중치를 할당합니다....

 
막심 드미트리예프스키 :

클래스 레이블의 수가 매우 다른 경우에만(클래스가 균형을 이루지 않음)

나는 당신과 함께 아무것도하지 못했습니다 .. 가장 유명한 마술사이자 마법사)))

처음에는 두 개의 클래스에 대해 이야기하고 있으며 더 이상은 아닙니다. 세 개 이상의 클래스가 있는 경우 열보다 행이 더 많은 고유 벡터 테이블을 생성할 수 있지만 고유성은 대상에 의해 독점적으로 결정됩니다.
사유: