트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3081

 

이 기사는 사소한 결과에 대한 광고 홍보의 완벽한 예시입니다.

'인과적 효과'라는 제목 자체가 우리의 뒤통수를 찌르는데, 다양한 사인을 연구하면서 이것이 인과적 효과 입력 데이터를 입력에 공급하고 결과를 얻은 결과라는 것을 깨닫지 못했기 때문입니다.

저자는 RF를 가져와서 입력 데이터를 입력으로 주고 그 결과로 오류를 얻습니다.

모든 사람이 우리가 MO에서 완전히 새로운 방향을 다루고 있다는 것을 깨닫게 하기 위해 입력 데이터(예측자)를 공변량, RF 알고리즘을 메타 학습자, 전체 프로세스를 인과 효과라고 부릅니다.

인과 효과의 사과자들은 때때로 러시아어에서 공변인이 대상 변수뿐만 아니라 인접한 예측 변수에도 영향을 미치는 예측 변수라는 것을 알지 못합니다. 즉, 모호성을 피하기 위해 더 정확하게 용어를 사용해야 합니다.

RF 알고리즘을 "메타 학습자"라고 부르는 것은 인과 관계 효과에서 또 다른 홍보용 스턴트입니다. 이 알고리즘이 규칙을 생성하는 것은 확실히 학습자가 아니기 때문입니다. 그러나 기계 학습의 광고 관점에서 볼 때 학습자가 있어야 하고 "메타"와 바스타의 중요성에 대해 설명해야 합니다.

이 논문은 RF 대신 어떤(?) MO 알고리즘도 사용할 수 있다고 구체적으로 언급하면서RF를 기본 알고리즘으로 선택한 것을 정당화합니다. 이 생각을 일반화하기 위해 불쾌함, 불쾌함, 성가심이라는 용어가 사용됩니다. 텍스트로 번역하면 "노이즈의 함수", 즉 RF 알고리즘 은 "노이즈의 함수"로 번역해야 할 것입니다. 그러나 그것이 얼마나 복잡하고 아름답게 들리며, 가장 중요한 것은 이전에 RF가 약간의 오류가있는 규칙을 생성한다고 생각했던 독자가 그것을 즐긴다는 것입니다.

우리는 계속할 수 있지만 위의 내용은이 모든 인과 관계 효과를 순수한 광고에 참조하기에 충분합니다. 그런데 진짜 말도 안되는 말이 팔리고 스탠포드 대학의 교수 자리를 얻었을 때 매우 성공적이었고 새로운 고급 트렌드를 따라 잡고 싶어하는 추종자를 얻었습니다.

그렇다면 ME의 최신 첨단 트렌드의 저자는 누구일까요? 참고 문헌의 수로 판단하면 90 년대 초에 농업 연구소를 졸업 한 프로필 교육이없는 빅토르 체 르노 주 코프 한 사람이 있습니다. 나는 수백만 명의 체 르노 주 코프가 교육과 사실에 대한 흐린 의식의 외침 아래 모든 종류의 말도 안되는 것을 달리고 움직였던이 시간을 아주 잘 기억합니다. 그리고 그들 중 많은 사람들이 억만 장자와 최고 정치인이되었습니다.


오늘날 전 세계는 광고의 법칙에 따라 살고 있으며, 모든 분야는 MO가이 컵을 통과 할 것이라고 생각했습니다. 글쎄, 아니.

 
СанСаныч Фоменко #:

이 기사는 사소한 결과의 광고 홍보에 대한 완벽한 예시입니다.

'인과 관계 효과'라는 이름 자체가 우리의 후진성을 꼬집습니다. 다양한 사인을 연구하는 동안 이것이 입력 데이터를 입력으로 주고 결과를 얻는 인과 관계 효과 의 결과라는 것을 깨닫지 못했기 때문입니다.

저자는 RF를 가져와서 입력 데이터를 주고 그 결과로 오류를 얻습니다.

모든 사람이 우리가 MO에서 완전히 새로운 방향을 다루고 있다는 것을 깨닫게 하기 위해 입력 데이터(예측자)를 공변량, RF 알고리즘을 메타 학습자, 전체 프로세스를 인과 효과라고 부릅니다.

인과 관계 효과의 사과자는 때때로 러시아어에서 공변인이 대상 변수뿐만 아니라 인접한 예측 변수에도 영향을 미치는 예측 변수라는 것을 알지 못합니다. 즉, 모호성을 피하기 위해 용어를 더 정확하게 사용해야 합니다.

RF 알고리즘을 "메타 학습자"라고 부르는 것은 인과관계 효과에서 또 다른 홍보용 스턴트입니다. 이 알고리즘이 규칙을 생성하는 것은 확실히 학습자가 아니기 때문입니다. 그러나 기계 학습의 광고 관점에서 볼 때 학생과 "메타"와 바스타의 중요성에 대해 학생들이 있어야합니다 .

이 논문은 RF를 기본 알고리즘으로 선택한 것을 정당화하며, 특히RF 대신 어떤(?) MO 알고리즘도 사용할 수 있다고 명시하고 있습니다. 이 생각을 일반화하기 위해 불쾌감, 불쾌감, 성가심이라는 용어가 사용됩니다. 텍스트로 번역하면 "노이즈의 함수", 즉 RF 알고리즘 은 "노이즈의 함수"로 번역해야 할 것입니다. 그러나 그것이 얼마나 복잡하고 아름답게 들리며, 가장 중요한 것은 이전에 RF가 약간의 오류가있는 규칙을 생성한다고 생각했던 독자가 그것을 즐긴다는 것입니다.

계속할 수 있지만 위의 내용은이 모든 인과 관계 효과는 순전히 광고에 대한효과로 충분합니다. 그런데 진짜 말도 안되는 말이 팔리고 스탠포드 대학에서 교수 자리를 얻었을 때 매우 성공적이었고 새로운 고급 트렌드를 따라 잡고 싶어하는 추종자를 얻었습니다.

그렇다면 ME의 최신 첨단 트렌드의 저자는 누구일까요? 참고 문헌의 수로 판단하면 90 년대 초에 농업 연구소를 졸업 한 프로필 교육이없는 빅토르 체 르노 주 코프 한 사람이 있습니다. 저는이 시간을 잘 기억합니다. 수백만 명의 체 르노 주 코프가 교육과 사실에 대한 흐린 의식의 외침 아래 모든 종류의 말도 안되는 것을 달리고 움직이고 있었고 그들 중 많은 사람들이 억만 장자와 최고 정치인이되었습니다.


오늘날 전 세계는 광고의 법칙에 따라 살고 있으며, 모든 분야는 MO가이 컵을 통과 할 것이라고 생각했습니다. 글쎄, 아니.

읽지 않았기 때문에 분석해 주셔서 감사합니다. 같은 주제에 대한 비디오로 충분했습니다.
 
СанСаныч Фоменко #:

이 기사는 사소한 결과의 광고 홍보에 대한 완벽한 예시입니다.

'인과 관계 효과'라는 이름 자체가 우리의 후진성을 꼬집습니다. 다양한 사인을 연구하는 동안 이것이 입력 데이터를 입력으로 주고 결과를 얻는 인과 관계 효과 의 결과라는 것을 깨닫지 못했기 때문입니다.

저자는 RF를 가져와서 입력 데이터를 주고 그 결과로 오류를 얻습니다.

모든 사람이 우리가 MO에서 완전히 새로운 방향을 다루고 있다는 것을 깨닫게 하기 위해 입력 데이터(예측자)를 공변량, RF 알고리즘을 메타 학습자, 전체 프로세스를 인과 효과라고 부릅니다.

인과 관계 효과의 사과자는 때때로 러시아어에서 공변인이 대상 변수뿐만 아니라 인접한 예측 변수에도 영향을 미치는 예측 변수라는 것을 알지 못합니다. 즉, 모호성을 피하기 위해 용어를 더 정확하게 사용해야 합니다.

RF 알고리즘을 "메타 학습자"라고 부르는 것은 인과관계 효과에서 또 다른 홍보용 스턴트입니다. 이 알고리즘이 규칙을 생성하는 것은 확실히 학습자가 아니기 때문입니다. 그러나 기계 학습의 광고 관점에서 볼 때 학생과 "메타"와 바스타의 중요성에 대해 학생들이 있어야합니다 .

이 논문은 RF를 기본 알고리즘으로 선택한 것을 정당화하며, 특히RF 대신 어떤(?) MO 알고리즘도 사용할 수 있다고 명시하고 있습니다. 이 생각을 일반화하기 위해 불쾌함, 불쾌함, 성가심이라는 용어가 사용됩니다. 텍스트로 번역하면 "노이즈의 함수", 즉 RF 알고리즘 은 "노이즈의 함수"로 번역해야 할 것입니다. 그러나 그것이 얼마나 복잡하고 아름답게 들리며, 가장 중요한 것은 이전에 RF가 약간의 오류가있는 규칙을 생성한다고 생각했던 독자가 그것을 즐긴다는 것입니다.

계속할 수 있지만 위의 내용은이 모든 인과 관계 효과는 순전히 광고에 대한효과로 충분합니다. 그런데 진짜 말도 안되는 말이 팔리고 스탠포드 대학에서 교수 자리를 얻었을 때 매우 성공적이었고 새로운 고급 트렌드를 따라 잡고 싶어하는 추종자를 얻었습니다.

그렇다면 ME의 최신 첨단 트렌드의 저자는 누구일까요? 참고 문헌의 수로 판단하면 90 년대 초에 농업 연구소를 졸업 한 프로필 교육이없는 빅토르 체 르노 주 코프 한 사람이 있습니다. 저는이 시간을 잘 기억합니다. 수백만 명의 체 르노 주 코프가 교육과 사실에 대한 흐린 의식의 외침 아래 모든 종류의 말도 안되는 것을 달리고 움직이고 있었고 그들 중 많은 사람들이 억만 장자와 최고 정치인이되었습니다.


오늘날 전 세계는 광고의 법칙에 따라 살고 있으며, 모든 분야는 MO가이 컵을 통과 할 것이라고 생각했습니다. 글쎄, 아니.

이것은 새로운 정보가 그릇에 들어 가지 않을 때 당신의 전문적인 무능함의 신격화 일뿐입니다. 또는 번역 문제. 나는 공감할 수 있습니다 :)

 
Maxim Dmitrievsky #:

새로운 정보가 더 이상 어떤 방식으로도 그릇에 들어가지 않을 때 욕설의 정점입니다. 아니면 번역 문제일 수도 있습니다. 공감할 수밖에 없네요 :)

모든 용어가 왜곡되고 기본 정보가 인식 할 수 없을 정도로 왜곡됩니다.

왜곡되지 않은 정보를 일반인에게 전달할 수 있나요?

 
СанСаныч Фоменко #:

...

이 논문은 RF를 기본 알고리즘으로 선택한 것을 다소 자세히 정당화하며, 특히 RF 대신 모든 (?) MO 알고리즘을 사용할 수 있다고 규정합니다. 이 생각의 일반화로 성가신, 즉 불쾌감, 불쾌감, 성가신이라는 용어가 사용됩니다. 텍스트로 번역하면 "노이즈의 함수", 즉 RF 알고리즘은 "노이즈의 함수"라고 번역해야 할 것입니다. 그러나 그것이 얼마나 복잡하고 아름답게 들리며, 가장 중요한 것은 이전에 RF가 약간의 오류가있는 규칙을 생성한다고 생각했던 독자가 그것을 즐긴다는 것입니다.

...

나는이 모든 것을 읽고 실용적인 응용 프로그램을 찾고 있었는데 찾지 못했습니까?

이 기사는 훈련이 수행 된 샘플에서 전체 샘플 영역의 편차 측정을 평가하기위한 도구를 제공해야하는 것 같았습니다. 따라서이 도구가 있으면 샘플의 비정상적인 부분을 감지 할 수 있습니다. 이 도구가 있다고 생각하시나요?

 
Aleksey Vyazmikin #:

대중에게 정확한 정보를 전달할 수 있나요?

공감할 수 있습니다.

 
СанСаныч Фоменко #:

입으로 하는 줄 알았어요 ..... 오, 안 돼요.

저도 같은 생각입니다.)))

이 심오한 단어는 이 글 전체를 설명합니다.
 
Aleksey Vyazmikin #:

이 모든 것의 실제 적용 사례를 읽고 검색했는데 찾지 못하셨나요?

이 기사는 훈련이 수행 된 샘플에서 집계 샘플 영역의 편차 측정을 평가하기위한 도구를 제공해야하는 것 같았습니다. 따라서이 도구가 있으면 샘플의 비정상적인 부분을 감지 할 수 있습니다. 이 도구가 있다고 생각하시나요?

기사에는 없습니다.

교차 검증을 포함하여 원래 예측자의 다른 부문에 대한 일반적인 피팅을 설명합니다. 단어로 위장된 루틴입니다.

 
СанСаныч Фоменко #:

기사에 없는 내용입니다.

교차 검증을 포함하여 원래 예측자의 다른 분할을 사용한 일반적인 피팅이 설명되어 있습니다. 단어로 위장된 루틴입니다.

전문가 의견에 감사드립니다.

 
Maxim Dmitrievsky #:


및 노이즈 함수(또는 매개 변수)는 노이즈 함수가 아니라 특정 작업의 대상 함수가 아닌 보조 함수입니다.


기사에서 이러한 "보조" 기능의 보기에 대한 링크를 제공할 수 있나요?

동시에 기본 함수라고 불리며 작업의 결과로 많은 정보를 계산하는 RF를 사용하는 이유는 상당히 자세히 설명되어 있습니다:

다음 구성 요소를 가진 목록 인 randomForest 클래스의 객체입니다:

call

무작위 숲에 대한 원래 호출

유형

회귀, 분류 , 또는 비지도 하나.

predicted

가방 외 샘플을 기반으로 한 입력 데이터의 예측 값입니다.

중요도

nclass + 2(분류용) 또는 2(회귀용) 열이 있는 행렬입니다. 분류의 경우, 첫 번째 nclass 열은 정확도의 평균 감소로 계산된 클래스별 측정값입니다. nclass + 첫 번째 열은 모든 클래스에 대한 평균 정확도 감소율입니다. 마지막 열은 지니 지수의 평균 감소율입니다. 회귀의 경우 첫 번째 열은 정확도의 평균 감소율이고 두 번째 열은 MSE의 평균 감소율입니다. 중요도=FALSE 인 경우 마지막 측정값은 여전히 벡터로 반환됩니다.

중요도SD

순열 기반 중요도 측정값의 "표준 오차"입니다. 분류의 경우 중요도 행렬의 첫 번째 n클래스 + 1열에 해당하는 n클래스 + 1 행렬에 의한 p입니다. 회귀의 경우, 길이 p 벡터입니다 .

localImp

사례별 중요도 측정값을 포함하는 p×n 행렬로, [i,j] 요소는 j 번째 사례에서 i 번째 변수의 중요도입니다. localImp=FALSE이면 NULL입니다.

ntree

성장한 나무의 수입니다.

mtry

각 노드에서 분할을 위해 샘플링된 예측자 수입니다.

forest

(전체 포리스트가 포함된 목록, 랜덤포레스트가 비지도 모드에서 실행되거나 keep.forest=FALSE인 경우 NULL입니다.

err.rate

(분류 전용) 입력 데이터에 대한 예측의 벡터 오차율로, i 번째 요소는 i 번째까지의 모든 트리에 대한 (OOB) 오차율입니다.

혼동

(분류 전용) 예측의 혼동 행렬(OOB 데이터 기반).

votes

(분류 전용) 각 입력 데이터 포인트에 대해 하나의 행과 각 클래스에 대해 하나의 열이 있는 행렬로, 무작위 포리스트에서 (OOB) '투표'의 비율 또는 수를 제공합니다.

oob.times

케이스가 '아웃 오브 백'인 횟수(따라서 OOB 오류 추정치를 계산하는 데 사용됨).

근접성

랜덤 포레스트가 호출될 proximity=TRUE이면 입력 사이의 근접도 측정 행렬(데이터 포인트 쌍이 동일한 터미널 노드에 있는 빈도를 기준으로 함)입니다.

mse

(회귀에만 해당) 평균 제곱 오차 벡터: 제곱된 잔차의 합을 n 으로 나눈 값입니다.

rsq

(회귀에만 해당) "의사 R-제곱": 1 - mse / Var(y).

test

테스트 집합이 주어진 경우(xtest 또는 추가적으로 ytest 인수를 통해), 이 구성 요소는 테스트 집합에 해당하는 예측, err.rate, confusion, votes ( 분류용) 또는 예측, mse rsq ( 회귀용)를 포함하는 목록입니다. 근접성 = TRUE 경우 테스트 세트 간의 근접성 및 테스트 데이터와 학습 데이터 간의 근접성을 포함하는 근접성이라는 구성 요소도 있습니다.


위의 목록에서 저자가 정확히 무엇을 사용하는지는 알 수 없지만, RF를 사용할 때 분류 또는 회귀 오류를 결정하는 다른 소스는 없으며 그럴 필요도 없습니다.

RF에 의해 생성되는 오류는 입력 데이터의 조합에 따라 달라집니다. 이것이 저자가 연구하고 오류 분산과 계산된 편향에 대해 결론을 도출한 것입니다.