그것은 시장 전체에 대한 접근 방식에 달려 있습니다. 예를 들어 예측 변수를 선택하고 모델을 얻은 후 이러한 동일한 메트릭을 훈련된 모델의 결과에 적용할 수 있습니다. 그리고 여러 모델이 훈련된 경우 이러한 메트릭을 사용하여 올바른 모델을 선택하십시오. 여러 면에서 여기에 문제가 있습니다. 10개의 모델을 받은 후에는 미래에 최고가 될 모델을 정확히 선택해야 합니다. 그리고 VI 또는 동일한 숲을 구축하여이 작업을 수행 할 수 있지만 얻은 모델의 결과에 따라 .... IMHO
그것은 시장 전체에 대한 접근 방식에 달려 있습니다. 예를 들어 예측 변수를 선택하고 모델을 얻은 후 이러한 동일한 메트릭을 훈련된 모델의 결과에 적용할 수 있습니다. 그리고 여러 모델이 훈련된 경우 이러한 메트릭을 사용하여 올바른 모델을 선택하십시오. 여러 면에서 여기에 문제가 있습니다. 10개의 모델을 받은 후에는 미래에 최고가 될 모델을 정확히 선택해야 합니다. 그리고 VI 또는 동일한 숲을 구축하여이 작업을 수행 할 수 있지만 얻은 모델의 결과에 따라 .... IMHO
진심이 말했다!!!! 주제 계속 .... 알다시피, 나는 R을 비틀기 시작했고 각 입력과 출력 사이의 VI를 계산하는 것이 최대값을 감쌀 수 있었지만 이것은 입력 데이터의 수를 줄이기에 충분했습니다. 110 ~ 20-30, 입력된 데이터는 최대 출력 정보를 가진 데이터로 유지됩니다. 결과적으로 모델은 점점 더 자주 내 테스트를 통과하기 시작했습니다. OOS에서는 어떻게 되는지 봅시다. 주가 표시됩니다.
그러나 하나의 VI 메트릭으로는 충분하지 않을 것이라고 생각합니다. 중복성을 계산하고 열 수를 더 줄이려고 노력해야 합니다.
상호 정보 외에 출력에 대한 입력 데이터를 평가할 수 있는 기성 기능이 있을지도 모릅니다????
완전히, 그리고 나는 이 스레드에서 처음이 아니라 이것에 대해 씁니다.
기계 학습 모델 외부에서 사용되는 예측자 선택 알고리즘은 좋은 결과를 제공합니다. 알고리즘에 내장된 알고리즘은 이 알고리즘의 일부이며 예측자가 이 특정 알고리즘에서 어떻게 사용되었는지 알려주는 것일 뿐 중요도에 대한 정보는 아니기 때문입니다. 대상 변수.
캐럿의 알고리즘은 매우 효과적이며 그 중 세 가지가 있습니다. 일반적으로 모든 것이 복합물에 있기 때문에 이 패키지를 가져와야 합니다. 데이터 마이닝, 예측 변수 선택, 모델 무리, 모델 선택 및 평가뿐만이 아닙니다. 누구에게나 이 캐럿은 "무슨 일이 일어나는가"라는 주제에 대한 교과서로 사용될 수 있습니다.
소비된 컴퓨팅 성능을 고려하지 않고 거래를 준비하는 데 걸리는 시간만 고려하면 매우 흥미로운 그림을 얻을 수 있습니다. 나는 다음을 수행합니다.
토요일에는 4~8시간(근무일)을 사용하여 모델을 만들지 않고 모델을 만들고 금요일에는 환경 보호 차원에서 차량의 성능을 판단합니다. 그래서 다음주를 준비하며 토요일을 보낸다. 그리고 시장이 너무 빨리 변하고 있다는 사실에 대해 당신의 생각이 절대적으로 옳습니다. 따라서 5년 동안 모델을 구축하는 것은 어리석은 일입니다. 일반적으로 차량이 제 시간에 훈련 영역의 50%를 작동한다면 이는 상당히 가치 있는 결과라고 생각합니다. 결과적으로 큰 모델은 의미가 없다는 것을 깨닫고 훈련의 질(훈련 기간이 길수록 모델이 나빠짐) 면에서 더 나빠질 것이기 때문에 나는 훈련 영역을 TS가 적어도 일주일 동안 일할 수 있도록 2주. 그 결과 대략 10개 정도의 모델을 얻고, 온갖 테스트를 거쳐 모델을 실행하고, 이제는 온갖 통계적 메트릭을.... 이 테스트를 통과한 것들만 정확히 골라서 VPS에 올리고 ... ... 다음 토요일까지 무료입니다. 로봇 운송업자가 스스로 강타하고 있으며, 나는 명령 실행을 위해서만 그를 제어합니다. 그래서 ... 나는 갇히지 않도록 본다. 예전에는 매일 아침 TS에 들어가서 하나의 매개변수를 설정해야 했는데 지금은 이 병이 없어져서 VPS에 가끔 가는데 2~3일에 한 번씩 들어가고 그 동안 거래가 없으면 이번에는 그렇지 않으면 ... 모든 것을 말과 함께 서신으로 보내십시오. 결과적으로 나는 거래마다가 아니라 몇 주 만에 내 작업을 평가합니다. 플러스 또는 마이너스의 주, 중요한 것은 플러스 주가 더 많다는 것입니다. 그러나 사실은 다음과 같습니다.
나는 토요일에 5시간을 보냈고 다음 주에는 바지를 입고 손을 잡고 시장에 대해 생각하지 않고 학생들에게 모든 종류의 컴퓨터 트릭을 가르칠 것입니다. 손을 잡고 거래하는 것은 한 가지 단점이 있습니다. 하루 종일 모니터 앞에 앉아서 병합할 수 있으므로 금전적 손실은 물론 시간낭비로 이어집니다. 그리고 아시다시피 시간은 재생 가능한 자원이 아닙니다 !!!!!
따라서 거래하는 경우 로봇으로 만 시장에서 가능한 한 적은 시간을 보내려고 노력하여 시장에서 실패하는 경우 경제의 실제 부문 (일, coven, etc.) 글쎄요.. 생각을 크게 소리내어 말하지만 가장 하고 싶은 말은 또 반복하고 싶습니다.
끊임없이 변화하는 시장에서 대형 모델을 구축하는 것은 의미가 없습니다. 큰 모델이 무엇이든 작은 모델만큼 빨리 쓸모없게 될 것이고, 일반적으로 작은 모델만이 훈련 결과 면에서 더 나은 것으로 밝혀지고 더 빨리 구축됩니다.
시장을 따라가는 적응형 모델에 대해 이야기하면 새로운 데이터가 모델 자체의 구조를 조정하면 그러한 모델도 오래 가지 않습니다. 시간 간격이 지나면 자동으로 재교육되는 자가 학습 시스템이 스스로 선택하는 경우 등은 예외입니다. 여기에서 그것은 분명히 지적인 느낌을 주지만 이것은 아직 멀었다고 생각합니다. 물론이죠!
시장을 따라가는 적응형 모델에 대해 이야기하면 새로운 데이터가 모델 자체의 구조를 조정하면 그러한 모델도 오래 가지 않습니다. 시간 간격이 지나면 자동으로 재교육되는 자가 학습 시스템이 스스로 선택하는 경우 등은 예외입니다. 여기에서 분명히 지적인 느낌이 들지만 이것은 아직 멀었다고 생각합니다. 물론이죠!
그것은 오랫동안 거기에 있습니다 :) 작동하고 지속적으로 재 훈련 된 다음 "활동"의 결과는 신경망에 의해 근사화되고 이러한 추정치는 새로운 결정과 후속 조정을 내리는 데 일정한 확률로 사용됩니다
적어도 접근 방식은 외환에 대해 적어도 더 논리적입니다.
대략적으로 말하자면, 그러한 시스템은 지속적으로 다른 상태로 파고들고, 그것이 한 일을 기억하고, 결과를 분석하고 경험을 기반으로 결정을 내립니다. 훈련이지 우리가 지금까지 한 것과 같은 일반적인 근사치가 아닙니다.
기계 학습 모델 외부에서 사용되는 예측자 선택 알고리즘은 좋은 결과를 제공합니다. 알고리즘에 내장된 알고리즘은 이 알고리즘의 일부이며 예측자가 이 특정 알고리즘에서 어떻게 사용되었는지 알려주는 것일 뿐 중요도에 대한 정보는 아니기 때문입니다. 대상 변수.
캐럿의 알고리즘은 매우 효과적이며 그 중 세 가지가 있습니다. 일반적으로 모든 것이 복합물에 있기 때문에 이 패키지를 가져와야 합니다. 데이터 마이닝, 예측 변수 선택, 모델 무리, 모델 선택 및 평가뿐만이 아닙니다. 누구에게나 이 캐럿은 "무슨 일이 일어나는가"라는 주제에 대한 교과서로 사용될 수 있습니다.
어떻게 든 내가 직접 리뷰를 작성했는데 유용 할 수 있습니다.
네 감사합니다! 캐럿이 설치되었습니다. 나는 연기가 날 것이다. 하지만 바로 지금 여기에서 깨달았습니다. 나는 현재 약 110개의 항목을 가지고 있으며 이것은 내가 공식화하고 수집할 수 있는 최대 수입니다. 저는 오래전에, 약 3년 정도 전에 했고, 이 입력들이 생각만큼 좋지 않으면 어쩌나 하는 생각이 들어서, 내 차량에 대한 입력 검색을 재개하자는 생각을 하게 되었습니다. !!!! 또한 통계 메트릭을 사용하면 이 작업을 훨씬 더 쉽게 수행할 수 있습니다. 먼저 모든 것을 공통 더미에 던진 다음 걸러내고 특정 기준에 따라 중요한 것만 남겨둡니다.
나는 CD에서 Denis에게 연락했고 그는 완전히 다른 성격을 가졌지만 시장과 관련된 또 다른 일련의 데이터를 얻을 수 있도록 도와주겠다고 약속했습니다. 마찬가지로 N개의 막대 기간 동안 데이터를 가져오는 것은 옳지 않다고 생각합니다. 이 경우에는 시간 척도로 이동하지만 가격 척도로 수익을 올리기 때문입니다. 따라서 시장은 시간이 아닌 가격 규모(프로파일)의 틀 내에서 분석되어야 합니다. 실제로 Denis가 델타 프로필의 구성을 돕겠다고 약속한 것 등. 그리고 이러한 데이터는 N 막대당 델타보다 AI에 훨씬 더 흥미로울 것입니다. 게다가 그는 여전히 CME 한 잔을 휘젓고 있어 올림픽에 갈 수 있을 것이고, 이것은 볼륨과 함께 이미 HOGOGOOOOO!!!!!. 물론 OI는 날씨를 만들지 않지만 차량 성능이 5-10% 증가하면 이 비율이 충분하지 않기 때문에 문제가 되지 않습니다 ......
그러나 이러한 모든 통계적 접근 방식은 Forex와 관련이 없습니다. :)
그래서, 당신의 두뇌를 잃게그것은 시장 전체에 대한 접근 방식에 달려 있습니다. 예를 들어 예측 변수를 선택하고 모델을 얻은 후 이러한 동일한 메트릭을 훈련된 모델의 결과에 적용할 수 있습니다. 그리고 여러 모델이 훈련된 경우 이러한 메트릭을 사용하여 올바른 모델을 선택하십시오. 여러 면에서 여기에 문제가 있습니다. 10개의 모델을 받은 후에는 미래에 최고가 될 모델을 정확히 선택해야 합니다. 그리고 VI 또는 동일한 숲을 구축하여이 작업을 수행 할 수 있지만 얻은 모델의 결과에 따라 .... IMHO
그것은 시장 전체에 대한 접근 방식에 달려 있습니다. 예를 들어 예측 변수를 선택하고 모델을 얻은 후 이러한 동일한 메트릭을 훈련된 모델의 결과에 적용할 수 있습니다. 그리고 여러 모델이 훈련된 경우 이러한 메트릭을 사용하여 올바른 모델을 선택하십시오. 여러 면에서 여기에 문제가 있습니다. 10개의 모델을 받은 후에는 미래에 최고가 될 모델을 정확히 선택해야 합니다. 그리고 VI 또는 동일한 숲을 구축하여이 작업을 수행 할 수 있지만 얻은 모델의 결과에 따라 .... IMHO
아이고, 끊임없이 변화하는 시장에서 너무 노동 집약적이라고 생각합니다.
효율성에 대해 이야기하면 이 접근 방식은 효율성이 낮고 효과적이지 않습니다.
데이터 마이닝을 위한 데이터 마이닝은 나에게 좋지 않습니다. 흥미로운
진심이 말했다!!!! 주제 계속 .... 알다시피, 나는 R을 비틀기 시작했고 각 입력과 출력 사이의 VI를 계산하는 것이 최대값을 감쌀 수 있었지만 이것은 입력 데이터의 수를 줄이기에 충분했습니다. 110 ~ 20-30, 입력된 데이터는 최대 출력 정보를 가진 데이터로 유지됩니다. 결과적으로 모델은 점점 더 자주 내 테스트를 통과하기 시작했습니다. OOS에서는 어떻게 되는지 봅시다. 주가 표시됩니다.
그러나 하나의 VI 메트릭으로는 충분하지 않을 것이라고 생각합니다. 중복성을 계산하고 열 수를 더 줄이려고 노력해야 합니다.
상호 정보 외에 출력에 대한 입력 데이터를 평가할 수 있는 기성 기능이 있을지도 모릅니다????
완전히, 그리고 나는 이 스레드에서 처음이 아니라 이것에 대해 씁니다.
기계 학습 모델 외부에서 사용되는 예측자 선택 알고리즘은 좋은 결과를 제공합니다. 알고리즘에 내장된 알고리즘은 이 알고리즘의 일부이며 예측자가 이 특정 알고리즘에서 어떻게 사용되었는지 알려주는 것일 뿐 중요도에 대한 정보는 아니기 때문입니다. 대상 변수.
캐럿의 알고리즘은 매우 효과적이며 그 중 세 가지가 있습니다. 일반적으로 모든 것이 복합물에 있기 때문에 이 패키지를 가져와야 합니다. 데이터 마이닝, 예측 변수 선택, 모델 무리, 모델 선택 및 평가뿐만이 아닙니다. 누구에게나 이 캐럿은 "무슨 일이 일어나는가"라는 주제에 대한 교과서로 사용될 수 있습니다.
어떻게 든 내가 직접 리뷰를 작성했는데 유용 할 수 있습니다.
완전히, 그리고 나는 이 스레드에서 처음이 아니라 이것에 대해 씁니다.
기계 학습 모델 외부에서 사용되는 예측자 선택 알고리즘은 좋은 결과를 제공합니다. 알고리즘에 내장된 알고리즘은 이 알고리즘의 일부이며 예측자가 이 특정 알고리즘에서 어떻게 사용되었는지 알려주는 것일 뿐 중요도에 대한 정보는 아니기 때문입니다. 대상 변수.
어떻게 든 내가 직접 리뷰를 작성했는데 유용 할 수 있습니다.
그것에 대해 생각한다면? 이 접근 방식을 사용하면 끝없는 기능 선택 주기가 시작됩니다.
그리고 대부분의 모델이 나무를 기반으로 하는 예제를 버렸죠 lolz :)
아이고, 끊임없이 변화하는 시장에서 너무 노동 집약적이라고 생각합니다.
데이터 마이닝을 위한 데이터 마이닝은 나에게 좋지 않습니다. 흥미로운
소비된 컴퓨팅 성능을 고려하지 않고 거래를 준비하는 데 걸리는 시간만 고려하면 매우 흥미로운 그림을 얻을 수 있습니다. 나는 다음을 수행합니다.
토요일에는 4~8시간(근무일)을 사용하여 모델을 만들지 않고 모델을 만들고 금요일에는 환경 보호 차원에서 차량의 성능을 판단합니다. 그래서 다음주를 준비하며 토요일을 보낸다. 그리고 시장이 너무 빨리 변하고 있다는 사실에 대해 당신의 생각이 절대적으로 옳습니다. 따라서 5년 동안 모델을 구축하는 것은 어리석은 일입니다. 일반적으로 차량이 제 시간에 훈련 영역의 50%를 작동한다면 이는 상당히 가치 있는 결과라고 생각합니다. 결과적으로 큰 모델은 의미가 없다는 것을 깨닫고 훈련의 질(훈련 기간이 길수록 모델이 나빠짐) 면에서 더 나빠질 것이기 때문에 나는 훈련 영역을 TS가 적어도 일주일 동안 일할 수 있도록 2주. 그 결과 대략 10개 정도의 모델을 얻고, 온갖 테스트를 거쳐 모델을 실행하고, 이제는 온갖 통계적 메트릭을.... 이 테스트를 통과한 것들만 정확히 골라서 VPS에 올리고 ... ... 다음 토요일까지 무료입니다. 로봇 운송업자가 스스로 강타하고 있으며, 나는 명령 실행을 위해서만 그를 제어합니다. 그래서 ... 나는 갇히지 않도록 본다. 예전에는 매일 아침 TS에 들어가서 하나의 매개변수를 설정해야 했는데 지금은 이 병이 없어져서 VPS에 가끔 가는데 2~3일에 한 번씩 들어가고 그 동안 거래가 없으면 이번에는 그렇지 않으면 ... 모든 것을 말과 함께 서신으로 보내십시오. 결과적으로 나는 거래마다가 아니라 몇 주 만에 내 작업을 평가합니다. 플러스 또는 마이너스의 주, 중요한 것은 플러스 주가 더 많다는 것입니다. 그러나 사실은 다음과 같습니다.
나는 토요일에 5시간을 보냈고 다음 주에는 바지를 입고 손을 잡고 시장에 대해 생각하지 않고 학생들에게 모든 종류의 컴퓨터 트릭을 가르칠 것입니다. 손을 잡고 거래하는 것은 한 가지 단점이 있습니다. 하루 종일 모니터 앞에 앉아서 병합할 수 있으므로 금전적 손실은 물론 시간낭비로 이어집니다. 그리고 아시다시피 시간은 재생 가능한 자원이 아닙니다 !!!!!
따라서 거래하는 경우 로봇으로 만 시장에서 가능한 한 적은 시간을 보내려고 노력하여 시장에서 실패하는 경우 경제의 실제 부문 (일, coven, etc.) 글쎄요.. 생각을 크게 소리내어 말하지만 가장 하고 싶은 말은 또 반복하고 싶습니다.
끊임없이 변화하는 시장에서 대형 모델을 구축하는 것은 의미가 없습니다. 큰 모델이 무엇이든 작은 모델만큼 빨리 쓸모없게 될 것이고, 일반적으로 작은 모델만이 훈련 결과 면에서 더 나은 것으로 밝혀지고 더 빨리 구축됩니다.
시장을 따라가는 적응형 모델에 대해 이야기하면 새로운 데이터가 모델 자체의 구조를 조정하면 그러한 모델도 오래 가지 않습니다. 시간 간격이 지나면 자동으로 재교육되는 자가 학습 시스템이 스스로 선택하는 경우 등은 예외입니다. 여기에서 그것은 분명히 지적인 느낌을 주지만 이것은 아직 멀었다고 생각합니다. 물론이죠!
시장을 따라가는 적응형 모델에 대해 이야기하면 새로운 데이터가 모델 자체의 구조를 조정하면 그러한 모델도 오래 가지 않습니다. 시간 간격이 지나면 자동으로 재교육되는 자가 학습 시스템이 스스로 선택하는 경우 등은 예외입니다. 여기에서 분명히 지적인 느낌이 들지만 이것은 아직 멀었다고 생각합니다. 물론이죠!
그것은 오랫동안 거기에 있습니다 :) 작동하고 지속적으로 재 훈련 된 다음 "활동"의 결과는 신경망에 의해 근사화되고 이러한 추정치는 새로운 결정과 후속 조정을 내리는 데 일정한 확률로 사용됩니다
적어도 접근 방식은 외환에 대해 적어도 더 논리적입니다.
대략적으로 말하자면, 그러한 시스템은 지속적으로 다른 상태로 파고들고, 그것이 한 일을 기억하고, 결과를 분석하고 경험을 기반으로 결정을 내립니다. 훈련이지 우리가 지금까지 한 것과 같은 일반적인 근사치가 아닙니다.완전히, 그리고 나는 이 스레드에서 처음이 아니라 이것에 대해 씁니다.
기계 학습 모델 외부에서 사용되는 예측자 선택 알고리즘은 좋은 결과를 제공합니다. 알고리즘에 내장된 알고리즘은 이 알고리즘의 일부이며 예측자가 이 특정 알고리즘에서 어떻게 사용되었는지 알려주는 것일 뿐 중요도에 대한 정보는 아니기 때문입니다. 대상 변수.
캐럿의 알고리즘은 매우 효과적이며 그 중 세 가지가 있습니다. 일반적으로 모든 것이 복합물에 있기 때문에 이 패키지를 가져와야 합니다. 데이터 마이닝, 예측 변수 선택, 모델 무리, 모델 선택 및 평가뿐만이 아닙니다. 누구에게나 이 캐럿은 "무슨 일이 일어나는가"라는 주제에 대한 교과서로 사용될 수 있습니다.
어떻게 든 내가 직접 리뷰를 작성했는데 유용 할 수 있습니다.
네 감사합니다! 캐럿이 설치되었습니다. 나는 연기가 날 것이다. 하지만 바로 지금 여기에서 깨달았습니다. 나는 현재 약 110개의 항목을 가지고 있으며 이것은 내가 공식화하고 수집할 수 있는 최대 수입니다. 저는 오래전에, 약 3년 정도 전에 했고, 이 입력들이 생각만큼 좋지 않으면 어쩌나 하는 생각이 들어서, 내 차량에 대한 입력 검색을 재개하자는 생각을 하게 되었습니다. !!!! 또한 통계 메트릭을 사용하면 이 작업을 훨씬 더 쉽게 수행할 수 있습니다. 먼저 모든 것을 공통 더미에 던진 다음 걸러내고 특정 기준에 따라 중요한 것만 남겨둡니다.
나는 CD에서 Denis에게 연락했고 그는 완전히 다른 성격을 가졌지만 시장과 관련된 또 다른 일련의 데이터를 얻을 수 있도록 도와주겠다고 약속했습니다. 마찬가지로 N개의 막대 기간 동안 데이터를 가져오는 것은 옳지 않다고 생각합니다. 이 경우에는 시간 척도로 이동하지만 가격 척도로 수익을 올리기 때문입니다. 따라서 시장은 시간이 아닌 가격 규모(프로파일)의 틀 내에서 분석되어야 합니다. 실제로 Denis가 델타 프로필의 구성을 돕겠다고 약속한 것 등. 그리고 이러한 데이터는 N 막대당 델타보다 AI에 훨씬 더 흥미로울 것입니다. 게다가 그는 여전히 CME 한 잔을 휘젓고 있어 올림픽에 갈 수 있을 것이고, 이것은 볼륨과 함께 이미 HOGOGOOOOO!!!!!. 물론 OI는 날씨를 만들지 않지만 차량 성능이 5-10% 증가하면 이 비율이 충분하지 않기 때문에 문제가 되지 않습니다 ......
그것에 대해 생각한다면? 이 접근 방식을 사용하면 끝없는 기능 선택 주기가 시작됩니다.
그리고 대부분의 모델이 나무를 기반으로 하는 예제를 버렸죠 lolz :)
나는 생각할 필요가 없습니다. 저에게 이것은 실험 결과의 상당히 큰 아카이브가 있는 통과된 단계입니다.
나는 내가 여러 번 쓴 것을 반복 할 것입니다.
1. 타겟 PO
2. 이 목표에 대해 약 200개의 예측 변수를 생각해 냈습니다.
3. 200개 중 '대상에 대한 영향' 알고리즘에 따라 27개의 예측변수를 선택했습니다.
4. 각 막대에서 27개의 예측 변수 중 rfe로 예측 변수를 선택합니다. 선택한 변수의 수는 27개 중 6-7개에서 15개까지 다양합니다.
5. RF를 사용자 정의합니다. 피팅 오류는 30%보다 약간 적습니다.
무한 루프가 없습니다. 30%는 매우 좋은 결과이지만 이론상으로는 그렇습니다. 나는 그러한 결과에 대한 실용적인 조언자를 만들 수 없었고 추세 지표 를 추가해야했습니다. 이제 지표(정크)를 GARCH로 변경합니다.
그것은 오랫동안 거기에 있습니다. :) 작동하고 지속적으로 재 훈련 된 다음 "활동"의 결과는 신경망에 의해 근사화되고 이러한 추정치는 새로운 결정을 내리고 후속 조정을 내리는 데 일정한 확률로 사용됩니다
적어도 접근 방식은 외환에 대해 적어도 더 논리적입니다.
대략적으로 말하자면, 그러한 시스템은 지속적으로 다른 상태를 파고들고, 자신이 한 일을 기억하고, 결과를 분석하고, 경험을 기반으로 결정을 내립니다.이것이 첫 번째 옵션이고 두 번째 옵션은 비교적 짧은 시간 동안 적응 없이 작은 모델을 구축하는 것입니다. 말하자면 시장에 대한 습격. 그는 최적화되어 와서 평민들로부터 좋은 거래 몇 개를 얻었고 다음 시간까지 그랬습니다....
예측 변수를 샘플링하고 추출하고 생성할 수 있습니다. 동시에 소위 "노이즈" 예측자 외에도 다시 매핑하거나 제거해야 하는 "노이즈" 예가 있다는 것을 잊지 마십시오. 이 모든 것을 읽고 기사에서 예제를 반복할 수 있습니다.
심층 신경망(3부). 선택 및 차원 축소의 예
심층 신경망(2부). 예측 변수의 개발 및 선택
심층 신경망(1부). 데이터 준비
기계 학습 모델에 대한 변수 추정 및 선택
행운을 빕니다