트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3298

 
fxsaber #:

인간의 뇌는 무의식적인 수준에서 극히 적은 양의 데이터에서도 '패턴'을 찾아낼 수 있는 것으로 알려져 있습니다. 이를 운이라고 부를 수는 없습니다. 미스터리입니다.

실제로 트레이더는 트레이딩과 관련하여 MO 모델보다 훨씬 더 많은 정보를 동시에 다른 방식으로 처리합니다. 게다가 뇌는 트레이딩과 관련이 없지만 트레이딩 작업을 해결하는 데 도움이되는 다양한 지식으로 무장하고 있습니다.

 
Andrey Dik #:

가짜 데이터로 사전 훈련된 두뇌가 이전에는 몰랐던 특정 문제를 해결한다는 것을 직접 보여주셨고, 추가적인 '지식'이 필요하지 않다고 하셨죠.

그런 말 한 적 없어요, 거짓말 그만하세요 😀.
징후는 지식이 아닙니다.
 
Andrey Dik #:

'극한'의 개념을 '날카로운 피크'(함수에 미분이 없는 지점)와 혼동하고 계십니다.

평평한 표면에도 극한이 있습니다.

또 다른 한 가지는 FF는 항상 FF 표면이 가능한 한 매끄럽고 전역 극한이 유일한 극한이 되도록 선택하려고 노력한다는 것입니다. 유일한 전역 극한은 문제의 유일한 명확한 해결책이어야 합니다.

FF의 전역 극한이 유일한 극한이 아니며, 더구나 도함수가 없다면 이는 FF(모델 평가의 기준)를 잘못 선택했음을 의미합니다. 이를 잘못 이해하면 "과적합"이라는 용어가 생기고, 이를 잘못 이해하면 모호한 국부 극값을 찾게 됩니다.

우리는 비유를 그릴 수 있습니다. 전문가 (의사)가 훈련을 받고 자격 시험 (FF)이 인증을 위해 개발되었으며 의사에게는 "과잉 훈련"또는 "과잉 적합"이라는 개념이있을 수 없으며 의사가 최대 점수를 얻지 못하면 훈련이 부족하다는 것을 의미합니다. 그리고 여러분에 따르면 좋은 의사는 항상 훈련을 받지 않은 비과학자이어야 합니다.

다시 한 번, "과잉 훈련"의 문제는 모델을 평가하기위한 잘못된 기준 선택입니다. 포럼에 그런 멋진 전문가들이 있는 것 같지만 그들은 같은 실수를 반복해서 반복합니다. 올바른 추정 기준을 개발하는 것은 예측 변수를 선택하는 것보다 중요하지 않으며, 그렇지 않으면 모델을 적절하게 추정하는 것이 불가능합니다.

이의 제기가 쇄도할 것으로 예상하지만 괜찮아요, 익숙합니다. 누군가에게 유용하다면 좋고, 유용하지 않은 사람은 상관없으니 이대로도 괜찮다고 생각하겠죠.

슈퍼 핏 모델은 최적화와는 전혀 관련이 없습니다.

견적서의 이상적인 과적합 모델은 견적서 그 자체입니다. 다른 모델 구축의 경우와 마찬가지로 최적화가 없거나 그러한 모델의 추정치가 퇴보하는 등의 경우와 마찬가지로 말입니다.

"모델"이라는 단어의 의미를 이해하지 못하고 있습니다. 예를 들어, 뉴턴의 만유인력의 법칙의 모델을 예로 들 수 있습니다. 진공, 우주에 다른 물체가없는 일부 이상적인 조건에서 적용 할 수 있습니다. 그럼에도 불구하고 연습을 위해 충분한 정확도로 많은 계산을 할 수 있습니다.

그리고 모델 구축의 전체 문제는 실제 데이터의 오차가 우리에게 적합한 모델을 찾는 것입니다. 우리가 보는 오류는 반드시 미래에있을 필요는 없지만 어느 정도 신뢰 구간에있을 것임을 이해해야합니다. 따라서 우리는 실제로 허용되는 간격 내에서 오차가 있는 모델을 찾고 있습니다. 극단값은 필요하지 않습니다.

 
Forester #:

1,500억 개의 뉴런, 뉴런당 하나의 출력만이 아니라 다수의 출력. AI는 이 수준의 지능에 도달하는 데 오랜 시간이 걸리거나 아예 도달하지 못할 것입니다.
NS는 지능의 수준을 바퀴벌레에 비유합니다 - 달리고, 물고, 도망치는 바퀴벌레.

수십억 명의 인류를 곱하면 현재 문명은 매우 적은 양의 데이터로 가설을 제시할 수 있으며, 이는 관찰된 많은 현상을 정확하게 예측하고 관찰되지 않은 현상까지 재현할 수 있음을 보여줍니다.

 
Maxim Dmitrievsky #:
원샷 학습. 사전 훈련된 대규모 NS(두뇌)가 몇 가지 예제만으로 왼쪽 데이터에 대해 사전 훈련된 경우. 모델이 처음에 세상의 법칙을 학습했다면, 새로운 작업을 한눈에 보기만 해도 쉽게 클릭할 수 있습니다.

특히 대규모 언어 모델이 새로운 작업을 위해 사전 학습되는 방식입니다. 그러나 이러한 새로운 예제를 오랫동안 학습하도록 강요하면 이전 경험을 잊어버리고 새로운 데이터에 편향되기 시작합니다.
새끼의 나이에 따른 원샷 학습의 품질을 그래프로 그려보면 흥미로울 것입니다.
 

Well.... 트리에는 최적화가 있습니다. 최적의 분할을 선택할 때. 모든 열/속성을 확인하고 다양한 분할을 수행한 다음 분류를 위해 최소 클래스 불순물 값을 갖는 분할 또는 회귀를 위해 최대 정확도를 갖는 분할을 사용합니다.
무작위 포리스트의 경우, 여기서 끝납니다. 그런 다음 특징의 50%가 무작위로 주어지는 트리 집합의 결과를 평균하기만 하면 됩니다.
부스팅에서는 후속 트리마다 이전 트리의 합의 오차를 학습하여 이 오차를 최소화합니다.

하지만 이 모든 것은 보닛 아래에서 사용자에게 숨겨져 있기 때문에 이야기할 필요가 없습니다. 테스터에서 모델의 부호나 교사를 변경하는 일부 파라미터의 값을 검색하여 최적화하는 것과는 다릅니다(예: TP/SL 선택).

 
Maxim Dmitrievsky #:
징후는 지식이 아닙니다.

징후가 무엇이라고 생각하세요? 진정하세요.
지식이란 무엇인가요?

오늘 최적화가 MO와 아무 관련이 없다고 하셨다가 이제 관련이 있다고 인정하셨잖아요.
잠깐만요, 이제 징후가 지식이라는 얘기로 넘어가고 있군요.
 
fxsaber #:
새끼의 나이부터 원샷 학습의 질을 그래프로 그려보면 흥미로울 것입니다.

대부분의 경우 NS- 뇌는 환경(및 디지털)의 영향을 많이 받으며, 특히 NS가 가장 빠르게 형성되는 시기인 유아기에 큰 영향을 받습니다.

같은 나이의 이러한 NS를 2-3 세의 가젯과 가젯이없는 다른 작업에서 다른 작업에서 비교하는 것은 흥미로울 것입니다.

즉, 어떤 종류의 NS 개발이 특정 작업의 솔루션에 긍정적 / 부정적으로 영향을 미치는지 이해하는 것입니다.


아마도 사려 깊은 TC 발명은 피상적인 클립 사고보다 덜 성공할 것입니다.

 
Andrey Dik #:

징후가 무엇이라고 생각하시나요? 진정합시다.
그리고 지식이란 무엇인가요?

오늘 최적화가 MO와 관련이 없다고 하셨다가 이제 관련이 있다고 인정하셨잖아요.
잠깐만요, 이제 징후가 지식이라는 얘기로 넘어가고 있네요.
제가 어디에서 최적화가 IO와 관련이 없다고 말했나요?

저 빼고 가주세요.
 
Maxim Dmitrievsky #:
최적화가 국방부와 아무 관련이 없다고 제가 어디에서 말했나요?

저 빼고 오세요.

그럴 줄 알았어.
당신이 한 말을 다시 읽어보세요.
사유: