트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3030

 
Forester #:

복잡한 설명입니다. 예를 들어 열을 정렬하고 32개 부분으로 나누면 중복이 있는 경우 모두 퀀텀에 던져집니다. 열에 0과 1만 있는 경우 32개가 아닌 2개의 퀀텀이 있습니다(중복이 있기 때문에).

여러분은 방법을 말하는 것이고 저는 목표를 말하는 것입니다. 방법은 다를 수 있습니다. 경험적 방법이 수학적 방법보다 더 나은 경우가 많습니다. 아마도 일반 표본에 대한 완전한 데이터가 없기 때문일 것입니다.

 
Aleksey Nikolayev #:

기본적으로 트리는 각 예측자에 대해 개별적으로 구축되는 것으로 밝혀졌습니다.

예, 이것이 불연속형 값에 대해 C4.5 트리가 구축되는 방식입니다. 하나의 분할입니다.

 
Aleksey Vyazmikin #:

여러분은 방법에 대해 이야기하고 있고 저는 목표에 대해 이야기하고 있습니다. 다양한 방법이 있을 수 있습니다. 경험적 방법이 수학적 방법보다 더 나은 경우가 많습니다. 아마도 일반 표본에 대한 완전한 데이터가 없기 때문일 것입니다.

비고정 데이터의 경우 '마스터 샘플'이라는 개념이 전혀 없고 꼬리만 있을 뿐입니다. 바로 이 점이 문제이며, 향후 학습을 통한 추정치를 얻기가 매우 어려운 이유입니다.

 
СанСаныч Фоменко #:

비고정 데이터의 경우 '마스터 샘플'이라는 개념이 전혀 없고 꼬리만 존재합니다. 이것이 바로 훈련에서 얻은 추정치를 향후에 얻기가 매우 어려운 이유입니다.

우리는 그것을 모릅니다. 더 정확하게는 분포의 실제 밀도를 알지 못하고 발췌된 부분만 관찰하기 때문에 이러한 변동이 발생하는 것입니다.

나는 개념에 따라 살지 않습니다 :)

그래서 우리가 그 과정에 있기 때문에 우리가 관찰 할 수없는 그러한 현상이 어떻게 호출되는지 말해봐, 그것은 우주의 먼 곳에서 오래 전에 완성되었습니다....

 
СанСаныч Фоменко #:

비고정 데이터의 경우 '마스터 샘플'이라는 개념이 전혀 없고 꼬리만 존재합니다. 이것이 바로 훈련에서 얻은 추정치를 향후에 얻기가 매우 어려운 이유입니다.

맞습니다, 산산치.

비고정 데이터는 항상 다른비고정 데이터의 누적 효과에 영향을 받습니다. 꼬리가 달려 있습니다.

 
Aleksey Vyazmikin #:

데이터를 설명하는 예측자 값의 범위입니다.

여기에서는 알고리즘을 실제로 설명했으며 RSI가 있는 그림도 있습니다.

알겠습니다. 모든 것과 모든 것을 분리하고 별도로 연구하십시오.

나는 그들이 왜 양자 인 이유를 이해하지 못합니다.
 
Maxim Dmitrievsky #:
왜 퀀텀인지 모르겠어요.

그 아이는 규칙에 따라 살지 않기 때문이라고 그는 썼습니다.)

 
Maxim Dmitrievsky #:

이해합니다. 모든 것과 모든 사람을 분리하고 따로 공부하십시오.

왜 퀀텀인지 모르겠어요.

아마도 번역 때문일 겁니다. 용어 때문이겠죠.

양자화와 그 다른 방법, 분할 지점이 포함 된 테이블 (양자 테이블)은 이미 CatBoost 지침에서 나온 것입니다.

양자 세그먼트-양자 테이블에서 가져온 것이지만 극단적 인 세그먼트에는 한계가 있습니다. 이미 제 발명품입니다.

 
Aleksey Vyazmikin #:

아마도 번역가들의 잘못일 겁니다. 용어가 잘못됐어요.

양자화와 그 다른 방법, 분할 지점이 포함된 테이블(양자 테이블)은 이미 CatBoost 지침에서 나온 것입니다.

양자 세그먼트-양자 테이블에서 가져온 것이지만 극단적 인 세그먼트에는 한계가 있습니다. 이미 제 발명품입니다.

퀀텀이 아니라 아마도 여기처럼 양자화된 것입니다.

5.4 컨볼루션 신경망의 양자화

고전적으로, 명백한 최적화 어려움으로 인해 신경망을 양자화할 때 정수를 사용하는 것이 아니라 정수를 통해 부동 소수점 숫자의 근사치를 사용합니다. 임의의 깊이의 정수를 통해 부동 소수점 숫자를 근사화하기 위해 문헌 [52, 54, 60]에서널리 사용되는 접근 방식은 Google GEMMLOWP 라이브러리 [59]에서 제안된 알고리즘입니다. 입력 배열 𝑋, 경계값 [𝑣􏰲􏰭􏰠,𝑣􏰲􏰈􏰂], 비트 수 𝑀가 주어지면 결과는 다음과 같이 정의됩니다:

𝑠𝑐𝑎𝑙𝑒 =(𝑣􏰲􏰈􏰂 - 𝑣􏰲􏰭􏰠)/2􏰳,(14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(-𝑣􏰲􏰭􏰠/𝑠𝑐𝑎𝑙𝑒, 0),2􏰳)),(15)𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡).(16)

따라서 부동 소수점 숫자의 각 배열에 대해 정수 배열 𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡, 정수 𝑜𝑢𝑡𝑡, 정수 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡, 양자화 배율을 정의하는 배정밀도𝑠𝑐𝑎𝑙𝑒 숫자 0을 정확하게 표현합니다.


https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y

 
Maxim Dmitrievsky #:

퀀텀이 아닌, 여기처럼 양자화되어 있습니다.

5.4 컨볼루션 신경망의 양자화

고전적으로 신경망의 양자화는 명백한 최적화 어려움으로 인해 정수만 사용하는 것이 아니라 정수를 통해 부동 소수점 수에 대한 근사치를 사용합니다. 임의의 깊이의 정수를 통해 부동 소수점 숫자를 근사화하기 위해 문헌 [52, 54, 60]에서널리 사용되는 접근 방식은 Google GEMMLOWP 라이브러리 [59]에서 제안된 알고리즘입니다. 입력 배열 𝑋, 경계값 [𝑣􏰲􏰭􏰠,𝑣􏰲􏰈􏰂], 비트 수 𝑀가 주어지면 결과는 다음과 같이 정의됩니다:

𝑠𝑐𝑎𝑙𝑒 =(𝑣􏰲􏰈􏰂 - 𝑣􏰲􏰭􏰠)/2􏰳,(14) 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡 = 𝑟𝑜𝑢𝑛𝑑(min(max(-𝑣􏰲􏰭􏰠/𝑠𝑐𝑎𝑙𝑒, 0),2􏰳)),(15)𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡 = 𝑟𝑜𝑢𝑛𝑑(𝑋/𝑠𝑐𝑎𝑙𝑒 + 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡).(16)

따라서 부동 소수점 숫자의 각 배열에 대해 정수 배열 𝑜𝑢𝑡𝑝𝑢𝑡𝑝𝑢𝑡, 정수 𝑜𝑢𝑡𝑡, 정수 𝑧𝑒𝑟𝑜_𝑝𝑜𝑖𝑛𝑡, 0을 정확하게 나타내는 정수, 양자화 규모를 정의하는 배정밀도𝑠𝑐𝑎𝑙𝑒 숫자입니다.


https://dspace.susu.ru/xmlui/bitstream/handle/0001.74/29281/2019_401_fedorovan.pdf?sequence=1&isAllowed=y

번역의 문제일 뿐 모두 동의어입니다. 다음은 CatBoost 설정입니다.


사유: