트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2809

 
Valeriy Yastremskiy #:

라이브러리에서 유형을 고려하지 않나요? 데이터 유형은 가장 저렴한 계산을 위한 데이터와 같습니다. 계산을 위해 동일한 행렬을 설계해야 합니다.

R에 대한 numpy의 아날로그를 찾지 못했고 행렬은 그다지 빠르지 않으며 R 자체는 패러다임으로 인해 많은 메모리를 소비합니다.

물론 타사 라이브러리는 느릴 수 있는데 누가 그것을 확인하겠습니까?

무엇을 비교해야 할지 모르겠으니 기가바이트 데이터 세트를 로드해서 속도를 비교하고 싶지 않습니다.
 
Алексей Тарабанов #:

말도 안 돼

지원군과의 훈련은요?
 
mytarmailS #:
그리고 강화 학습은?

topkstarter는 R의 hubr에서 DQN에 대한 논문을 썼습니다.

강화 학습은 단지 까다로운 최적화라는 점을 이해해야 합니다.

어떤 경우에는 효과가 있을 수도 있고 그렇지 않을 수도 있습니다.

 
Maxim Dmitrievsky #:

R에 대한 늠름한 아날로그를 찾을 수 없습니다....

..
속도가 필요하다면 데이터 테이블, 데이터 프레임의 빠른 아날로그가 필요하다면 티블, 많은 양의 데이터가 필요하다면 빅 매트릭스가 필요합니다.

 
mytarmailS #:
..
정확히 무엇이 필요한가요? 속도가 중요하다면 데이터 테이블, 데이터 프레임에 대한 빠른 아날로그라면 티블, 많은 양의 데이터라면 빅 매트릭스가 필요합니다.

알렉시의 고통을 덜어주고 싶었습니다.) 처음부터 확실히 더 쉬워졌지만... 여전히 그렇습니다.

 
Maxim Dmitrievsky #:

탑픽스타터는 허브의 DQN에 대한 기사를 R에 작성했습니다.

강화 학습은 영리하게 설계된 최적화일 뿐이라는 것을 이해해야 합니다.

어떤 경우에는 작동 할 수도 있고 그렇지 않을 수도 있습니다.

기억력 질문의 맥락에서 보면...
RL에서는 액션 행렬과 상태 또는 액션 평가 행렬을 영원히 업데이트 할 수 있으며, 이는 지속적으로 업데이트되는 메모리와 같습니다. 하지만 제가 맞는지 모르겠습니다.
 
mytarmailS #:
글쎄, 메모리 질문의 맥락에서.
RL에서는 작업 행렬 행렬과 상태 평가 행렬 또는 작업 평가 행렬을 영원히 업데이트 할 수 있으며, 이는 지속적으로 업데이트되는 메모리와 같습니다..... 하지만 내가 맞는지 모르겠습니다.

새로운 데이터로 상태를 조정할 수 있지만 모두 수준 또는 Mashka와 같이 지연이 있습니다.

기본적으로 보상과 목표를 선택하는 것이 더 중요합니다. 그리고 그것은 거래를 다른 방향으로 던질 것이며 각 반복마다 점점 더 좋아질 것입니다.

 
Maxim Dmitrievsky #:

알렉시의 고통을 덜어주고 싶었습니다) 처음부터 확실히 더 쉬웠지만... 여전히

Alexey가 생각하고 듣고 싶다면 내 대본으로 2 분이 걸릴 것입니다....
 
Maxim Dmitrievsky #:

새로운 데이터에 맞게 상태를 조정할 수 있지만 모두 레벨 또는 마쉬카처럼, 즉 지연됩니다.

본질적으로 보상, 즉 목표를 선택하는 것이 더 중요합니다. 그리고 거래는 자체적으로 다른 방향으로 던져지고 각 반복마다 점점 더 좋아질 것입니다.

기억은 가중치가 훈련 된 NS이며 각 단계에서 훈련하고 가중치를 조금씩 움직입니다... 많지는 않으므로 지연이 있습니다.

그리고 그것을 터미널로 전송할 수 없습니다.

 
Maxim Dmitrievsky #:

메모리는 가중치가 훈련된 NS이며, 각 단계마다 가중치를 재훈련하고 가중치를 조금씩 이동하므로 지연이 .

.
훈련 된 네트워크 또는 훈련 된 AMO 또는 Mashka도 메모리입니다. 예, 그 비유를 받아 들일 수 있습니다....

그러나 훈련 된 신경망을 "재 훈련"할 때 가중치를 변경하고 현재를 위해 과거를 잊어 버립니다.....

재훈련이 아니라 모든 단계에서 재훈련하는 것입니다. 슬라이딩 윈도우의 Mashka처럼 그녀는 거기에 있었지만 슬라이딩 윈도우 밖에있는 것을 기억하지 못합니다.....
사유: