트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2809 1...280228032804280528062807280828092810281128122813281428152816...3399 새 코멘트 Maxim Dmitrievsky 2022.10.31 05:06 #28081 Valeriy Yastremskiy #:라이브러리에서 유형을 고려하지 않나요? 데이터 유형은 가장 저렴한 계산을 위한 데이터와 같습니다. 계산을 위해 동일한 행렬을 설계해야 합니다. R에 대한 numpy의 아날로그를 찾지 못했고 행렬은 그다지 빠르지 않으며 R 자체는 패러다임으로 인해 많은 메모리를 소비합니다. 물론 타사 라이브러리는 느릴 수 있는데 누가 그것을 확인하겠습니까? 무엇을 비교해야 할지 모르겠으니 기가바이트 데이터 세트를 로드해서 속도를 비교하고 싶지 않습니다. mytarmailS 2022.10.31 05:11 #28082 Алексей Тарабанов #:말도 안 돼 지원군과의 훈련은요? Maxim Dmitrievsky 2022.10.31 05:13 #28083 mytarmailS #: 그리고 강화 학습은? topkstarter는 R의 hubr에서 DQN에 대한 논문을 썼습니다. 강화 학습은 단지 까다로운 최적화라는 점을 이해해야 합니다. 어떤 경우에는 효과가 있을 수도 있고 그렇지 않을 수도 있습니다. mytarmailS 2022.10.31 05:14 #28084 Maxim Dmitrievsky #:R에 대한 늠름한 아날로그를 찾을 수 없습니다......속도가 필요하다면 데이터 테이블, 데이터 프레임의 빠른 아날로그가 필요하다면 티블, 많은 양의 데이터가 필요하다면 빅 매트릭스가 필요합니다. Maxim Dmitrievsky 2022.10.31 05:16 #28085 mytarmailS #:.. 정확히 무엇이 필요한가요? 속도가 중요하다면 데이터 테이블, 데이터 프레임에 대한 빠른 아날로그라면 티블, 많은 양의 데이터라면 빅 매트릭스가 필요합니다. 알렉시의 고통을 덜어주고 싶었습니다.) 처음부터 확실히 더 쉬워졌지만... 여전히 그렇습니다. mytarmailS 2022.10.31 05:17 #28086 Maxim Dmitrievsky #:탑픽스타터는 허브의 DQN에 대한 기사를 R에 작성했습니다. 강화 학습은 영리하게 설계된 최적화일 뿐이라는 것을 이해해야 합니다. 어떤 경우에는 작동 할 수도 있고 그렇지 않을 수도 있습니다. 기억력 질문의 맥락에서 보면...RL에서는 액션 행렬과 상태 또는 액션 평가 행렬을 영원히 업데이트 할 수 있으며, 이는 지속적으로 업데이트되는 메모리와 같습니다. 하지만 제가 맞는지 모르겠습니다. Maxim Dmitrievsky 2022.10.31 05:19 #28087 mytarmailS #: 글쎄, 메모리 질문의 맥락에서. RL에서는 작업 행렬 행렬과 상태 평가 행렬 또는 작업 평가 행렬을 영원히 업데이트 할 수 있으며, 이는 지속적으로 업데이트되는 메모리와 같습니다..... 하지만 내가 맞는지 모르겠습니다. 새로운 데이터로 상태를 조정할 수 있지만 모두 수준 또는 Mashka와 같이 지연이 있습니다. 기본적으로 보상과 목표를 선택하는 것이 더 중요합니다. 그리고 그것은 거래를 다른 방향으로 던질 것이며 각 반복마다 점점 더 좋아질 것입니다. mytarmailS 2022.10.31 05:20 #28088 Maxim Dmitrievsky #:알렉시의 고통을 덜어주고 싶었습니다) 처음부터 확실히 더 쉬웠지만... 여전히 Alexey가 생각하고 듣고 싶다면 내 대본으로 2 분이 걸릴 것입니다.... Maxim Dmitrievsky 2022.10.31 05:26 #28089 Maxim Dmitrievsky #:새로운 데이터에 맞게 상태를 조정할 수 있지만 모두 레벨 또는 마쉬카처럼, 즉 지연됩니다. 본질적으로 보상, 즉 목표를 선택하는 것이 더 중요합니다. 그리고 거래는 자체적으로 다른 방향으로 던져지고 각 반복마다 점점 더 좋아질 것입니다. 기억은 가중치가 훈련 된 NS이며 각 단계에서 훈련하고 가중치를 조금씩 움직입니다... 많지는 않으므로 지연이 있습니다. 그리고 그것을 터미널로 전송할 수 없습니다. mytarmailS 2022.10.31 05:46 #28090 Maxim Dmitrievsky #:메모리는 가중치가 훈련된 NS이며, 각 단계마다 가중치를 재훈련하고 가중치를 조금씩 이동하므로 지연이 ..훈련 된 네트워크 또는 훈련 된 AMO 또는 Mashka도 메모리입니다. 예, 그 비유를 받아 들일 수 있습니다....그러나 훈련 된 신경망을 "재 훈련"할 때 가중치를 변경하고 현재를 위해 과거를 잊어 버립니다.....재훈련이 아니라 모든 단계에서 재훈련하는 것입니다. 슬라이딩 윈도우의 Mashka처럼 그녀는 거기에 있었지만 슬라이딩 윈도우 밖에있는 것을 기억하지 못합니다..... 1...280228032804280528062807280828092810281128122813281428152816...3399 새 코멘트 사유: 취소 트레이딩 기회를 놓치고 있어요: 무료 트레이딩 앱 복사용 8,000 이상의 시그널 금융 시장 개척을 위한 경제 뉴스 등록 로그인 공백없는 라틴 문자 비밀번호가 이 이메일로 전송될 것입니다 오류 발생됨 Google으로 로그인 웹사이트 정책 및 이용약관에 동의합니다. 계정이 없으시면, 가입하십시오 MQL5.com 웹사이트에 로그인을 하기 위해 쿠키를 허용하십시오. 브라우저에서 필요한 설정을 활성화하시지 않으면, 로그인할 수 없습니다. 사용자명/비밀번호를 잊으셨습니까? Google으로 로그인
라이브러리에서 유형을 고려하지 않나요? 데이터 유형은 가장 저렴한 계산을 위한 데이터와 같습니다. 계산을 위해 동일한 행렬을 설계해야 합니다.
R에 대한 numpy의 아날로그를 찾지 못했고 행렬은 그다지 빠르지 않으며 R 자체는 패러다임으로 인해 많은 메모리를 소비합니다.
물론 타사 라이브러리는 느릴 수 있는데 누가 그것을 확인하겠습니까?
무엇을 비교해야 할지 모르겠으니 기가바이트 데이터 세트를 로드해서 속도를 비교하고 싶지 않습니다.말도 안 돼
그리고 강화 학습은?
topkstarter는 R의 hubr에서 DQN에 대한 논문을 썼습니다.
강화 학습은 단지 까다로운 최적화라는 점을 이해해야 합니다.
어떤 경우에는 효과가 있을 수도 있고 그렇지 않을 수도 있습니다.
R에 대한 늠름한 아날로그를 찾을 수 없습니다....
..
알렉시의 고통을 덜어주고 싶었습니다.) 처음부터 확실히 더 쉬워졌지만... 여전히 그렇습니다.
탑픽스타터는 허브의 DQN에 대한 기사를 R에 작성했습니다.
강화 학습은 영리하게 설계된 최적화일 뿐이라는 것을 이해해야 합니다.
어떤 경우에는 작동 할 수도 있고 그렇지 않을 수도 있습니다.
글쎄, 메모리 질문의 맥락에서.
새로운 데이터로 상태를 조정할 수 있지만 모두 수준 또는 Mashka와 같이 지연이 있습니다.
기본적으로 보상과 목표를 선택하는 것이 더 중요합니다. 그리고 그것은 거래를 다른 방향으로 던질 것이며 각 반복마다 점점 더 좋아질 것입니다.
알렉시의 고통을 덜어주고 싶었습니다) 처음부터 확실히 더 쉬웠지만... 여전히
새로운 데이터에 맞게 상태를 조정할 수 있지만 모두 레벨 또는 마쉬카처럼, 즉 지연됩니다.
본질적으로 보상, 즉 목표를 선택하는 것이 더 중요합니다. 그리고 거래는 자체적으로 다른 방향으로 던져지고 각 반복마다 점점 더 좋아질 것입니다.
기억은 가중치가 훈련 된 NS이며 각 단계에서 훈련하고 가중치를 조금씩 움직입니다... 많지는 않으므로 지연이 있습니다.
그리고 그것을 터미널로 전송할 수 없습니다.
메모리는 가중치가 훈련된 NS이며, 각 단계마다 가중치를 재훈련하고 가중치를 조금씩 이동하므로 지연이 .